Da infraestrutura ao raciocínio avançado: o que o keynote de Peter DeSantis e Dave Brown sinaliza para o futuro na AWS

Quando se fala em IA generativa, é fácil olhar apenas para os modelos e esquecer a base. O keynote de infraestrutura do AWS re:Invent 2025, liderado por Peter DeSantis (vice-presidente sênior de computação de utilidade da AWS) e Dave Brown (Dave Brown(vice-presidente de serviços de computação e aprendizado de máquina da AWS), deixa claro que a próxima onda não é só “mais modelos”: é raciocínio avançado aplicado a processos específicos, apoiado por uma camada de infraestrutura cada vez mais inteligente, eficiente e especializada.

Em termos práticos, isso significa que a AWS está redesenhando o stack para que empresas consigam sair da fase de demonstração de IA e entrem em um estágio de aplicação concreta em negócios: automação, decisão, atendimento, logística, finanças, experiência digital, tudo com IA no centro da operação.

A seguir, o que isso representa e qual é a leitura da Dati sobre esse movimento.

1. O novo alicerce: chips sob medida e compute inteligente

Com o Graviton5 e as instâncias EC2 M9g, a AWS reforça uma tese que nós, na Dati, já vemos se comprovar no dia a dia: infraestrutura deixou de ser commodity. Cada vez mais, a escolha da família de instâncias e da arquitetura de CPU define não só custo, mas também a viabilidade de rodar aplicações intensivas, de dados e de IA com margem saudável.

Graviton5 traz mais performance por watt, mais banda de memória e rede, melhor latência e novas camadas de segurança via Nitro. Traduzindo: é possível fazer mais com menos instâncias, com mais isolamento, em workloads de uso geral, da aplicação web ao backend crítico de negócio.

Na camada de IA pesada, o combo Trainium3 + Trn3 UltraServers entra como plataforma para treinar e operar modelos de larga escala. Para determinados perfis de empresa (ISVs, scale-ups, grandes grupos corporativos) isso muda o jogo em token economics: treinar, ajustar e operar modelos proprietários deixa de ser um luxo e se torna uma alternativa de estratégia competitiva.

Esse movimento encaixa diretamente nas frentes de modernização de infraestrutura e FinOps que a Dati já lidera em clientes de varejo, logística, mídia e serviços: migrar para arquiteturas mais eficientes (Graviton, instâncias otimizadas, conteinerização) libera orçamento e capacidade para investir na camada de dados e IA.

2. Serverless evoluído: Lambda encontra EC2

O lançamento do AWS Lambda Managed Instances é, em essência, o casamento entre dois mundos que muitas empresas tratavam como antagônicos: a experiência de desenvolvimento serverless e a flexibilidade de EC2.

Desenvolvedores seguem pensando em funções, eventos e integrações, enquanto a AWS gerencia um pool de instâncias subjacentes, permitindo escalar com eficiência de custo, aproveitar Savings Plans e escolher tipos de instância alinhados ao workload.

Isso é particularmente relevante para empresas que já abraçaram arquiteturas orientadas a eventos, algo muito presente em integrações, orquestrações de processos, pipelines de dados, integrações B2B e automações. Com Lambda Managed Instances, passa a ser possível manter esse modelo de arquitetura, mas com um controle econômico mais refinado.

Aqui, a Dati enxerga um espaço direto para apoiar clientes em três frentes:

  • Desenho de arquitetura: onde faz sentido usar Lambda clássico, onde usar Managed Instances, onde ainda faz sentido EC2 tradicional, containers ou EKS.
  • Otimização de custo e performance: desenho de capacity providers, perfis de escala, uso combinado com Savings Plans e FinOps.
  • Governança e observabilidade: garantir que o modelo continue auditável, rastreável e alinhado às políticas internas de segurança e compliance.

3. Dados vetoriais como “cidadãos de primeira classe”

Se a IA generativa é o cérebro, os vetores são a memória. Com a GA do Amazon S3 Vectors e o avanço dos Amazon Nova Multimodal Embeddings em Bedrock, a AWS está, basicamente, institucionalizando a ideia de que toda empresa relevante terá um grande repositório vetorial corporativo.

S3 Vectors transforma o S3 em um vector store serverless, capaz de armazenar e consultar vetores em escala de bilhões por índice, sem a necessidade de clusters dedicados de banco vetorial. Isso reduz a complexidade arquitetural, derruba custos e coloca a base de conhecimento mais próxima dos dados que já residem em S3.

Quando combinamos isso com um modelo de embeddings multimodal como o Nova, o jogo muda:

  • Textos, PDFs, imagens, vídeos, áudios e documentos passam a compartilhar um mesmo espaço semântico.
  • Fica mais simples construir assistentes corporativos que “entendem” conteúdo multimídia, não só texto.
  • Casos de uso avançados de suporte técnico, incluindo atendimentos com capturas e vídeos de tela, inspeções em campo com fotos e treinamentos em vídeo, passam a ser operacionalmente viáveis em escala.

Para a Dati, isso conversa diretamente com nossa atuação em dados, analytics e GenAI na AWS: desde soluções de RAG para documentos internos até plataformas de conteúdo multimídia para varejo e mídia. Já estruturamos projetos que conectam armazenamento, camadas de enriquecimento e modelos generativos para automatizar, por exemplo, produção editorial, análise de entregas ou inteligência de preços. S3 Vectors + Nova Embeddings simplificam e potencializam esse tipo de solução.

4. De modelos isolados a sistemas de raciocínio

Outro ponto crucial do keynote é a consolidação do Project Mantle como motor de inferência do Amazon Bedrock, junto com a Responses API compatível com OpenAI.

Na prática, isso significa duas coisas:

  1. Empresas podem trazer aplicações construídas sobre OpenAI para o ecossistema AWS com muito menos atrito, reaproveitando boa parte do código, ferramentas e fluxos já existentes.
  2. Bedrock deixa de ser apenas “mais um endpoint de modelo” e se afirma como plataforma para construção de agentes e sistemas de raciocínio: com estado de conversas, uso de ferramentas, orquestração de chamadas, camadas de qualidade de serviço e governança.

Para clientes corporativos, isso resolve uma equação delicada: como manter a velocidade de inovação em GenAI, sem abrir mão de requisitos de segurança, privacidade, isolamento, auditoria e integração com o restante da stack de nuvem.

Esse é exatamente o tipo de desafio em que a Dati atua: conectar a camada de IA (Bedrock, modelos, agentes, vetores) com as fundações de rede, identidade, dados, monitoração, custos e compliance em ambiente AWS.

Dave Brown, vice-presidente de serviços de computação e aprendizado de máquina da AWS.

5. Onde a Dati entra nessa história?

O conjunto de lançamentos do keynote não é um pacote de features isoladas; é um roadmap coerente de infraestrutura para raciocínio avançado aplicado a processos de negócio.

A Dati se posiciona como o parceiro que ajuda empresas a entender onde estão hoje em termos de maturidade em cloud, dados e IA, e a mapear quais componentes fazem sentido adotar neste momento, como Graviton, novas instâncias EC2, Lambda Managed Instances, S3 Vectors, Amazon Bedrock, Trainium, entre outros.

Com isso, desenhar arquiteturas de referência que conectem:

  • Compute eficiente (Graviton, Trainium, instâncias otimizadas).
  • Dados e analytics (S3, Lakehouse, BI, streaming).
  • IA generativa aplicada (Bedrock, agentes, RAG, embeddings, vetores).
  • Camadas de governança, segurança e FinOps.

A partir daí, entramos com projetos piloto bem recortados, PoCs rápidas, casos de uso com retorno claro (exemplo: automação de atendimento, copilots internos, otimização logística, inteligência de preços, geração de conteúdo assistida), evoluindo para soluções em produção com arquitetura.

De forma estratégica, os anúncios da AWS ampliam as possibilidades para que as empresas incorporem IA generativa e automação inteligente diretamente no core do negócio, acelerando inovação e ganho de eficiência. Nesse contexto, a Dati atua como parceira estratégica, transformando essa infraestrutura em resultados concretos, com foco em segurança, eficiência operacional e sustentabilidade de longo prazo.