A Nova Era da Inteligência Artificial: Nvidia e a Aposta na Inferência
Um acordo de US$ 20 bilhões entre a Nvidia e a Groq, anunciado em dezembro de 2026, sinaliza uma mudança fundamental na estratégia da indústria de inteligência artificial. A Nvidia, que se consolidou como líder na fabricação de GPUs – os “chips” responsáveis por impulsionar o treinamento de modelos de IA e a primeira grande onda de IA generativa, agora foca na inferência, ou seja, a etapa em que os modelos já treinados são utilizados para gerar resultados em tempo real.
CONTINUA DEPOIS DA PUBLICIDADE
Analistas da RBC Capital apontam que a inferência se tornará a principal carga de trabalho da IA, podendo superar o mercado de treinamento em volume.
Essa mudança na estratégia impacta as exigências técnicas. O treinamento necessita de grande poder computacional e flexibilidade, enquanto a inferência demanda velocidade, previsibilidade, eficiência energética e custo por resposta. A Groq, fundada por ex-engenheiros do Google, entra nesse cenário com as chamadas LPUs (Unidades de Processamento de Linguagem), projetadas para essa finalidade.
LEIA TAMBÉM!
Ao contrário das GPUs, que operam com múltiplas tarefas, as LPUs funcionam com execução fixa e previamente planejada, reduzindo a latência e o desperdício de energia.
Tony Fadell, investidor da Groq, descreve essa transição como um “novo ponto de inflexão” na indústria de IA. Ele argumenta que as GPUs, apesar de terem dominado o treinamento de data centers de IA, não são otimizadas para a inferência, que é o “verdadeiro jogo em volume”.
A Nvidia, por meio de um acordo de US$ 20 bilhões com a Groq, está investindo em uma arquitetura diferente para atender a essa demanda. Essa estratégia é vista como uma forma de prevenção, evitando que a empresa perca espaço para concorrentes focados na inferência.
CONTINUA DEPOIS DA PUBLICIDADE
A parceria com a Groq, combinada com o desenvolvimento do NVLink Fusion, que permite a conexão direta de chips personalizados às GPUs da Nvidia, demonstra a visão da empresa de um futuro híbrido, onde diferentes arquiteturas operam lado a lado em data centers.
Analistas acreditam que essa abordagem, em que GPUs e ASICs personalizados são otimizados para diferentes tipos de carga de trabalho, é o caminho para o futuro da IA. A Nvidia, por meio de Andrew Feldman, CEO da Cerebras, reconhece o papel das GPUs na IA, mas enfatiza que “não são as máquinas certas para inferência de alta velocidade”.
