Nvidia aposta pesado em nova estratégia com US$ 20 bilhões! Acordo com Groq redefine IA: inferência ganha destaque. GPUs sob nova mira – entenda a revolução!
Um acordo de US$ 20 bilhões entre a Nvidia e a Groq, anunciado em dezembro de 2026, sinaliza uma mudança fundamental na estratégia da indústria de inteligência artificial. A Nvidia, que se consolidou como líder na fabricação de GPUs – os “chips” responsáveis por impulsionar o treinamento de modelos de IA e a primeira grande onda de IA generativa, agora foca na inferência, ou seja, a etapa em que os modelos já treinados são utilizados para gerar resultados em tempo real.
Analistas da RBC Capital apontam que a inferência se tornará a principal carga de trabalho da IA, podendo superar o mercado de treinamento em volume.
Essa mudança na estratégia impacta as exigências técnicas. O treinamento necessita de grande poder computacional e flexibilidade, enquanto a inferência demanda velocidade, previsibilidade, eficiência energética e custo por resposta. A Groq, fundada por ex-engenheiros do Google, entra nesse cenário com as chamadas LPUs (Unidades de Processamento de Linguagem), projetadas para essa finalidade.
Ao contrário das GPUs, que operam com múltiplas tarefas, as LPUs funcionam com execução fixa e previamente planejada, reduzindo a latência e o desperdício de energia.
Tony Fadell, investidor da Groq, descreve essa transição como um “novo ponto de inflexão” na indústria de IA. Ele argumenta que as GPUs, apesar de terem dominado o treinamento de data centers de IA, não são otimizadas para a inferência, que é o “verdadeiro jogo em volume”.
A Nvidia, por meio de um acordo de US$ 20 bilhões com a Groq, está investindo em uma arquitetura diferente para atender a essa demanda. Essa estratégia é vista como uma forma de prevenção, evitando que a empresa perca espaço para concorrentes focados na inferência.
A parceria com a Groq, combinada com o desenvolvimento do NVLink Fusion, que permite a conexão direta de chips personalizados às GPUs da Nvidia, demonstra a visão da empresa de um futuro híbrido, onde diferentes arquiteturas operam lado a lado em data centers.
Analistas acreditam que essa abordagem, em que GPUs e ASICs personalizados são otimizados para diferentes tipos de carga de trabalho, é o caminho para o futuro da IA. A Nvidia, por meio de Andrew Feldman, CEO da Cerebras, reconhece o papel das GPUs na IA, mas enfatiza que “não são as máquinas certas para inferência de alta velocidade”.
Autor(a):
Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)
CONTINUA DEPOIS DA PUBLICIDADE
Fique por dentro das últimas notícias em tempo real!