Nvidia enfrenta impasse na China: espera por aprovação de chip H200! 🚀 A disputa por vendas do poderoso chip de IA, desenvolvido para o GPT-4, prende-se a análises regulatórias nos EUA e em Pequim. Saiba mais!
A espera pelo H200, um dos semicondutores de inteligência artificial mais avançados do mundo, está no centro de uma complexa equação. A Nvidia, fabricante do chip, tem uma forte demanda por ele no mercado chinês, mas o que falta para que as vendas se concretizem é a aprovação de órgãos reguladores tanto nos Estados Unidos quanto em Pequim.
A situação demonstra a importância geopolítica do chip e o impacto das relações comerciais entre os dois países.
Segundo informações divulgadas pela diretora financeira da Nvidia, Collete Kress, durante a feira de tecnologia CES em Las Vegas, a empresa já enviou pedidos de licenças de exportação às autoridades americanas, que estão em análise. Apesar da demora, a Nvidia afirma ter estoque suficiente para atender os clientes chineses, com expectativa de iniciar a distribuição em fevereiro.
Para atender à crescente demanda, a Nvidia também buscou a Taiwan Semiconductor Manufacturing Company (TSMC) para discutir a possibilidade de produção adicional do H200. A situação reflete a corrida global por tecnologia de inteligência artificial e o papel estratégico que chips como o H200 desempenham nesse cenário.
A aprovação do governo americano é crucial, assim como a concordância de Pequim. Existe o receio de que o acesso a chips estrangeiros avançados possa atrasar o desenvolvimento da indústria doméstica de semicondutores de IA na China. Anteriormente, autoridades chinesas incentivavam o uso de versões menos potentes do chip, como o H200, desenvolvido especificamente para o mercado chinês.
O H200 é um chip gráfico (GPU) da Nvidia, considerado um dos mais poderosos para tarefas de inteligência artificial. Baseado na arquitetura Hopper, ele é projetado para lidar com o treinamento e a execução de modelos de IA generativa. Com 141 GB de memória e uma largura de banda de até 4,8 terabytes por segundo, representa uma evolução do H100, utilizado no treinamento do GPT-4, e é o primeiro chip da Nvidia a utilizar a memória HBM3E, considerada mais rápida e eficiente.
Autor(a):
Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)
CONTINUA DEPOIS DA PUBLICIDADE
Fique por dentro das últimas notícias em tempo real!