Reflection AI capta US$ 2 bilhões para competir com a China

Ex-pesquisadores do Google DeepMind lançam startup que busca ser principal alternativa de IA aberta nos EUA, impulsionando inovação e competição global.

3 min de leitura

(Imagem de reprodução da internet).

Estados Unidos e China em Rota Competitiva na Inteligência Artificial

CONTINUA DEPOIS DA PUBLICIDADE

Os Estados Unidos e a China continuam a seguir caminhos distintos, porém competitivos, no desenvolvimento da inteligência artificial (IA). Enquanto os EUA focam em modelos de inteligência artificial geral (AGI) e empresas adotam abordagens proprietárias, a China prioriza aplicações práticas e acessíveis, muitas delas baseadas em código aberto.

Reflection AI e um Investimento Bilionário

LEIA TAMBÉM!

A startup Reflection AI, fundada em março de 2024 por ex-pesquisadores do Google DeepMind, Misha Laskin e Ioannis Antonoglou, obteve um investimento de US$ 2 bilhões em sua mais recente rodada, elevando sua avaliação para US$ 8 bilhões – um aumento de 15 vezes em relação aos US$ 545 milhões de sete meses atrás.

A Visão Aberta da Reflection AI

Inicialmente focada em agentes autônomos de codificação, a Reflection AI se posiciona como uma alternativa de código aberto aos laboratórios fechados dos EUA, como OpenAI e Anthropic, buscando também ser a contraparte ocidental das empresas chinesas de IA, como DeepSeek. Laskin, que liderou a modelagem de recompensas no projeto Gemini, do DeepMind, e Antonoglou, co-criador do AlphaGo, sistema de IA que derrotou o campeão mundial no jogo de Go em 2016, baseiam sua proposta na crença de que talentos certos podem desenvolver modelos de IA avançados fora das grandes empresas tecnológicas.

CONTINUA DEPOIS DA PUBLICIDADE

Uma Equipe de Elite e um Modelo Avançado

Com essa visão, a Reflection AI já recrutou uma equipe de aproximadamente 60 pessoas, composta principalmente por ex-pesquisadores de DeepMind e OpenAI, e desenvolveu uma infraestrutura de treinamento de IA que promete ser acessível a todos. Em entrevista ao TechCrunch, o CEO Laskin anunciou que a startup garantiu um cluster de computação robusto e pretende lançar um grande modelo de linguagem (LLM) avançado no próximo ano, treinado em “trilhões de tokens”.

A Arquitetura Mixture-of-Experts

Esse modelo utilizará a arquitetura chamada Mixture-of-Experts (MoE), aplicada em grandes laboratórios de IA para treinar modelos em larga escala. Até o lançamento da DeepSeek, em janeiro deste ano, esse tipo de treinamento estava restrito a versões fechadas da IA. Desde então, outros modelos chineses, como o Qwen, da Alibaba, seguiram o mesmo caminho.

Alerta sobre a Liderança Global

A reflexão da empresa sobre o sucesso dos modelos chineses de código aberto é clara. Laskin alerta que, se os EUA e seus aliados não agirem de forma decisiva, a liderança global em IA estará em risco. “Se não fizermos nada, os padrões globais de inteligência serão construídos por outros,” afirma.

Investidores e Cronograma de Lançamento

Embora ainda não tenha lançado seu primeiro modelo – focado inicialmente em texto e com planos multimodais para o futuro – a Reflection AI já conquistou investidores de peso, como Nvidia, Sequoia e Eric Schmidt. A empresa usará os recursos para treinar novos modelos, com o primeiro lançamento previsto para o início de 2026.

Novas Iniciativas nos EUA

Apesar de se definir como “aberta”, a abordagem da Reflection AI parece mais alinhada com as estratégias adotadas pela Meta, com a família de modelos Llama, e pela francesa Mistral. Ou seja, a abertura refere-se ao acesso aos pesos de treinamento, não ao código propriamente dito.

Sair da versão mobile