Manifesto pede proibição do desenvolvimento de superinteligência
Até agora, 1.149 figuras públicas, incluindo cientistas ganhadores do Prêmio Nobel, ex-líderes militares, artistas e membros da monarquia britânica, assinaram uma declaração solicitando a proibição do desenvolvimento da “superinteligência”. Essa fase ainda não atingida da inteligência artificial é considerada, segundo o documento, uma potencial ameaça existencial à humanidade.
CONTINUA DEPOIS DA PUBLICIDADE
O manifesto, que é conciso, sugere “a proibição do desenvolvimento de superinteligência” até que exista “um consenso científico amplo de que será feito de maneira segura e controlável” e que haja “amplo apoio público”.
Organização e assinaturas
Elaborada por pesquisadores de IA preocupados com o avanço tecnológico acelerado, a carta conta com assinaturas de profissionais de diversas áreas, como Geoffrey Hinton, laureado com o Nobel e conhecido como “padrinho da IA”, e Yoshua Bengio, um dos pioneiros do setor. Também assinaram o documento Mike Mullen, ex-líder militar dos EUA, e os duques de Sussex, príncipe Harry e Meghan Markle.
LEIA TAMBÉM!
A declaração foi divulgada pelo Future of Life Institute, uma organização sem fins lucrativos que aborda riscos globais, como armas nucleares e biotecnologia. A cada atualização da página, novas assinaturas são adicionadas. Entre os apoiadores estão Steve Wozniak, cofundador da Apple, Richard Branson, do Virgin Group, e o filósofo e conselheiro de IA do Vaticano, Paolo Benanti.
Crescimento da pressão sobre a IA
Esse apelo surge em um contexto de crescente pressão para desacelerar o desenvolvimento da IA, enquanto empresas como OpenAI, Google e Meta investem bilhões em novos modelos e data centers. Diversas indústrias estão buscando integrar essa tecnologia em uma ampla gama de produtos e serviços, gerando impactos econômicos, culturais e sociais em escala global.
A preocupação crescente sobre o avanço da IA levanta questões sobre a possibilidade de sistemas tecnológicos se aproximarem da inteligência artificial geral (AGI), que poderia realizar tarefas intelectuais como um ser humano ou até superar a capacidade dos especialistas mais qualificados.
CONTINUA DEPOIS DA PUBLICIDADE
Críticas ao avanço acelerado
A carta também ressalta as inquietações sobre o rápido progresso da IA, que muitos acreditam ser impulsionado por um sistema econômico que prioriza o lucro, sem uma discussão abrangente sobre os impactos dessa tecnologia. Anthony Aguirre, físico e diretor executivo do Future of Life Institute, afirma que a sociedade ainda não teve tempo para compreender as consequências e os riscos do desenvolvimento da IA.
Esse não é o primeiro documento desse tipo. Em março de 2023, poucos meses após o lançamento do ChatGPT, milhares de pessoas assinaram uma carta aberta pedindo uma pausa temporária no desenvolvimento da IA, incluindo Elon Musk, que atualmente está na corrida por novas tecnologias.
Recentemente, trinta pesquisadores assinaram um documento solicitando mais investigações sobre técnicas de monitoramento dos chamados “pensamentos” da IA, as cadeias de raciocínio (chains-of-thoughts ou CoTs), utilizadas por modelos como o o3, da OpenAI, e o R1, da DeepSeek, para resolver problemas complexos.