Funcionários da DeepMind alertam sobre risco de uso militar da IA e ameaçam ação judicial

Preocupações dos Funcionários da DeepMind sobre o Uso Militar da IA
Funcionários do laboratório da DeepMind, sediado em Londres e pertencente ao Google, expressaram publicamente suas preocupações nesta terça-feira (5) à alta direção da empresa. A solicitação central é o reconhecimento oficial de dois sindicatos, motivada pelo temor de que a tecnologia desenvolvida possa ser utilizada para fins militares.
A crescente controvérsia em torno do uso da inteligência artificial em aplicações militares tem gerado debates acalorados, como evidenciado pelo recente confronto entre o Departamento de Defesa dos Estados Unidos e um de seus fornecedores, a Anthropic.
O Google figura entre as sete empresas de IA que firmaram acordos com o Pentágono para operações confidenciais, incluindo o uso da tecnologia em cenários de combate.
Leia também
A CWU, um dos sindicatos que os funcionários da DeepMind buscam ter seu reconhecimento, destaca que a preocupação central reside no potencial para o desenvolvimento de armas autônomas e na possibilidade de vigilância em massa da população americana.
A organização defende que a DeepMind seja o primeiro laboratório de IA de ponta a ter representação sindical reconhecida, visando resistir ao uso de suas tecnologias por países como Israel e pelo Exército americano.
Os trabalhadores da DeepMind propõem medidas concretas para garantir a ética no desenvolvimento da IA, incluindo a proibição do desenvolvimento de armas ou ferramentas de vigilância baseadas em inteligência artificial, a criação de um órgão independente de supervisão ética e o direito individual de os funcionários se recusarem a participar de projetos por motivos morais.
Eles estabelecem um prazo de 10 dias para que a direção responda ao pedido.
Caso não obtenham uma resposta satisfatória, os funcionários da DeepMind anunciaram a intenção de iniciar um procedimento jurídico formal. A AFP tentou contato com a DeepMind para obter um posicionamento, mas até o momento não recebeu resposta.
Em 2018, uma mobilização interna dentro do Google levou à desistência do projeto Maven do Pentágono, que utilizava a IA para analisar imagens de drones.
Autor(a):
Redação ZéNewsAi
Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)


