IA gera desinformação: Triplo aumento ameaça eleições de 2026!

Conteúdo Falso Gerado por IA Triplica no Brasil e Ameaça às Eleições de 2026
O volume de conteúdo falso criado com inteligência artificial no Brasil disparou, triplicando entre 2024 e 2025, um crescimento de 308%, segundo o Observatório Lupa. Essa escalada representa um desafio que supera a capacidade dos mecanismos de controle existentes.
Mais de três quartos do material falso mapeado no ano passado utilizou imagens ou vozes de figuras públicas, com destaque para os casos envolvendo o ex-presidente Lula (36 casos), o ex-presidente Bolsonaro (33) e Alexandre de Moraes (30).
Com o pleito de 2026 se aproximando, espera-se um aumento da intensidade desse tipo de desinformação durante o período da campanha. O Observatório IA nas Eleições, um grupo de observação formado em parceria entre Aláfia Lab, Data Privacy Brasil e o Desinformante, monitora em tempo real as violações às regras do Tribunal Superior Eleitoral (TSE).
Leia também
O grupo já identifica que 73% dos conteúdos sintéticos políticos circulam sem identificação clara, dificultando a distinção entre conteúdo oficial, sátira ou material humorístico, o que contraria exigências já estabelecidas.
Monitoramento em Tempo Real e Desafios da Identificação
O grupo de observação, que opera em tempo real, aponta para a falta de identificação como um dos principais desafios. A ausência de informações que indiquem o uso de IA em conteúdos políticos dificulta a avaliação da veracidade das informações e a compreensão da intenção por trás da criação do material.
Essa falta de transparência representa um risco significativo para o processo eleitoral.
A Meta e a Expansão da IA na Publicidade
A empresa Meta, dona do Facebook, Instagram e WhatsApp, é um dos principais focos de atenção. Em 2024, a empresa anunciou a rotulagem de conteúdos gerados por IA como uma medida de transparência, e planeja ter 100% da criação de anúncios com IA até o fim do ano.
Essa estratégia transforma o sistema publicitário em uma máquina integrada com IA, aprendizado de máquina, capaz de gerar textos, vídeos e segmentações de público a partir de poucos dados. No entanto, a utilização de IA em conteúdos políticos não está isenta de controvérsias.
Plataformas e a Busca por Soluções
Outras plataformas também estão buscando soluções para lidar com o problema. O TikTok firmou um acordo com o TSE para adotar o padrão C2PA, que autentica a origem de conteúdos digitais, além de exigir identificação de material gerado por IA e proibir anúncios políticos pagos.
Contudo, a empresa está expandindo seu modelo de vídeos realistas Seedance, considerado um dos melhores do mercado. No Google e no YouTube, que vendem o modelo gerador de vídeos Veo, há exigência de autodeclaração sobre o uso de IA em conteúdos políticos, além de restrições a anúncios.
A OpenAI, por sua vez, proíbe o uso do ChatGPT para campanhas políticas ou simulação de candidatos, mas a aplicação dessas regras ocorre majoritariamente via termos de uso, sem mecanismos preventivos robustos.
O Papel do TSE e a Nova Abordagem Regulatória
Diante desse cenário, o TSE adotou uma abordagem mais rigorosa. A Resolução nº 23.755 estabelece que as plataformas devem atuar de forma preventiva, e não apenas reativa, ou seja, não basta remover conteúdo após denúncia; as empresas passam a ser responsáveis por impedir sua circulação.
Entre as exigências estão planos de conformidade com metas objetivas, sistemas de detecção proativa, relatórios periódicos e a inversão do ônus da prova, ou seja, cabe às plataformas demonstrar que um conteúdo não foi manipulado. No entanto, os dados atuais indicam um descompasso entre regra e prática, com a maioria dos conteúdos sintéticos seguindo sem identificação.
Chatbots e o Risco de Influência
Outro ponto de atenção é o uso de sistemas de IA conversacional, como ChatGPT, Gemini e Copilot. O TSE proibiu que essas ferramentas recomendem candidatos ou expressem preferências eleitorais, devido ao efeito cumulativo de pequenas distorções replicadas em milhões de interações.
Especialistas apontam uma lacuna relevante: ainda não está claro como essas restrições estão sendo implementadas tecnicamente, nem se há mecanismos independentes de auditoria capazes de verificar seu cumprimento.
Autor(a):
Redação ZéNewsAi
Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)


