IA gera desinformação: Triplo aumento ameaça eleições de 2026!

Conteúdo falso gerado por IA triplica no Brasil e ameaça eleições de 2026! IA usada em 36 casos com Lula, 33 com Bolsonaro e 30 com Alexandre de Moraes. Ameaça

13/05/2026 09:10

4 min

IA gera desinformação: Triplo aumento ameaça eleições de 2026!
(Imagem de reprodução da internet).

Conteúdo Falso Gerado por IA Triplica no Brasil e Ameaça às Eleições de 2026

O volume de conteúdo falso criado com inteligência artificial no Brasil disparou, triplicando entre 2024 e 2025, um crescimento de 308%, segundo o Observatório Lupa. Essa escalada representa um desafio que supera a capacidade dos mecanismos de controle existentes.

Mais de três quartos do material falso mapeado no ano passado utilizou imagens ou vozes de figuras públicas, com destaque para os casos envolvendo o ex-presidente Lula (36 casos), o ex-presidente Bolsonaro (33) e Alexandre de Moraes (30).

Com o pleito de 2026 se aproximando, espera-se um aumento da intensidade desse tipo de desinformação durante o período da campanha. O Observatório IA nas Eleições, um grupo de observação formado em parceria entre Aláfia Lab, Data Privacy Brasil e o Desinformante, monitora em tempo real as violações às regras do Tribunal Superior Eleitoral (TSE).

Leia também

O grupo já identifica que 73% dos conteúdos sintéticos políticos circulam sem identificação clara, dificultando a distinção entre conteúdo oficial, sátira ou material humorístico, o que contraria exigências já estabelecidas.

Monitoramento em Tempo Real e Desafios da Identificação

O grupo de observação, que opera em tempo real, aponta para a falta de identificação como um dos principais desafios. A ausência de informações que indiquem o uso de IA em conteúdos políticos dificulta a avaliação da veracidade das informações e a compreensão da intenção por trás da criação do material.

Essa falta de transparência representa um risco significativo para o processo eleitoral.

A Meta e a Expansão da IA na Publicidade

A empresa Meta, dona do Facebook, Instagram e WhatsApp, é um dos principais focos de atenção. Em 2024, a empresa anunciou a rotulagem de conteúdos gerados por IA como uma medida de transparência, e planeja ter 100% da criação de anúncios com IA até o fim do ano.

Essa estratégia transforma o sistema publicitário em uma máquina integrada com IA, aprendizado de máquina, capaz de gerar textos, vídeos e segmentações de público a partir de poucos dados. No entanto, a utilização de IA em conteúdos políticos não está isenta de controvérsias.

Plataformas e a Busca por Soluções

Outras plataformas também estão buscando soluções para lidar com o problema. O TikTok firmou um acordo com o TSE para adotar o padrão C2PA, que autentica a origem de conteúdos digitais, além de exigir identificação de material gerado por IA e proibir anúncios políticos pagos.

Contudo, a empresa está expandindo seu modelo de vídeos realistas Seedance, considerado um dos melhores do mercado. No Google e no YouTube, que vendem o modelo gerador de vídeos Veo, há exigência de autodeclaração sobre o uso de IA em conteúdos políticos, além de restrições a anúncios.

A OpenAI, por sua vez, proíbe o uso do ChatGPT para campanhas políticas ou simulação de candidatos, mas a aplicação dessas regras ocorre majoritariamente via termos de uso, sem mecanismos preventivos robustos.

O Papel do TSE e a Nova Abordagem Regulatória

Diante desse cenário, o TSE adotou uma abordagem mais rigorosa. A Resolução nº 23.755 estabelece que as plataformas devem atuar de forma preventiva, e não apenas reativa, ou seja, não basta remover conteúdo após denúncia; as empresas passam a ser responsáveis por impedir sua circulação.

Entre as exigências estão planos de conformidade com metas objetivas, sistemas de detecção proativa, relatórios periódicos e a inversão do ônus da prova, ou seja, cabe às plataformas demonstrar que um conteúdo não foi manipulado. No entanto, os dados atuais indicam um descompasso entre regra e prática, com a maioria dos conteúdos sintéticos seguindo sem identificação.

Chatbots e o Risco de Influência

Outro ponto de atenção é o uso de sistemas de IA conversacional, como ChatGPT, Gemini e Copilot. O TSE proibiu que essas ferramentas recomendem candidatos ou expressem preferências eleitorais, devido ao efeito cumulativo de pequenas distorções replicadas em milhões de interações.

Especialistas apontam uma lacuna relevante: ainda não está claro como essas restrições estão sendo implementadas tecnicamente, nem se há mecanismos independentes de auditoria capazes de verificar seu cumprimento.

Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)

CONTINUA DEPOIS DA PUBLICIDADE

Ative nossas Notificações

Ative nossas Notificações

Fique por dentro das últimas notícias em tempo real!