Gisele Bündchen e a Farsa: IA Cria Golpes Perfeitos e Assusta Idosos no Brasil

Golpes com IA assombram o Brasil! Vozes de familiares e celebridades enganam vítimas. 🚨 Aumento alarmante de 308% em falsos conteúdos e 82% de idosos em São Paulo já foram alvos. Saiba mais!

3 min de leitura

(Imagem de reprodução da internet).

Golpes com IA: A Nova Fronteira da Fraude Digital

Os golpes utilizando inteligência artificial deixaram de ser apenas tentativas falhas, repletas de erros de português ou pedidos exagerados. Agora, a ameaça se manifesta com a voz de um familiar, o rosto de uma celebridade ou o tom de voz preciso de um atendente bancário.

CONTINUA DEPOIS DA PUBLICIDADE

Essa familiaridade é o que torna esses ataques tão perigosos, transformando a forma como as fraudes digitais são construídas.

Crescimento Alarmante nos Falsos Conteúdos

No Brasil, a produção de conteúdos falsos gerados por inteligência artificial disparou, crescendo 308% entre 2024 e 2025, segundo dados da Agência Lupa. Essa mudança representa um ponto de inflexão na luta contra fraudes online. Em São Paulo, a Fundação Seade registrou que 82% dos idosos já foram alvo de tentativas de golpes digitais, com 12% sofrendo fraudes efetivamente.

LEIA TAMBÉM!

Um número preocupante, pois 68% dos afetados não possuem conhecimento sobre como se proteger dessas novas ameaças.

A Inteligência Artificial e a Lógica dos Ataques

Segundo o especialista em inteligência artificial Gui Zanoni, a mudança não se resume à sofisticação técnica, mas à própria lógica dos ataques. “A inteligência artificial não apenas replica voz e imagem, mas combina esses elementos com contexto, linguagem e padrões de comportamento, criando uma narrativa coerente e difícil de contestar em tempo real”, explica.

O resultado é uma fraude que não precisa mais cometer erros para enganar. O risco se desloca da falha técnica do golpista para a capacidade do usuário de verificar a veracidade da informação.

CONTINUA DEPOIS DA PUBLICIDADE

Clonagem de Voz, Vídeos e Identidades Digitais

As técnicas mais utilizadas incluem a clonagem de voz, a manipulação de vídeos e a criação de identidades digitais simuladas. Esses elementos reproduzem não apenas a aparência, mas também padrões de linguagem, tempo de resposta e contexto de interação, levando o usuário a confiar antes de questionar.

Um exemplo recente foi o uso da imagem da modelo Gisele Bündchen para promover produtos sem qualquer relação com ela, gerando pagamentos por itens inexistentes.

Sinais de Alerta e Como se Proteger

Identificar vídeos e áudios manipulados exige atenção a detalhes que nem sempre são óbvios. Zanoni aponta desalinhamento entre áudio e movimento labial, padrões artificiais de expressão facial e pequenas falhas na construção do vídeo ou do som como sinais de alerta.

No entanto, a inconsistência desses sinais dificulta a identificação para o usuário. Para se proteger, o especialista sugere cinco medidas práticas: não validar informações apenas por áudio ou vídeo, mesmo quando envolvem pessoas conhecidas; confirmar solicitações por um segundo canal independente antes de qualquer ação; desconfiar de abordagens que envolvam urgência ou pressão emocional; observar inconsistências visuais e sonoras em conteúdos digitais; e evitar compartilhar dados pessoais, códigos ou imagens sem verificação.

Novos Hábitos de Verificação

Para o especialista, a resposta ao avanço da inteligência artificial está na criação de novos hábitos de verificação. “A inteligência artificial redefine o que é percebido como confiável no ambiente digital. A resposta a isso está na criação de novos hábitos de verificação antes de qualquer decisão”, afirma Gui Zanoni.

Sair da versão mobile