Golpes com IA: A Nova Fronteira da Fraude Digital
Os golpes utilizando inteligência artificial deixaram de ser apenas tentativas falhas, repletas de erros de português ou pedidos exagerados. Agora, a ameaça se manifesta com a voz de um familiar, o rosto de uma celebridade ou o tom de voz preciso de um atendente bancário.
CONTINUA DEPOIS DA PUBLICIDADE
Essa familiaridade é o que torna esses ataques tão perigosos, transformando a forma como as fraudes digitais são construídas.
Crescimento Alarmante nos Falsos Conteúdos
No Brasil, a produção de conteúdos falsos gerados por inteligência artificial disparou, crescendo 308% entre 2024 e 2025, segundo dados da Agência Lupa. Essa mudança representa um ponto de inflexão na luta contra fraudes online. Em São Paulo, a Fundação Seade registrou que 82% dos idosos já foram alvo de tentativas de golpes digitais, com 12% sofrendo fraudes efetivamente.
LEIA TAMBÉM!
Um número preocupante, pois 68% dos afetados não possuem conhecimento sobre como se proteger dessas novas ameaças.
A Inteligência Artificial e a Lógica dos Ataques
Segundo o especialista em inteligência artificial Gui Zanoni, a mudança não se resume à sofisticação técnica, mas à própria lógica dos ataques. “A inteligência artificial não apenas replica voz e imagem, mas combina esses elementos com contexto, linguagem e padrões de comportamento, criando uma narrativa coerente e difícil de contestar em tempo real”, explica.
O resultado é uma fraude que não precisa mais cometer erros para enganar. O risco se desloca da falha técnica do golpista para a capacidade do usuário de verificar a veracidade da informação.
CONTINUA DEPOIS DA PUBLICIDADE
Clonagem de Voz, Vídeos e Identidades Digitais
As técnicas mais utilizadas incluem a clonagem de voz, a manipulação de vídeos e a criação de identidades digitais simuladas. Esses elementos reproduzem não apenas a aparência, mas também padrões de linguagem, tempo de resposta e contexto de interação, levando o usuário a confiar antes de questionar.
Um exemplo recente foi o uso da imagem da modelo Gisele Bündchen para promover produtos sem qualquer relação com ela, gerando pagamentos por itens inexistentes.
Sinais de Alerta e Como se Proteger
Identificar vídeos e áudios manipulados exige atenção a detalhes que nem sempre são óbvios. Zanoni aponta desalinhamento entre áudio e movimento labial, padrões artificiais de expressão facial e pequenas falhas na construção do vídeo ou do som como sinais de alerta.
No entanto, a inconsistência desses sinais dificulta a identificação para o usuário. Para se proteger, o especialista sugere cinco medidas práticas: não validar informações apenas por áudio ou vídeo, mesmo quando envolvem pessoas conhecidas; confirmar solicitações por um segundo canal independente antes de qualquer ação; desconfiar de abordagens que envolvam urgência ou pressão emocional; observar inconsistências visuais e sonoras em conteúdos digitais; e evitar compartilhar dados pessoais, códigos ou imagens sem verificação.
Novos Hábitos de Verificação
Para o especialista, a resposta ao avanço da inteligência artificial está na criação de novos hábitos de verificação. “A inteligência artificial redefine o que é percebido como confiável no ambiente digital. A resposta a isso está na criação de novos hábitos de verificação antes de qualquer decisão”, afirma Gui Zanoni.
