Golpes com IA assombram o Brasil! Vozes de familiares e celebridades enganam vítimas. 🚨 Aumento alarmante de 308% em falsos conteúdos e 82% de idosos em São Paulo já foram alvos. Saiba mais!
Os golpes utilizando inteligência artificial deixaram de ser apenas tentativas falhas, repletas de erros de português ou pedidos exagerados. Agora, a ameaça se manifesta com a voz de um familiar, o rosto de uma celebridade ou o tom de voz preciso de um atendente bancário.
Essa familiaridade é o que torna esses ataques tão perigosos, transformando a forma como as fraudes digitais são construídas.
No Brasil, a produção de conteúdos falsos gerados por inteligência artificial disparou, crescendo 308% entre 2024 e 2025, segundo dados da Agência Lupa. Essa mudança representa um ponto de inflexão na luta contra fraudes online. Em São Paulo, a Fundação Seade registrou que 82% dos idosos já foram alvo de tentativas de golpes digitais, com 12% sofrendo fraudes efetivamente.
Um número preocupante, pois 68% dos afetados não possuem conhecimento sobre como se proteger dessas novas ameaças.
Segundo o especialista em inteligência artificial Gui Zanoni, a mudança não se resume à sofisticação técnica, mas à própria lógica dos ataques. “A inteligência artificial não apenas replica voz e imagem, mas combina esses elementos com contexto, linguagem e padrões de comportamento, criando uma narrativa coerente e difícil de contestar em tempo real”, explica.
O resultado é uma fraude que não precisa mais cometer erros para enganar. O risco se desloca da falha técnica do golpista para a capacidade do usuário de verificar a veracidade da informação.
As técnicas mais utilizadas incluem a clonagem de voz, a manipulação de vídeos e a criação de identidades digitais simuladas. Esses elementos reproduzem não apenas a aparência, mas também padrões de linguagem, tempo de resposta e contexto de interação, levando o usuário a confiar antes de questionar.
Um exemplo recente foi o uso da imagem da modelo Gisele Bündchen para promover produtos sem qualquer relação com ela, gerando pagamentos por itens inexistentes.
Identificar vídeos e áudios manipulados exige atenção a detalhes que nem sempre são óbvios. Zanoni aponta desalinhamento entre áudio e movimento labial, padrões artificiais de expressão facial e pequenas falhas na construção do vídeo ou do som como sinais de alerta.
No entanto, a inconsistência desses sinais dificulta a identificação para o usuário. Para se proteger, o especialista sugere cinco medidas práticas: não validar informações apenas por áudio ou vídeo, mesmo quando envolvem pessoas conhecidas; confirmar solicitações por um segundo canal independente antes de qualquer ação; desconfiar de abordagens que envolvam urgência ou pressão emocional; observar inconsistências visuais e sonoras em conteúdos digitais; e evitar compartilhar dados pessoais, códigos ou imagens sem verificação.
Para o especialista, a resposta ao avanço da inteligência artificial está na criação de novos hábitos de verificação. “A inteligência artificial redefine o que é percebido como confiável no ambiente digital. A resposta a isso está na criação de novos hábitos de verificação antes de qualquer decisão”, afirma Gui Zanoni.
Autor(a):
Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)
CONTINUA DEPOIS DA PUBLICIDADE
Fique por dentro das últimas notícias em tempo real!