A pesquisa indicou que a simplificação do acesso a ferramentas de inteligência artificial (IA) resultou em um aumento na produção de imagens de deepfake, notadamente aquelas de conteúdo íntimo envolvendo mulheres.
CONTINUA DEPOIS DA PUBLICIDADE
Estudos do Oxford Internet Institute (OII), da Universidade de Oxford, no Reino Unido, revelaram a existência de cerca de 35 mil desses programas acessíveis para download. Esses softwares são capazes de criar imagens de uma pessoa em 15 minutos, utilizando apenas 20 imagens de referência.
Disponibilizadas para download, existem variações de modelos de deepfake de pessoas identificáveis, incluindo celebridades, e outras para indivíduos com menos exposição, com informações sobre seus perfis nas redes sociais.
LEIA TAMBÉM!
Uma pesquisa divulgada no início de maio, conduzida por cientistas, revelou que 96% dessas ferramentas de IA são utilizadas para replicar imagens de mulheres – tanto celebridades quanto não celebridades – principalmente da China, Coreia, Japão, Reino Unido e Estados Unidos.
Frequentemente, deepfakes são utilizados para criar imagens íntimas não consensuais (INCII) com termos como “porno”, “sexy” ou “nu”.
É imperativa a necessidade de proteções técnicas mais sólidas, políticas de plataforma mais claras e aplicadas de forma mais ativa, além de novas abordagens regulatórias para lidar com a criação e a distribuição desses modelos de IA nocivos, afirmou Will Hawkins, autor principal do estudo.
CONTINUA DEPOIS DA PUBLICIDADE
Inteligência artificial entre inovação e risco: como lidar com as deepfakes
Google apresenta modelo de busca com inteligência artificial capaz de compreender e realizar atividades.
Fonte por: CNN Brasil