Estudo afirma que softwares que fingem ser 'namoradas virtuais' podem ameaçar a privacidade - ZéNewsAi

Estudo afirma que softwares que fingem ser ‘namoradas virtuais’ podem ameaçar a privacidade

21/02/2024 às 17h45

Por: José News

Imagem PreCarregada

Entre as muitas novidades lançadas com inteligência artificial (IA) embutida, um dos setores que mais cresce em downloads é o de chatbots que simulam namoradas. O problema é que esse é também um dos mais perigosos, de acordo com um levantamento da Mozilla.

A Mozilla, a empresa que possui o Firefox, realizou um estudo analisando 11 chatbots famosos que simulam relacionamentos românticos. Esses chatbots incluem aplicativos populares para Android e iOS, como Replika: My AI Friend, EVA AI Chat Bot & Soulmate, iGirl e CrushOn.AI.

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine agora mesmo o The BRIEF, o boletim informativo diário que mantém você atualizado em tudo

No geral, as conclusões são preocupantes: esse tipo de serviço digital é um risco para a sua privacidade e capaz até de causar mais danos do que prestar algum auxílio.

Quais os riscos das namoradas de IA?

O estudo analisou os chatbots em cinco aspectos: uso de dados, controle de dados, rastreamento, segurança e inteligência artificial. Todos os 11 aspectos foram considerados uma ameaça à privacidade das pessoas que interagem com esses robôs.

Leia também:

Um problema é que os chatbots estão recebendo muitas informações, especialmente quando se trata de assuntos sensíveis das conversas. Os chatbots de namoro estão aprendendo dados pessoais, histórico médico e detalhes íntimos, como hábitos sexuais e identidade de gênero.

Um chatbot de IA pode solicitar áudio e fotos dos usuários.

Além disso, muitos sites rastreiam e coletam informações do usuário para compartilhá-las com terceiros, como em anúncios personalizados.

Para piorar a situção, essas IAs são pouco transparentes sobre o armazenamento dessas informações e as camadas de segurança do chatbot em relação a esses conteúdos escritos em conversas. Metade delas nem sequer permitia ao usuário pedir o apagamento do histórico ou dos dados pessoais trocados no bate-papo.

Para Misha Rykov, um dos pesquisadores envolvidos na pesquisa, é importante entender que esses chatbots de IA especializados não são amigos ou companheiros. Além disso, eles podem até piorar a condição emocional de alguém que acaba ficando dependente da IA para conversar.

“Apesar de serem vendidos como algo que vai melhorar a sua saúde mental e o bem-estar, eles se especializam em entregar dependência, solidão e toxicidade, tudo isso enquanto tentam tirar o máximo de dados de você”, diz.

Apps como o Genesia são personalizados para atender à necessidade da pessoa.

Na loja do ChatGPT, não é permitido vender ou oferecer robôs que imitam namoradas virtuais. No entanto, esses robôs continuam sendo encontrados com frequência em lojas como a Google Play Store e a App Store.

Utilizamos cookies como explicado em nossa Política de Privacidade, ao continuar em nosso site você aceita tais condições.