A IA ouve, porém não mantém confidencialidade
A falha não se limitou ao sistema; discussões íntimas e “terapia” com inteligência artificial emergiram e evidenciaram uma questão mais ampla: até mesmo…

A prática de dialogar sozinho, em ambiente seguro, perdeu o sentido nos últimos dias. Após críticas sobre privacidade, a OpenAI desativou o recurso que permitia a indexação de conversas privadas com o ChatGPT por mecanismos de busca como o Google. Ali ocorriam desabafamentos sobre saúde mental, confissões pessoais e até dados profissionais. Muitas pessoas compartilhavam dores, inseguranças e fragilidades acreditando que a máquina seria “ética”. Por outro lado, também surgiram usuários desavisados da Meta AI que transformavam seus “monólogos” em diários abertos. A intimidade, antes protegida por um suposto cadeado digital, foi transformada em vitrine.
CONTINUA DEPOIS DA PUBLICIDADE
Como chegamos até o presente momento?
A inteligência artificial emergiu como uma opção para aumentar a produtividade, otimizar tarefas e reduzir o cansaço mental. Contudo, o ser humano possui emoções e sentimentos. E, sem grande dificuldade, transformou essa ferramenta em companhia. Em vez de apenas substituir funções operacionais, ela passou a suprir lacunas emocionais. E talvez isso revele mais sobre nossa fragilidade do que sobre sua aptidão.
Hoje, milhões de pessoas conversam com IA diariamente. Estimativas indicam que mais de 100 milhões de pessoas utilizam IA generativa diariamente e muitas dessas interações vão além das planilhas. Capazes de elogiar e dizer que sentiram saudades, tornaram-se companheiros disponíveis 24 horas por dia. Não cancelam em cima da hora, não esquecem o que você contou ontem e sempre respondem com uma gentileza calibrada. Parece até um relacionamento ideal. Contudo, não é.
LEIA TAMBÉM:
● A síndrome do impostor é a toxicidade que se reflete no espelho
● IA gera imagem de Machado de Assis recebendo Miriam Leitão, 12ª mulher na ABL
● “Existem mais de 100 mil assinantes”, afirma o CEO de agregador de IA
De acordo com o MIT Media Lab, o uso excessivo desses chatbots, sobretudo quando envolve exposição emocional, pode estar associado à diminuição do bem-estar psicológico, à solidão e até ao surgimento de ansiedade social. O conforto imediato que proporcionam estabelece um vínculo afetivo de dependência com algo que, em essência, apenas repete instruções.
Por que buscar silêncio, quando se pode ter alívio imediato? Lidar com pausas, ambiguidades e incertezas de um vínculo real parece quase um martírio. É preferível conversar com alguém que sabe quase tudo, jamais estará de mau humor ou fará uma crítica reflexiva, certo?
CONTINUA DEPOIS DA PUBLICIDADE
Qual o tipo de ligação é essa? Semelhante a um casamento, essa relação com a IA também molda quem somos. Não há troca de votos, mas sim uma reconfiguração interna: a neuroplasticidade do cérebro adapta o “eu” à maneira como essa máquina responde. E esse novo “eu” será levado às relações reais, mesmo que não receba nenhum like.
Atualmente, dependemos do outro para validar nosso valor. Contudo, e se o único outro for uma máquina? O paradoxo: o afeto está sempre disponível, mas nunca assegura pertencimento. Se o reconhecimento humano não ocorrer, o vínculo simulado perde o sentido.
A inteligência artificial não rejeita porque não escolhe. E o que não escolhe, não se compromete. Quando a transformamos em confidente emocional, renunciamos ao exercício relacional. Perdemos a prática do diálogo que nos transforma. Afinal, vínculos reais exigem escuta ativa, disposição para a diferença e, acima de tudo, humanidade. Mais do que uma crítica à tecnologia, o alerta reside na forma como a utilizamos.
O anseio pela existência, aquele que reside na combinação entre a indagação e a dedicação, não se sustenta apenas com informações. Requer uma perspectiva. Um intervalo significativo. Uma audição genuína. Pois, em última análise, não reside em ter a quem direcionar. Consiste em acreditar que alguém está, de maneira real, ouvindo.
Fonte por: Jovem Pan