Compreenda os perigos associados ao emprego de tecnologias e IA em diagnósticos e tratamentos médicos

O risco mais discreto pode ser a ilusão terapêutica, visto que a IA responde com empatia artificial, utilizando frases elaboradas para provocar conforto.

17/08/2025 6h07

1 min de leitura

Imagem PreCarregada
(Imagem de reprodução da internet).

A inteligência artificial (IA) está evoluindo para além de uma ferramenta técnica, consolidando-se como o novo recurso digital central na sociedade atual. Em 2025, a Harvard Business Review prevê que terapia e companheirismo emocional se tornem as aplicações mais relevantes da IA generativa, ultrapassando usos técnicos como automação de tarefas, tradução ou desenvolvimento de código.

CONTINUA DEPOIS DA PUBLICIDADE

Essa mudança indica uma demanda aumentada por apoio emocional e orientação existencial em um mundo mais acelerado, isolado e preocupante. A inteligência artificial evoluiu de instrumento para interlocutor, sobretudo entre jovens em nações como China e Taiwan, onde questões como o preconceito social e a escassez de serviços de saúde mental levam milhares de indivíduos a buscar consolo, tranquilidade e propósito por meio de assistentes virtuais, como o ChatGPT.

O aumento da procura por “terapeutas digitais” está relacionado a um fenômeno contemporâneo: a epidemia de solidão. Mesmo com a hiperconectividade das redes sociais, muitas pessoas se sentem desvinculadas de seus laços afetivos reais. Isso torna atraente a perspectiva de um interlocutor sempre disponível, sem julgamentos e sem a necessidade de reciprocidade emocional.

LEIA TAMBÉM:

Nesse cenário, a IA surge como uma solução imediata e discreta. Ela “escuta”, responde com delicadeza, propõe alternativas. É compreensível que alguém em crise psíquica perceba nela uma opção. Contudo, o que aparenta ser suporte pode se transformar em uma vulnerabilidade emocional.

Os sistemas de IA são treinados para imitar a empatia, mas não sentem, não compreendem em profundidade e não possuem subjetividade. Eles funcionam com base em padrões, probabilidades e respostas pré-definidas, sem escuta clínica ou elaboração simbólica.

CONTINUA DEPOIS DA PUBLICIDADE

Complementar, não substitutivo

A inteligência artificial pode desempenhar um papel de apoio no acompanhamento emocional, sem substituir a terapia convencional. Pode auxiliar na organização da rotina de autocuidado, fornecer informações educativas sobre saúde mental e oferecer suporte inicial em momentos de crise, sempre com cautela e limites bem definidos.

Nesse contexto, os cinco principais aplicativos da IA generativa para 2025, conforme apurado pela Harvard Business Review, são:

É importante ressaltar que, mesmo para o uso número 1 – terapia e companhia emocional –, a recomendação dos especialistas é clara: a IA pode ser um suporte inicial, mas nunca deve ser o único alicerce emocional de alguém.

O risco mais insidioso pode ser a terapia ilusória. A inteligência artificial responde com empatia artificial, frases elaboradas para provocar conforto. Isso produz a sensação de avanço emocional, porém sem confrontar os conflitos internos. Assim, diversas pessoas retardam ou evitam a busca por assistência profissional, confiando que estão progredindo quando, na realidade, apenas estão abafando suas angústias com um alívio superficial.

Ademais, existe o risco ético de empresas desenvolverem IAs emocionalmente envolventes com o objetivo de aumentar a fidelização de usuários, ou seja, criar dependência emocional como estratégia de mercado – algo profundamente preocupante.

À medida que essas tecnologias evoluem, aumenta a necessidade de regulamentações éticas e legais que protejam os usuários mais vulneráveis. Países com leis de proteção de dados (como a LGPD no Brasil e o GDPR na União Europeia) já debatem se chatbots de uso emocional devem ser considerados dispositivos médicos ou psicológicos, o que demanda licenças e fiscalização.

A inteligência artificial está alterando a maneira como interagimos com o mundo e com nós mesmos. Contudo, ao mesmo tempo em que apresenta soluções inovadoras, também impõe novos desafios emocionais, éticos e sociais. Ao converter a IA em terapeuta digital, existe o risco de diminuir a experiência humana da dor a um problema de programação, quando, na realidade, ela faz parte de uma jornada profundamente subjetiva, relacional e humana.

A inteligência artificial pode ser uma aliada valiosa na saúde mental, contanto que não seja vista como um substituto para o contato humano, a escuta atenta e o tratamento terapêutico autêntico. Tal como em qualquer tecnologia, o uso consciente determina seu efeito.

Fonte por: Jovem Pan

Utilizamos cookies como explicado em nossa Política de Privacidade, ao continuar em nosso site você aceita tais condições.