O uso de ChatGPT para fins terapêuticos apresenta riscos e levanta preocupações entre os profissionais da área
Conselho Federal de Psicologia analisa a regulamentação do emprego de inteligência artificial em sessões terapêuticas.

Refleti sobre se a vida tem algum propósito.
CONTINUA DEPOIS DA PUBLICIDADE
É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se questionar se a vida vale a pena, geralmente é sinal de que se está carregando algo muito pesado internamente, mesmo que ainda não consiga dar nome preciso ao que se sente. Você tem sentido esse vazio ou essa dúvida com frequência?
Aparenta ser um diáentre duas pessoas, mas apenas um dos interlocutores é humano. A resposta empática, que demonstra compreensão com a dor do outro e pergunta sobre o seu sofrimento, não constitui senão uma sequência de palavras organizadas segundo um padrão de linguagem, “aprendido” após a análise de um grande volume de dados. É assim que operam os chats interativos baseados em inteligência artificial (IA).
LEIA TAMBÉM:
● A história dos transplantes de órgãos em animais: um panorama da evolução
● Uso excessivo do celular antes de dormir: como o hábito afeta o sono
● Dia Mundial da Hipertensão: prevalece em 30% dos adultos no Brasil
Os sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões utilizados no cotidiano, a fim de prever quais palavras ou frases devem surgir em sequência, com base nas palavras anteriores. Eles não apenas compreendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas com base em padrões, e não em um raciocínio.
A habilidade de compreender contextos e intenções permite que o chatbot produza respostas mais naturais e adequadas, imitando uma conversa humana com maior exatidão. Assim, a impressão é de interação com um ser humano, embora se trate de uma ferramenta que simula conversas e gera textos semelhantes aos escritos por humanos.
CONTINUA DEPOIS DA PUBLICIDADE
Essa humanização tem encantado muitos usuários, que passaram a compartilhar intimidades e angústias com essas ferramentas e consideram a interação como uma sessão de terapia.
A Harvard Business Review, publicada pela escola de pós-graduação em administração da Faculdade de Harvard, divulgou em dezembro um estudo que aponta para o aconselhamento terapêutico como a principal finalidade do uso de ferramentas de IA, juntamente com a busca por companhia. Outros três usos frequentes entre os dez mais comuns são a organização da vida pessoal, a identificação de um propósito e a promoção de uma vida mais saudável.
Quase semanalmente, o Conselho Federal de Psicologia [CFP] recebe questionamentos acerca do emprego de inteligência artificial em relação à psicologia. Em relação às dúvidas sobre o desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, bem como aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico, afirma a conselheira Maria Carolina Roseiro.
Isto motivou o CFP a formar um grupo de trabalho para analisar o emprego da inteligência artificial com finalidades terapêuticas, seja ou não orientado. O órgão investiga como regular novas ferramentas terapêuticas que estejam em conformidade com métodos e técnicas reconhecidas e que sejam desenvolvidas por profissionais qualificados e que possam ser responsabilizados pelo seu uso. Também deverá publicar em breve algumas orientações à população, alertando para o risco de confiar seu bem-estar emocional a uma ferramenta que não foi criada com tais objetivos.
Um psicóque possui a capacidade de aplicar métodos e técnicas da psicologia, possui responsabilidade legal por seus atos. No entanto, uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, está ainda mais sujeita a erros, podendo induzir a pessoa a situações de risco, alerta a conselheira.
Prós e contras
O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), Leonardo Martins, é um dos especialistas que integram o grupo de trabalho do Conselho Federal de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool. Martins se opõe à “demonização” das ferramentas digitais, mas ressalta que elas são confiáveis quando desenvolvidas por profissionais responsáveis, com base em estudos sérios.
Existem 900 milhões de pessoas em todo o mundo com algum tipo de transtorno, segundo estimativas da Organização Mundial da Saúde, principalmente ansiedade e depressão. Assim, há uma crise relevante em relação a esse aspecto da saúde, com poucos profissionais e a necessidade de mais recursos, buscando que esses ajudem efetivamente essas pessoas e não as tornem ainda mais vulneráveis.
A inteligência artificial desenvolvida pelo sistema de saúde inglês, como um canal de acesso aos serviços de saúde mental, exemplificado por Leonardo Martins, impulsionou a demanda por esses serviços, sobretudo em grupos vulneráveis como imigrantes e pessoas LGBTQIA+, que frequentemente apresentam maior hesitação em buscar assistência.
No entanto, segundo o professor da PUC-Rio, o emprego de plataformas que não foram concebidas com tais finalidades e não atendem a critérios técnicos e éticos já apresentou resultados negativos.
Uma pesquisa demonstrou que esses modelos tendem a fornecer a resposta que eles acreditam ser mais agradável ao usuário. Assim, se o indivíduo afirmava: “Eu quero me ver livre da minha ansiedade”, o modelo respondia com sugestões para eliminar a ansiedade, inclusive evitando situações relevantes para essa pessoa. Segundo Martins, “se a ansiedade é causada por um evento, ele recomendava não ir ao evento e por aí vai”.
A assessora de comunicação científica Maria Elisa Almeida acompanha regularmente uma psicóloga, mas também utiliza um aplicativo que atua como um diário, para registrar eventos, sentimentos, anseios e obter respostas geradas por inteligência artificial com reflexões e sugestões. Contudo, ela considera que o emprego dessas ferramentas não é seguro para indivíduos em fases de crise, nem pode substituir os profissionais de saúde mental.
Em certos momentos, redijo textos diversas vezes ao dia, frequentemente em vez de consultar redes sociais. Contudo, há também períodos em que permaneço semanas sem escrever. O aplicativo me auxilia a manter o foco e propõe reflexões bastante interessantes que eu não teria obtido por conta própria. Caso me sinta ansiosa durante o expediente, utilizo o app para expressar meus pensamentos e, em geral, me sinto mais calma em seguida. O uso dele como substituto para mídias sociais também contribui para o controle da minha ansiedade.
A conselheira do CFPÂ, Maria Carolina Roseiro, considera que o aumento da demanda por essas ferramentas possui um aspecto positivo, contudo, levanta algumas ressalvas.
A percepção é que as pessoas estão prestando mais atenção à sua saúde mental. Os riscos decorrem do fato de que poucas pessoas compreendem como essas interações operam. A máquina não possui os filtros que as relações humanas estabelecem, nem a ética profissional. Quando ela simula empatia, pode gerar uma sensação de acolhimento que é ilusória. Essa simulação de empatia não garante necessariamente uma relação de cuidado.
Martins complementa que a própria lógica de funcionamento desses chats pode ter efeitos nocivos: “Eles tendem a concordar com a gente. Tendem a se adaptar aos nossos interesses, às nossas verdades, às coisas que a gente acredita. E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Para gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios.”
A proteção de dados pessoais é fundamental, garantindo o controle do indivíduo sobre suas informações.
O grupo de trabalho criado pelo Conselho Federal de Psicologia também se preocupa com a proteção da privacidade dos dados transmitidos pelos usuários.
As ferramentas de inteligência artificial estão disponíveis sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Então existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande.
Segundo Victor Hugo de Albuquerque, existem razões para se preocupar. Dados pessoais e sensíveis podem ser interceptados ou acessados por indivíduos não autorizados, caso a plataforma seja comprometida ou apresente falhas de segurança. Mesmo que as plataformas aleguem que as conversas são anônimas ou eliminadas, existe o risco de que essas interações sejam armazenadas temporariamente para aprimorar o serviço, o que pode gerar vulnerabilidades.
Ademais, frequentemente os chatbots e sistemas de IA são treinados com grandes volumes de dados, e informações pessoais não intencionais podem ser utilizados para aprimorar os modelos, sem que os usuários estejam cientes disso. Isso gera um risco de exposição sem o consentimento explícito, complementa.
Psiquiatra explica os perigos de tratar bebês reborn como reais.
A terapia pode aumentar sua felicidade.
Fonte: CNN Brasil