Estão sendo implementadas ferramentas baseadas na inteligência artificial para auxiliar médicos nos atendimentos ligados à saúde mental em clínicas de grande porte pelo sistema de saúde britânico. Soluções parecidas estão sendo testadas pelas seguradoras de saúde nos EUA. Portanto, qual é o significado disso? Tratamentos podem ser acessados de forma mais eficiente através da IA?
O consenso é de que a IA possui a capacidade de ajudar os sistemas de saúde a lidar com o grande número de pacientes que necessitam de cuidados, inclusive no âmbito da saúde mental. Com esse objetivo em mente, foi desenvolvida pela Limbic, uma startup britânica especializada em IA, uma ferramenta de diagnóstico chamada “e-triage”. Até o momento, essa ferramenta já avaliou mais de 210 mil pacientes, com um grau de precisão alegada de 93%, abrangendo os oito transtornos mentais mais comuns, como depressão, ansiedade e transtorno de estresse pós-traumático.
Efeito da IA no Serviço Nacional de Saúde
A descoberta do Serviço Nacional de Saúde do Reino Unido é que o chatbot fornece informações para seus psicólogos e psiquiatras que ajudam na determinação da urgência e reciprocidade das necessidades de um paciente em potencial. Diagnósticos errôneos reduziram por causa disso. Além disso, a empresa declara que é utilizado, aproximadamente, 40 minutos pela ferramenta para uma avaliação clínica em detalhes, possibilitando que os médicos examinem mais pacientes e consequentemente reduzindo as listas de espera.
A Abordagem da kintsugi nos EUA já está tomando força.
Nos EUA, a Kintsugi, uma startup, obteve um investimento de mais de US$28 milhões de investidores utilizando uma abordagem diferente: uma ferramenta de análise de voz alimentada por IA, que busca por sinais de depressão clínica e ansiedade em pequenos trechos de fala.
Grace Chang, CEO da Kintsugi, ressalta a importância de não apenas o conteúdo, mas também a forma de comunicação. O software da Kintsugi analisa informações de 250 mil indivíduos que registraram diários verbais, a fim de identificar “biomarcadores de voz”.
Preocupações e desafios
Segundo Marcos Raul de Oliveira, psicólogo, a IA na psicologia e na pesquisa de saúde mental tem um futuro inalterável, apresentando cenários ainda não plenamente explorados.
“Temos, como tecnologias da inteligência, objetos inerentes àqueles que os criaram e os usam. São discussões além de técnicas, mas de responsabilidade e contextos. Creio que os profissionais precisarão se reinventarem e adquirir novos conhecimentos, mas antes da IA, já precisavam”, afirma.
Em entrevista ao Olhar Digital, ele destacou que a tecnologia é uma ferramenta importante para analisar registros médicos, históricos de pacientes e também imagens cerebrais, com o objetivo de identificar possíveis padrões relacionados a transtornos mentais – se houver.
Outra opção é fornecer apoio na tomada de decisões clínicas, capacitando os profissionais a fazerem diagnósticos e prognósticos informados e atualizados. No entanto, é essencial sempre lembrar da complexidade e singularidade da experiência humana.
Diagnósticos em saúde mental frequentemente envolvem nuances e contextos individuais que são desafiadores de serem capturados apenas por algoritmos. Neste sentido, a IA pode ser uma excelente ferramenta complementar, mas não pode e nem deve substituir o julgamento clínico e a interação humana.
O tema da utilização da IA no diagnóstico de transtornos é de grande relevância e complexidade, como destaca o psicólogo. Isso porque a eficácia dos algoritmos depende de extensos conjuntos de dados para treinamento.
Se os algoritmos estiverem trabalhando com dados não representativos ou tendenciosos, eles podem gerar diagnósticos imprecisos ou injustos. Isso nos traz questões de privacidade, coleta e armazenamento de informações sobre a saúde mental, que suscitam preocupações relativas à vida do paciente e ao risco de uso impróprio desses dados. Segue-se então, questões de responsabilidade no caso de um diagnóstico errado ou negligente, o que torna difícil definir quem é responsável entre a Inteligência Artificial, os criadores do algoritmo e os profissionais de saúde, isso pode resultar em omissão ou opressão.
No campo da saúde mental, será crucial abordar proativamente essas preocupações à medida que a tecnologia evolui, enfatiza Marcos Raul de Oliveira. Ele insiste na garantia de um uso responsável e ético dessa tecnologia.