Pacientes e IA: Diagnósticos por Chatbot Geram Expectativas e Alarme Sobre Saúde

Pacientes usam IA para autodiagnósticos, gerando expectativas e alertas. Chatbots como ChatGPT são consultados, compartilhando dados médicos. Casos recentes mostram potencial e riscos. Um paciente identificou bloqueio arterial, outra, alarme falso de tumor. Especialistas alertam: IA tem limitações e falta de validação humana. Preocupações com privacidade de dados e regulamentação

04/12/2025 9:35

2 min de leitura

(Imagem de reprodução da internet).

Pacientes Usam IA para Diagnósticos, Gerando Expectativas e Preocupações

Um número crescente de pacientes está recorrendo a sistemas de inteligência artificial, como o ChatGPT, para obter respostas rápidas sobre sua saúde. Essa tendência envolve o compartilhamento de dados médicos detalhados, incluindo exames laboratoriais, laudos, imagens e históricos clínicos, impulsionada pela busca por informações e autodiagnósticos.

Vários casos recentes evidenciam tanto o potencial quanto os riscos associados a essa prática, que já é utilizada por milhões de pessoas globalmente.

Em um caso notável, um paciente conseguiu identificar um bloqueio arterial grave após receber orientação do ChatGPT, o que o levou a solicitar um exame mais aprofundado. Em contrapartida, uma jovem recebeu um alarme falso de possível tumor, também resultado da análise realizada pela IA.

Leia também:

Esses exemplos ilustram a complexidade da situação e a necessidade de cautela.

Especialistas em saúde alertam que, embora esses sistemas possam fornecer respostas convincentes, a precisão dos diagnósticos feitos pela IA ainda é limitada. Estudos indicam que, em situações sem supervisão médica, os chatbots frequentemente erram menos da metade dos diagnósticos.

A falta de validação humana representa um risco significativo.

Além dos riscos clínicos, a prática levanta sérias preocupações sobre a privacidade dos dados de saúde. Sistemas como o ChatGPT não estão sujeitos a regulamentações rigorosas, como a HIPAA nos Estados Unidos, que protege informações médicas.

Isso significa que os usuários podem estar expondo seus dados a riscos, permitindo que sejam utilizados para treinar novos modelos de IA.

A segurança da informação depende, em grande parte, das políticas de privacidade das empresas. Apesar das salvaguardas implementadas pela OpenAI, ainda existe a possibilidade de que dados confidenciais sejam reutilizados ou compartilhados. Embora os usuários possam optar por não permitir o uso de seus dados para treinamento, a adesão a essa opção é baixa.

Mesmo com a remoção de nomes ou metadados, informações clínicas detalhadas podem ser rastreadas.

Diante desse cenário, profissionais de saúde e pesquisadores enfatizam a importância da cautela. A inteligência artificial pode ser uma ferramenta útil para auxiliar na interpretação de resultados, mas não substitui a avaliação clínica completa e a expertise médica.

Como ressalta a professora Karni Chagal-Feferkorn, em entrevista ao New York Times, “é fundamental ter consciência dos riscos, sem temer a tecnologia”.

Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)