Pular para o conteúdo

Chatbots médicos estão chegando. Veja o que você deve saber antes de usar.

Pessoa usando laptop em mesa com estetoscópio, documento e chá, foco em consulta ou trabalho médico online.

Washington (AP) - Com centenas de milhões de pessoas recorrendo a chatbots para tirar dúvidas e pedir orientação, era questão de tempo até que as empresas de tecnologia passassem a oferecer ferramentas pensadas especificamente para responder perguntas de saúde.

Em janeiro, a OpenAI apresentou o ChatGPT Saúde, uma versão do seu chatbot que, segundo a empresa, consegue analisar prontuários, dados de aplicações de bem-estar e informações de dispositivos vestíveis para ajudar a responder questões de saúde e medicina.

Neste momento, há lista de espera para usar o programa. A Anthropic, concorrente no setor de IA, disponibiliza recursos parecidos para alguns utilizadores do seu chatbot Claude.

As duas empresas afirmam que esses programas - conhecidos como modelos de linguagem de grande porte - não substituem o atendimento profissional e não devem ser usados para diagnosticar doenças. A proposta, dizem, é outra: resumir e explicar resultados de exames difíceis, ajudar a preparar uma consulta e identificar tendências relevantes escondidas em prontuários e métricas de aplicações.

A seguir, pontos importantes para pensar antes de conversar com um chatbot sobre a sua saúde.

Chatbots de saúde como o ChatGPT Saúde e o Claude podem ser mais úteis do que uma pesquisa no Google

Médicos e investigadores que já testaram o ChatGPT Saúde e ferramentas semelhantes avaliam que elas representam um avanço em relação ao que muita gente faz hoje.

Plataformas de IA não são infalíveis - por vezes “inventam” informações ou dão orientações inadequadas -, mas tendem a produzir respostas mais personalizadas e específicas do que aquilo que muitos pacientes encontram numa pesquisa genérica na internet.

“A alternativa muitas vezes é nenhuma informação, ou o paciente improvisar”, afirmou o Dr. Robert Wachter, especialista em tecnologia médica na Universidade da Califórnia, em São Francisco. “Se usar essas ferramentas com responsabilidade, dá para obter informações úteis.”

Uma das vantagens dos chatbots mais recentes é responderem com base no contexto do histórico médico do utilizador, incluindo medicamentos em uso, idade e anotações clínicas.

Mesmo que não haja partilha direta do seu prontuário com a IA, Wachter e outros especialistas recomendam fornecer o máximo de detalhes possível (por exemplo, duração dos sintomas, doenças prévias, medicamentos, alergias e resultados de exames) para melhorar a qualidade das respostas.

Se os sintomas forem preocupantes, não use IA: procure atendimento

Wachter e outros especialistas insistem que existem situações em que o caminho correto é ignorar o chatbot e buscar ajuda médica imediata. Falta de ar, dor no peito ou uma dor de cabeça muito intensa podem ser sinais de emergência.

Mesmo em cenários menos urgentes, pacientes e médicos devem encarar programas de IA com “um nível de ceticismo saudável”, segundo o Dr. Lloyd Minor, da Universidade Stanford.

“Se estiver em jogo uma decisão médica importante - ou mesmo uma decisão menor sobre a sua saúde -, nunca se deve depender apenas do que sai de um modelo de linguagem de grande porte”, afirmou Minor, que é o diretor da faculdade de medicina de Stanford.

Antes de enviar dados, pense na sua privacidade (e nas leis que se aplicam)

Uma parte considerável do valor prometido por bots de IA depende de o utilizador partilhar informações médicas pessoais. Ainda assim, é essencial compreender que o que é enviado para uma empresa de IA não fica protegido pela lei federal de privacidade que normalmente regula dados médicos sensíveis nos Estados Unidos.

Conhecida pela sigla HIPAA, essa lei prevê multas e até pena de prisão para médicos, hospitais, seguradoras e outros serviços de saúde que divulguem prontuários de forma indevida. Porém, ela não se aplica às empresas que desenvolvem chatbots.

“Quando alguém envia o seu prontuário para um modelo de linguagem de grande porte, isso é muito diferente de entregá-lo a um médico novo”, disse Minor. “Os consumidores precisam entender que os padrões de privacidade são completamente diferentes.”

OpenAI e Anthropic afirmam que as informações de saúde dos utilizadores ficam separadas de outros tipos de dados e passam por proteções adicionais. As empresas também dizem que não usam dados de saúde para treinar os seus modelos. O utilizador precisa autorizar a partilha e pode desligar a integração quando quiser.

No Brasil, vale ainda considerar a LGPD (Lei Geral de Proteção de Dados), que define regras para tratamento de dados pessoais, incluindo dados sensíveis como os de saúde. Mesmo assim, na prática, a forma como os dados serão guardados, processados e eventualmente transferidos para outros países depende do serviço e dos termos aceitos - por isso, ler as políticas e limitar o que é enviado continua a ser uma cautela importante.

Testes indicam que chatbots podem falhar na conversa com pessoas reais

Apesar do entusiasmo em torno da IA, os testes independentes ainda estão no começo. Estudos iniciais sugerem que programas como o ChatGPT conseguem ir muito bem em exames médicos de alto nível, mas frequentemente tropeçam quando precisam interagir com pessoas.

Um estudo recente da Universidade de Oxford, com 1.300 participantes, concluiu que pessoas que usaram chatbots de IA para pesquisar condições hipotéticas de saúde não tomaram decisões melhores do que aquelas que recorreram a pesquisas online ou ao próprio julgamento.

Quando os chatbots recebiam cenários médicos apresentados de forma completa e por escrito, identificavam corretamente a condição por trás do caso em 95% das vezes.

“Esse não era o problema”, afirmou o autor principal, Adam Mahdi, do Instituto de Internet de Oxford. “O ponto em que tudo desmoronava era durante a interação com os participantes reais.”

Mahdi e a sua equipa observaram vários ruídos de comunicação. Muitas vezes, as pessoas não forneciam informações necessárias para o chatbot acertar. Em sentido oposto, os sistemas de IA por vezes misturavam informações corretas e incorretas, e os utilizadores tinham dificuldade para separar uma coisa da outra.

O estudo, realizado em 2024, não utilizou as versões mais novas dos chatbots, incluindo ofertas recentes como o ChatGPT Saúde.

Uma “segunda opinião” com IA pode aumentar a confiança - com cuidado

Para Wachter, um ponto que ainda pode evoluir bastante é a capacidade de o chatbot fazer perguntas de seguimento, explorar detalhes e conduzir uma conversa mais parecida com a de um profissional de saúde.

“É aí que isso vai ficar realmente bom: quando as ferramentas ficarem um pouco mais ‘médicas’ na forma de conversar, indo e voltando com o paciente”, disse Wachter.

Por enquanto, uma forma prática de ganhar mais segurança no que está a ler é consultar mais de um chatbot - numa lógica semelhante à de procurar uma segunda opinião com outro médico.

“Às vezes eu coloco a informação no ChatGPT e também no Gemini”, contou Wachter, referindo-se à ferramenta de IA do Google. “Quando os dois concordam, sinto mais segurança de que aquela é a resposta certa.”

Além disso, uma boa estratégia é usar o chatbot para organizar informações, não para decidir sozinho: pedir uma lista de perguntas para levar à consulta, solicitar explicações em linguagem simples sobre um resultado de exame e pedir alertas sobre sinais de alarme que justificariam procurar atendimento presencial. Sempre que possível, confirme orientações com um profissional e, ao falar com o médico, leve o que a IA sugeriu como ponto de partida - não como conclusão.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário