IA na saúde: os riscos das respostas prontas dos chatbots

IA na saúde: os riscos das respostas prontas dos chatbots

Um estudo com quase 1.300 pessoas mostrou que chatbots de inteligência artificial podem falhar quando usados para decisões médicas reais. O risco não está apenas no erro técnico, mas na falsa sensação de certeza que pode levar famílias a adiar avaliações importantes.

Tags: Inteligencia Artificial (IA) | Saúde | Tecnologia | Neurodesenvolvimento

 

A nova forma de buscar respostas sobre saúde 

Durante muitos anos, quando um pai ou mãe ficava preocupado com o desenvolvimento da fala no filho, o caminho mais comum era o Google. A busca trazia uma avalanche de links: alguns falavam em atraso simples, outros em autismo, outros em questões auditivas. Era preciso abrir páginas, comparar informações, tentar entender o que fazia sentido. Dava trabalho. Mas a dúvida permanecia visível. 

Hoje, o cenário mudou. Em vez de navegar por diferentes sites, muitas famílias digitam a pergunta em um chatbot de inteligência artificial. “Meu filho de 3 anos não fala. Isso é normal?” Em segundos, surge uma resposta organizada, estruturada, escrita com segurança. A informação parece clara e quase conclusiva. 

E é justamente aí que precisamos ter cuidado. 

 

O que a ciência descobriu sobre os chatbots na saúde 

Um estudo publicado em 2026 na revista científica Nature Medicine investigou se esses sistemas como o ChatGPT realmente ajudam pessoas comuns a tomar decisões médicas seguras. A pesquisa envolveu quase 1.300 participantes e simulou situações reais de saúde. 

Primeiro, os pesquisadores testaram os chatbots como se estivessem fazendo uma prova: enviaram casos clínicos completos, com todas as informações organizadas. Nesse teste, os sistemas foram impressionantes. Acertaram a identificação de condições médicas em mais de 90% dos casos. Mas a vida real não funciona como uma prova de medicina… 

Na segunda etapa do estudo, pessoas comuns receberam os mesmos cenários e puderam conversar com os chatbots da maneira que fariam em casa. Elas decidiram o que contar, como perguntar, quais detalhes incluir. 

O resultado foi muito diferente: menos de 35% dos participantes foram respondidos pelo robô de IA com algo que identificou corretamente a condição.  

 

A tecnologia depende da forma como perguntamos 

O problema não é que a inteligência artificial não tenha acesso a conhecimento médico. A questão é que, na prática, as pessoas nem sempre sabem quais informações são essenciais. Às vezes esquecem sintomas importantes, minimizam detalhes e/ou não percebem o que é um sinal de alerta relevante. 

Na consulta médica, o profissional conduz perguntas estratégicas. Ele investiga aspectos que você talvez nunca pensaria em mencionar espontaneamente. O chatbot depende exclusivamente do que você escreve. Ou seja, se a informação chega incompleta, a resposta também será. 

 

O viés do conforto  

Existe outro fator que o estudo ajuda a revelar: o viés do conforto. 

O viés do conforto é a tendência natural que temos de preferir a explicação menos assustadora diante de uma situação incerta. Se uma resposta apresenta duas possibilidades com níveis de gravidade diferentes, nosso cérebro tende a agarrar-se à mais leve como mecanismo de autoproteção emocional. 

No estudo, mesmo quando os chatbots mencionavam hipóteses mais graves, muitos participantes optavam pela interpretação menos urgente. A tecnologia apresentava possibilidades, mas a decisão final continuava sendo humana, quase sempre influenciada pela emoção. 

E quando a resposta vem organizada, bem escrita e aparentemente segura, a escolha confortável é reforçada e a falsa sensação de certeza coloca a saúde em risco. 

 

O impacto disso no autismo e no desenvolvimento infantil 

Quando falamos de Transtorno do Espectro Autista, estamos falando de algo complexo. Um conjunto de características que envolvem comunicação, interação social, comportamento e processamento sensorial. 

Um chatbot pode afirmar que “algumas crianças falam mais tarde”. E isso é verdade. Mas ele não está observando seu filho. Não está analisando como ele brinca, como responde ao nome, como compartilha atenção ou reage a estímulos. 

A organização da resposta dada pelos chatbots pode transmitir segurança, mas não é uma avaliação clínica estruturada. E quando se confia no prognóstico do “Dr. Chat”, a possibilidade de você estar perdendo o tempo mais precioso do neurodesenvolvimento infantil é grande.  

Intervenção precoce pode transformar completamente a trajetória de uma criança!

 

Passar na prova não é o mesmo que cuidar de gente 

O próprio estudo traz uma conclusão importante: alto desempenho em testes não garante bom desempenho na prática com pessoas reais. 

A inteligência artificial pode ser útil como ponto de partida para entender termos médicos, organizar dúvidas e buscar informações iniciais, mas não substitui avaliação clínica, escuta especializada, experiência profissional e responsabilidade ética. 

 

Nada substitui o olhar profissional 

A família, muitas vezes, é a primeira a perceber que algo precisa de atenção. Por isso, se você nota atraso na fala, dificuldade de interação, pouco contato visual, comportamentos repetitivos ou mudanças importantes no comportamento de um familiar, confiar apenas em uma resposta digital pode atrasar uma investigação necessária para o desenvolvimento de todo o potencial de quem você mais ama. 

No Instituto Singular, nossa equipe multidisciplinar é especializada em avaliação do desenvolvimento infantil, investigação diagnóstica para autismo e outros transtornos do neurodesenvolvimento, intervenção precoce e acompanhamento em saúde mental. 
 
Se você precisa de orientação segura e baseada em ciência, fale com nossa equipe clicando aqui

Compartilhe:
Facebook
Twitter
LinkedIn
WhatsApp
Email

Não encontrou o que precisava?

Entre em contato com a gente!