Estudo aponta falhas frequentes em respostas médicas de inteligências artificiais
(Imagem: Canva)
O uso de ferramentas de inteligência artificial para esclarecer dúvidas médicas tem se tornado cada vez mais comum, mas um estudo recente acendeu um alerta sobre a confiabilidade dessas plataformas.
De acordo com a pesquisa, chatbots populares, como o ChatGPT, apresentam erros em cerca de metade das respostas relacionadas à saúde.
Análise de diferentes plataformas
O levantamento avaliou cinco sistemas amplamente utilizados: além do ChatGPT, também foram analisados o Gemini, Meta AI, Grok e DeepSeek.
Pesquisadores dos Estados Unidos, Canadá e Reino Unido aplicaram perguntas em diferentes áreas da saúde. No total, aproximadamente 50% das respostas foram classificadas como problemáticas, sendo que uma parte significativa foi considerada altamente inadequada.
Desempenho varia conforme o tema
Segundo o estudo, os sistemas tiveram melhor desempenho em perguntas objetivas, especialmente relacionadas a vacinas e câncer.
Por outro lado, apresentaram mais dificuldades em questões abertas e em temas como nutrição e células-tronco, onde as respostas exigem maior contextualização e precisão.
Falta de referências preocupa
Outro ponto destacado pelos pesquisadores é que, apesar de muitas respostas serem apresentadas com confiança, raramente são acompanhadas de fontes confiáveis ou referências completas.
A pesquisa foi publicada na revista científica BMJ Open, que reforça a necessidade de cautela no uso dessas ferramentas em temas de saúde.
Uso deve ser complementar
Especialistas alertam que, embora a inteligência artificial possa ser útil para informações gerais, ela não deve substituir a avaliação de profissionais da área médica.
Os resultados do estudo reforçam a importância de buscar orientação especializada, especialmente em situações que envolvem diagnóstico ou tratamento.