Consultou ChatGPT para deixar de consumir sal e desenvolveu doença rara
- 12/08/2025
Um artigo publicado numa revista médica norte-americana alerta para o caso de um homem que desenvolveu bromismo - uma condição clínica rara - influenciado pelo uso de Inteligência Artificial (IA).
Segundo o artigo publicado na Annals of Internal Medicine, em 5 de agosto, e noticiado pelo The Guardian, o homem, de 60 anos, queria substituir o consumo de sal de mesa na sua dieta e, para isso, consultou o ChatGPT.
De acordo com os autores, da Universidade de Washington, em Seattle, o homem foi a um hospital, onde alegou que um vizinho o poderia estar a envenenar. Relatou ter várias restrições alimentantes e, apesar de estar com sede, demonstrou paranoia quando lhe ofereceram água.
O paciente ainda tentou fugir da unidade hospitalar cerca de 24 horas depois de ter sido internado e, quando finalmente foi estabilizado, relatou vários sintomas - acne facial, sede excessiva e insónia - que levaram os médicos a diagnosticá-lo com bromismo, uma intoxicação por ingestão excessiva de substâncias compostas com bromo. Esta é uma condição rara que era especialmente reconhecida no início do século XX e, segundo destaca o The Guardian, terá contribuído para quase um em cada dez internamentos psiquiátricos nessa altura.
De acordo com o artigo científico, intitulado 'A Case of Bromism Influenced by Use of Artificial Intelligence' ('Um Caso de Bromismo Influenciado pelo Uso da Inteligência Artificial'), o homem acabou por contar aos médicos que, após ler acerca dos efeitos negativos do cloreto de sódio, ou sal de mesa, decidiu consultar o ChatGPT para o eliminar da sua dieta. Assim, começou a tomar brometo de sódio durante três meses.
Como não tiveram acesso ao registo de conversas do paciente no ChatGPT, os autores não conseguiram determinar o conselho que o homem recebeu, no entanto, ao consultarem o 'chatbot' sobre o que podia substituir cloreto, a resposta incluiu brometo e não forneceu qualquer aviso específico sobre saúde.
Os investigadores defendem que o caso mostra "como o uso da Inteligência Artificial pode potencialmente contribuir para o desenvolvimento de resultados adversos à saúde que poderiam ser evitados" e alertaram que este tipo de aplicações podem "gerar imprecisões científicas, carecer da capacidade de discutir criticamente os resultados e, em última análise, alimentar a disseminação de desinformação".
De notar que a publicação deste artigo surge numa altura em que a OpenAI, criadora do ChatGPT, anunciou uma nova versão - o GPT-5 - que seria melhor a responder a questões relacionadas com saúde. No entanto, a empresa destacou que o 'chatbot' não substitui a ajuda profissional.
Na semana passada, a OpenAI anunciou que o ChatGPT iria atingir 700 milhões de utilizadores ativos semanais, representando um crescimento anual de mais de quatro vezes.
Leia Também: Apesar da nova versão, OpenAI recuperou modelos antigos no ChatGPT