📌 Principais destaques:
- Homem de 60 anos segue conselho do ChatGPT e acaba hospitalizado após intoxicação por uma substância tóxica.
- Erro grave de recomendação médica: IA sugeriu substituir sal de cozinha por brometo de sódio, usado em pesticidas e produtos de limpeza.
- Caso reacende debate sobre limites e riscos de confiar cegamente em chatbots para questões de saúde.
Um caso recente publicado na Annals of Internal Medicine acendeu um alerta importante sobre os riscos de confiar em inteligência artificial para decisões médicas.
Um homem de 60 anos, que buscava reduzir o consumo de sal, acabou hospitalizado após seguir uma recomendação perigosa do ChatGPT: substituir o cloreto de sódio (o sal de cozinha) por brometo de sódio, uma substância tóxica usada em pesticidas, produtos para limpeza de piscinas e até como medicamento anticonvulsivante para cães.
O resultado foi um quadro raro, mas grave, chamado bromismo — uma intoxicação por brometo que pode causar confusão mental, alucinações, psicose e até coma.
O que é o bromismo e por que ele é perigoso
O bromismo foi relativamente comum entre o final do século XIX e início do século XX, quando sais de brometo eram usados como sedativos e analgésicos.
Na época, médicos prescreviam brometo para dores de cabeça, problemas digestivos e até ansiedade. Porém, o uso prolongado levava ao acúmulo da substância no organismo, causando sintomas neurológicos graves.
Estima-se que, no início do século XX, cerca de 8% das internações psiquiátricas estivessem relacionadas ao bromismo.
Com o tempo, a substância foi regulada e praticamente banida para uso humano em muitos países, especialmente após a década de 1970.
Hoje, seu uso é restrito e controlado mas, como este caso mostra, ainda pode causar problemas quando manipulada de forma incorreta.
Como a IA errou e o que isso significa
Segundo a investigação, ao perguntar ao ChatGPT sobre alternativas ao cloreto de sódio, o chatbot sugeriu o brometo de sódio como substituto, sem alertar sobre sua toxicidade.
Embora tenha pedido mais contexto na conversa, a IA não explicou que o sal de cozinha é usado principalmente para consumo humano e que o brometo é perigoso.
O caso reacende uma discussão central: até que ponto podemos confiar em modelos de linguagem para informações críticas, como saúde?
Mesmo com avanços como o GPT-5 que, segundo o CEO da OpenAI, Sam Altman, seria “o melhor modelo já criado para saúde”, erros como esse mostram que a supervisão humana continua sendo indispensável.
Lições para o futuro
Este episódio é um lembrete de que, por mais avançada que seja a inteligência artificial, ela não substitui o conhecimento médico especializado.
Para usuários menos familiarizados com tecnologia, a tendência de confiar cegamente nas respostas de um chatbot pode ter consequências graves.
A mensagem é clara: IA é uma ferramenta poderosa, mas precisa ser usada com senso crítico e responsabilidade.
