
Alertan por circulación de billetes falsos en El Coacoyul de Zihuatanejo
TRENTON, Nueva Jersey, EU, 14 de agosto de 2025.- Un hombre de 60 años, sin historial médico ni psiquiátrico previo, fue hospitalizado la semana pasada tras ingerir bromuro de sodio, un compuesto tóxico que le fue recomendado por ChatGPT como sustituto de la sal de mesa. El caso, documentado en un informe de la revista Annals of Internal Medicine: Clinical Cases, destaca los riesgos de usar herramientas de inteligencia artificial para obtener consejos de salud.
De acuerdo a lo informado, el hombre buscaba eliminar el cloruro de su dieta y consultó a la IA para encontrar un reemplazo. La respuesta de ChatGPT sugirió el bromuro, un compuesto que se usaba como sedante en el siglo 19, pero que ahora se sabe que es tóxico en dosis altas. Sucedió que después consumir el bromuro de sodio durante tres meses, el paciente presentó síntomas graves como paranoia, alucinaciones y problemas de coordinación, creyendo que su vecino intentaba envenenarlo.
Los médicos diagnosticaron bromismo, una condición casi extinta. Los investigadores del informe señalaron que, al replicar la consulta, la IA volvió a sugerir el bromuro, sin una advertencia clara sobre su toxicidad.
La nota completa en Quadratín Hispano