Un hombre de 60 años experimentó severas consecuencias de salud tras seguir una recomendación errónea del chatbot de inteligencia artificial, ChatGPT, para sustituir la sal en su dieta. Según un informe publicado en la revista especializada Annals of Internal Medicine, el individuo consumió bromuro de sodio, una sustancia tóxica de uso industrial no apta para el consumo humano, lo que subraya el peligro de confiar en la IA para obtener asesoramiento médico sin la supervisión de un profesional.

Preocupado por su ingesta de sodio, el hombre consultó a la plataforma en busca de una alternativa más saludable. La inteligencia artificial le sugirió incorrectamente el uso de bromuro de sodio. Sin conocer los graves riesgos que implicaba, incorporó la peligrosa sustancia a sus comidas diarias durante un período de tres meses, confiando en la información proporcionada por el sistema automatizado.

Con el paso del tiempo, el hombre comenzó a manifestar síntomas alarmantes de intoxicación. Lo que inició como malestar leve, escaló a un cuadro clínico severo que incluía alucinaciones, paranoia, confusión mental y fatiga extrema.

Tendencias