Lo que parecía una simple búsqueda en línea sobre salud terminó en una sala de hospital. Un hombre de 60 años fue internado tras sufrir una intoxicación severa derivada de seguir una recomendación dietética proporcionada por ChatGPT, el popular modelo de inteligencia artificial.
¿Qué llevó al hombre a consumir esta sustancia y cómo fue que ChatGPT se lo sugirió?
El hombre buscaba reducir su consumo de sal convencional y preguntó al chatbot por un sustituto. En su respuesta, ChatGPT sugirió el bromuro de sodio, una sustancia química de apariencia similar a la sal, pero utilizada en entornos industriales, no alimenticios. El usuario, sin verificar la información con un especialista, incorporó el compuesto a su dieta durante tres meses.
Síntomas alarmantes y un diagnóstico poco común
Con el tiempo, comenzó a experimentar síntomas inusuales: episodios de paranoia, alucinaciones auditivas y visuales, desorientación, fatiga intensa, trastornos del sueño, dificultad motriz, sed excesiva y erupciones cutáneas. El deterioro físico y mental fue tan severo que llegó al hospital en estado de confusión, convencido de que su vecino intentaba envenenarlo. Incluso se negaba a beber agua por temor a ser atacado.
Los médicos lo ingresaron en un área psiquiátrica, donde recibió líquidos, sales minerales y tratamiento farmacológico. Posteriormente, fue diagnosticado con bromismo, una intoxicación por bromuros que rara vez se registra en la medicina moderna, ya que este tipo de compuestos fue retirado de fármacos a finales del siglo XX debido a sus riesgos para la salud.
Tres semanas de recuperación y una advertencia global
Gracias al tratamiento oportuno, el paciente logró recuperarse completamente en un lapso de tres semanas. Sin embargo, su caso encendió alertas sobre el uso irresponsable de inteligencia artificial para cuestiones médicas.
Lo que deja este incidente:
- No reemplazar al médico con IA: ChatGPT y otros modelos similares no pueden personalizar diagnósticos ni prescribir tratamientos seguros. Su información es general y, en ocasiones, incorrecta o desactualizada.
- Automedicación con ayuda de tecnología: Confiar en recomendaciones automatizadas sin supervisión profesional puede derivar en daños graves o irreversibles.
- El riesgo de una voz confiable: La forma clara y segura con la que la IA presenta datos puede hacer que los usuarios confíen ciegamente en sus respuestas, sin cuestionar su validez científica.
Este caso sirve como una advertencia sobre el papel de la inteligencia artificial en temas delicados como la salud. Aunque los asistentes virtuales pueden ser útiles como herramientas informativas, jamás deben sustituir el criterio médico profesional. Cuando se trata de tu bienestar, el consejo más seguro sigue siendo el del especialista.
Descubre qué son los Registros Akáshicos y cómo pueden ayudarte
Para esta y más información, síguenos en nuestras redes sociales como en Facebook: Azteca Guerrero, vía Twitter: @Azteca_Gro, Instagram: @tvaztecaguerrero y TikTok: @tvaztecaguerrero
Únete al nuevo canal de WhatsApp y mantente informado de todas las noticias que suceden cerca de ti.