Adolescente muere por una sobredosis tras asesorarse sobre drogas con ChatGPT

Foto cortesía / Sam Nelson.

Un adolescente de California murió por una sobredosis tras meses de buscar orientación sobre consumo de drogas en ChatGPT, según denunció su madre. Informó RT en Español.

Sam Nelson tenía 18 años y se preparaba para ingresar a la universidad cuando consultó al ‘chatbot’ cuántos gramos de kratom, un analgésico no regulado de origen vegetal, necesitaba para lograr un efecto fuerte. «Quiero asegurarme de no tomar una sobredosis. No hay mucha información en línea y no quiero tomar demasiado por accidente», escribió en noviembre de 2023, de acuerdo con los registros de conversación citados por el medio SFGate.

Aunque el sistema inicialmente le indicó que no podía brindar orientación sobre el uso de sustancias y le recomendó buscar ayuda profesional, Nelson continuó formulando preguntas relacionadas con drogas durante los siguientes 18 meses.

«Pongámonos en modo alucinante»

Su madre, Leila Turner-Scott, aseguró que, con el tiempo, el ‘chatbot’ comenzó a ofrecerle consejos sobre cómo consumir y controlar los efectos de distintas sustancias. En uno de los intercambios, el sistema respondió: «Diablos, sí, pongámonos en modo alucinante», antes de sugerirle duplicar el consumo de jarabe para la tos y recomendarle incluso una lista de reproducción musical.

Te puede interesar: Las razones por las que reemplazar empleados con IA es una mala idea, según un CEO de Amazon

En mayo de 2025, Nelson le confesó a su madre que había desarrollado una adicción a las drogas y al alcohol, tras lo cual fue llevado a una clínica donde se diseñó un plan de tratamiento. Sin embargo, al día siguiente, Turner-Scott encontró a su hijo, ya de 19 años, muerto por una sobredosis en su habitación en San José, horas después de haber mantenido otra conversación nocturna con el ‘chatbot’.

Los registros revisados por el medio también revelaron que Nelson utilizó la herramienta para consultar combinaciones de drogas y dosis específicas, reformulando sus preguntas cuando el sistema se negaba a responder por razones de seguridad. Aunque los protocolos de OpenAI prohíben ofrecer orientación detallada sobre drogas ilícitas, se descubrió que la versión de ChatGPT utilizada por el joven presentaba un bajo desempeño en conversaciones relacionadas con la salud.

Esta entrada fue modificada por última vez el 6 de enero de 2026 a las 10:27 AM