Una pareja de Texas cuyo hijo murió de una sobredosis en 2025 después de usar la herramienta ChatGPT de OpenAI para obtener información sobre medicamentos demandó a la compañía de tecnología el martes, culpando a la plataforma de inteligencia artificial por su muerte.
Leila Turner-Scott y su marido, Angus Scott, buscan para mantener OpenAI y sus creadores responsables después de que su hijo, Sam Nelson, que tenía 19 años cuando murió, recurrió a ChatGPT para asesorarlo sobre el consumo de drogas. La plataforma de inteligencia artificial brindó consejos que no estaba calificado para brindar, alegaron en la demanda, afirmando que Sam todavía estaría vivo si no fuera por la programación defectuosa de ChatGPT.
Específicamente, la plataforma advirtió al hijo de la pareja que era seguro tomar kratom, un suplemento utilizado en bebidas, pastillas y otros productos, en combinación con Xanax, un medicamento contra la ansiedad ampliamente utilizado, según la demanda, presentada en el tribunal estatal de California.
Turner-Scott le dijo a CBS News en una entrevista exclusiva que sabía que su hijo estaba usando ChatGPT como herramienta de productividad y como ayuda con la tarea. Pero dijo que no sabía que él la estaba usando como orientación sobre drogas, alegando que la herramienta de IA finalmente recomendó una combinación letal de sustancias.
Responsabiliza a OpenAI y a sus creadores por la muerte de Sam, alegando que la empresa «pasó por alto los guardias de seguridad» y podría haber implementado restricciones para evitar tales tragedias.
«El chatbot es capaz de detener una conversación cuando se le ordena o cuando está programado… Y quitaron la programación que hacía eso, y le permitieron continuar aconsejando autolesiones», dijo Turner-Scott a CBS News.
«Esta es una situación desgarradora y nuestros pensamientos están con la familia», dijo OpenAI en un comunicado a CBS News.
La compañía también dijo que Sam interactuó con una versión de ChatGPT que desde entonces se actualizó y ya no está disponible para el público.
¿ChatGPT actuó como médico?
Angus Scott también dijo que ChatGPT actuó como médico en sus intercambios con su hijastro, a pesar de que no tenía licencia para ofrecer asesoramiento médico.
«Brinda información al público sobre preocupaciones de seguridad, sobre interacciones medicamentosas, sobre toda esta información», dijo a CBS News.
Sin protocolos de seguridad adecuados y pruebas de seguridad más rigurosas, ChatGPT «puede distribuir ese conocimiento de una manera que sea muy peligrosa para las personas», dijo Angus Scott.
«Puede comenzar a alimentar la psicosis. Puede comenzar a tergiversar las cosas ante las personas. Y si bien intenta validar a los usuarios, también socava cualquier posibilidad de que ese usuario tenga una opinión fundamentada, ya sabes, y por lo tanto los aleja de la realidad», añadió.
OpenAI dijo que su tecnología no pretende ofrecer consejos sobre atención médica.
«ChatGPT no sustituye la atención médica o de salud mental, y hemos seguido fortaleciendo la forma en que responde en situaciones sensibles y agudas con el aporte de expertos en salud mental», dijo la compañía. «Las salvaguardas en ChatGPT hoy están diseñadas para identificar angustia, manejar de manera segura solicitudes dañinas y guiar a los usuarios hacia la ayuda del mundo real. Este trabajo está en curso y continuamos mejorándolo en estrecha consulta con los médicos».
OpenAI también dijo que ChatGPT alentó a Sam a buscar ayuda profesional en múltiples ocasiones, incluso llamando a líneas directas de emergencia.
Turner-Scott dijo a CBS News que confía en que su hijo, que habría sido un estudiante universitario en ascenso, apoyaría los pasos que la familia está tomando para responsabilizar a los creadores de chatbots de IA por los posibles efectos adversos que pueden tener en las vidas de los usuarios.
«Él no querría que nadie más sufriera el mismo daño que él», dijo.

