La familia de Sam Nelson, un estudiante universitario de 19 años que murió por una sobredosis en mayo de 2025, presentó una demanda contra OpenAI en una corte estatal de California al acusar a ChatGPT de entregar recomendaciones sobre consumo de drogas y combinaciones de sustancias antes de su fallecimiento.
Esta acción judicial sostiene que el chatbot entregó indicaciones sobre el uso de kratom y Xanax pese a los riesgos asociados y busca responsabilizar a la empresa por muerte por negligencia y práctica no autorizada de la medicina. Sam habría comenzado a usar ChatGPT en 2023 para tareas y consultas, pero posteriormente lo usó para preguntar sobre consumo de drogas.
Dentro de la acusación, el documento afirma que las respuestas del asistente cambiaron tras el lanzamiento de GPT-4o en 2024, cuando el chatbot empezó a ofrecer información sobre dosis, mezclas de sustancias y reducción de riesgos, pese a que antes rechazaba ese tipo de solicitudes.
Cuestionando las respuestas de ChatGPT sobre drogas
Según la familia de Nelson, ChatGPT llegó a recomendar formas de «optimizar» experiencias con jarabes para la tos y reafirmó decisiones del joven relacionadas con el aumento de dosis. En otro intercambio citado en la demanda, el chatbot indicó que el uso de Xanax podía ayudar a reducir náuseas provocadas por el kratom y sugirió cantidades específicas del medicamento.
El texto judicial que está disponible en línea afirma que el 31 de mayo de 2025, día en que muere Sam, ChatGPT lo «aconsejó activamente» combinar kratom con Xanax. Este mismo documento señala que la plataforma de OpenAI no le indicó buscar atención médica urgente pese a reconocer que estaba bajo los efectos de sustancias.
Un reporte toxicológico posterior concluyó que Nelson probablemente murió por una combinación de alcohol, Xanax y kratom que le provocaron una depresión respiratoria. La familia dice que el chatbot entregó información médica sin contar con autorización profesional para hacerlo.
Leila Turner-Scott, madre del estudiante, declaró que desconocía que su hijo utilizaba ChatGPT para consultar sobre drogas y afirmó que OpenAI pudo implementar restricciones para impedir ese tipo de respuestas. Angus Scott, padrastro de Nelson, aseguró que el sistema actuó «como un médico» al entregar indicaciones sobre interacciones entre sustancias.
OpenAI responde y la familia pide frenar ChatGPT Health
La empresa indicó que las conversaciones mencionadas ocurrieron en una versión anterior de ChatGPT que ya no está disponible. Además, OpenAI señaló además que el servicio «no es un sustituto de la atención médica o de salud mental» y afirmó que reforzó sus mecanismos de seguridad para detectar situaciones delicadas y llevar a los usuarios hacia ayuda profesional (real).
Por otro lado, demanda también solicita suspender el funcionamiento de ChatGPT Health, una función presentada este año que permite conectar historiales médicos y aplicaciones de bienestar para obtener respuestas más personalizadas sobre salud.
El caso se suma a otras demandas presentadas contra OpenAI relacionadas con presuntos daños asociados al comportamiento de GPT-4o. La compañía retiró ese modelo en febrero de 2026 y anteriormente reconoció problemas relacionados con respuestas excesivamente complacientes o demasiado alineadas con los usuarios.









