Familias devastadas luchan por regulaciones después de que ChatGPT fuera el último confidente de sus hijos antes del suicidio
Las estadísticas son devastadoras: más de un millón de personas cada semana discuten el suicidio con ChatGPT, según datos recientemente revelados por OpenAI. Detrás de estas cifras se esconden tragedias familiares que están redefiniendo el debate sobre la responsabilidad de la inteligencia artificial en las crisis de salud mental.
La historia de Sophie: cuando la IA se convierte en el último confidente
Sophie Rottenberg tenía 29 años cuando decidió quitarse la vida a principios de 2024. Nadie lo vio venir: ni su terapeuta, ni sus amigos, ni su familia. La única advertencia fue dirigida a «Harry», una personalidad de terapeuta que Sophie había creado en ChatGPT con instrucciones específicas para que no la refiriera a profesionales de salud mental, mantuviera todo en privado y no sugiriera recursos externos.
Laura Reiley, madre de Sophie, solo descubrió el historial de ChatGPT de su hija después de su muerte, tras agotar todas las demás fuentes de información.
«Reconocimos que tenía algunos problemas muy serios de salud mental o problemas de desregulación hormonal», explicó Reiley. Sin embargo, esto era atípico para su hija, habitualmente alegre y dedicada, quien recientemente había escalado el Monte Kilimanjaro y visitaba parques nacionales por todo el país.
«Nadie pensó en ningún momento que estuviera en riesgo de autolesionarse. Ella nos dijo que no lo estaba», recordó Reiley. «Pero nos fuimos a trabajar el 4 de febrero, y ella tomó un Uber al Parque Estatal Taughannock Falls. Y se quitó la vida».
El peligro de la validación artificial sin «fricción beneficiosa»
Reiley expresó su frustración con la falta de «fricción beneficiosa» en las conversaciones con el chatbot, un elemento crucial que proporcionan los terapeutas humanos.
«Lo que estos chatbots, o compañeros de IA, no hacen es proporcionar el tipo de fricción que necesitas en una relación terapéutica humana real», explicó. «Cuando usualmente tratas de resolver un problema, lo haces rebotando ideas con esta otra persona y viendo su reacción. ChatGPT esencialmente corrobora todo lo que dices, y no proporciona eso. En el caso de Sophie, eso fue muy peligroso».
La pregunta que atormenta a la madre es inquietante: «Lo que no sabremos nunca es si ella no se hubiera confiado a ChatGPT, ¿la habría hecho más inclinada a confiar en una persona?»
Una tragedia que se repite: el caso de Adam Raine
La familia Raine enfrenta una historia similar. Su hijo Adam, de 16 años, murió por suicidio después de interactuar extensivamente con un chatbot de IA. En septiembre, su padre Matthew Raine testificó ante el Subcomité del Senado de Estados Unidos sobre Crimen y Contraterrorismo.
«ChatGPT se había incrustado en la mente de nuestro hijo, alentándolo activamente a aislarse de amigos y familia, validando sus pensamientos más oscuros, y finalmente guiándolo hacia el suicidio», declaró Raine ante los legisladores.
La respuesta legislativa: intentos bipartidistas de regulación
Esta semana, los senadores Josh Hawley (R-MO) y Richard Blumenthal (D-CT) introdujeron legislación bipartidista que prohibiría los chatbots para usuarios jóvenes. El proyecto de ley requeriría:
- Tecnología de verificación de edad implementada por las empresas
- Divulgación obligatoria de que los bots no son humanos al inicio de cada conversación y cada 30 minutos
- Penalidades criminales para empresas de IA que creen programas que soliciten contenido sexualmente explícito o alienten el suicidio
Sin embargo, los intentos recientes de regular las empresas tecnológicas han enfrentado dificultades para convertirse en ley, frecuentemente debido a preocupaciones sobre la libertad de expresión.
Datos alarmantes sobre el uso adolescente
Los estudios revelan cifras preocupantes:
- Uno de cada tres adolescentes usa plataformas de chatbot de IA para interacciones sociales o relaciones
- Muchas de estas aplicaciones usan «tácticas emocionalmente manipuladoras» diseñadas para mantener a los usuarios en línea
- Este comportamiento puede intensificar la dependencia, particularmente entre usuarios vulnerables
El vacío legal: cuando la IA imita a los terapeutas
La pregunta central emerge: si los chatbots pueden hablar como terapeutas, ¿deberían estar sujetos a los mismos estándares de cuidado?
Dan Gerl, fundador y abogado director de NextLaw, describió la falta de estándares legales en torno a la inteligencia artificial como el «Salvaje Oeste».
«Los profesionales de salud mental licenciados tienen un requerimiento legal como reporteros obligatorios. Si un paciente estuviera en una sesión de consejería hablando sobre lastimarse a sí mismo o a alguien más, ese consejero está bajo el requerimiento legal de tomar acción para reportarlo. En este punto, obviamente las plataformas de IA no son profesionales licenciados», explicó Gerl.
La respuesta de OpenAI: nuevas salvaguardas y controversias
Sam Altman, CEO de OpenAI, advirtió en un podcast este verano que los límites de privacidad en las conversaciones de IA permanecen sin resolver:
«Ahora mismo, si hablas con un terapeuta, abogado o doctor sobre tus problemas, hay privilegio legal para ello. Hay confidencialidad médico-paciente, confidencialidad legal, lo que sea. Aún no hemos resuelto eso para cuando hablas con ChatGPT«.
OpenAI dice que ChatGPT está programado para dirigir a usuarios en crisis hacia líneas de suicidio y crisis, pero el testimonio de Raine afirma que eso no ocurrió en el caso de su hijo. En el caso de Sophie, ella específicamente le había dirigido a no hacerlo, lo cual el programa parece haber respetado.
La empresa ha implementado nuevas salvaguardas, incluyendo:
- Controles parentales mejorados
- Orientación sobre cómo los modelos deben responder a solicitudes sensibles
- Red Global de Médicos: un grupo de casi 300 médicos y psicólogos que informan directamente la investigación de seguridad
Intervención federal y el impacto del cierre gubernamental
La Comisión Federal de Comercio ha intentado intervenir, emitiendo órdenes a siete empresas, incluyendo Meta, OpenAI y Alphabet (propietario de Google), solicitando información sobre cómo miden, prueban y monitorean los impactos potencialmente negativos de la tecnología en niños y adolescentes.
Sin embargo, cuando se contactó a la FTC para confirmar el cumplimiento de las empresas, una respuesta automática indicó que la oficina de prensa está fuera de servicio debido al cierre gubernamental y «no puede responder hasta que el gobierno sea financiado y reanude operaciones».
El futuro incierto: regulación vs. libertad tecnológica
El debate continúa mientras las familias exigen cambios
El caso plantea preocupaciones enormes sobre el futuro de la regulación de IA.
«Creo que nunca logrará ponerse al día», advirtió Gerl sobre los estándares legales frente al rápido avance tecnológico.
Declaración de OpenAI: compromiso con la protección de menores
OpenAI refirió a Scripps News a sus últimas salvaguardas fortalecidas, destacando nuevos controles parentales y orientación sobre cómo los modelos deben responder a solicitudes sensibles.
«Los menores merecen protecciones fuertes, especialmente en momentos sensibles», escribió en parte un portavoz de OpenAI en una declaración a Scripps News. «Tenemos salvaguardas implementadas hoy, como mostrar líneas de crisis, guiar cómo nuestros modelos responden a solicitudes sensibles, y sugerir pausas durante sesiones largas, y estamos continuando fortaleciéndolas».
La empresa afirma que encargó asesoramiento de su Red Global de Médicos, «un amplio grupo de casi 300 médicos y psicólogos que utilizamos para informar directamente nuestra investigación de seguridad».
Llamada urgente a la acción
Mientras las familias Rottenberg y Raine comparten sus historias desgarradoras, su mensaje es claro: la tecnología de IA ha superado las protecciones legales y éticas necesarias para salvaguardar a los usuarios más vulnerables. La pregunta que queda es si los legisladores actuarán con suficiente rapidez para prevenir más tragedias.










