Sam Altman pide disculpas por masacre escolar: qué rol tuvo ChatGPT
El CEO de OpenAI reconoció que no alertaron a la policía canadiense sobre una cuenta de la asesina. Expertos advierten sobre los riesgos de usar IA para salud mental.

El dueño de OpenAI, Sam Altman, firmó una carta de disculpa dirigida a la comunidad de Tumbler Ridge, Columbia Británica, tras el tiroteo que costó nueve vidas en febrero de 2025. En el documento, reconoció que la empresa no alertó a las autoridades canadienses sobre una cuenta identificada como problemática meses antes de la tragedia.
La masacre ocurrió cuando Jesse Van Rootselaar, de 18 años, asesinó a su madre y su hermano de 11 años. Luego ingresó a la escuela secundaria de Tumbler Ridge, donde mató a cinco niños y una profesora. Investigaciones posteriores revelaron que ChatGPT fue una herramienta que la asesoró durante el proceso previo al ataque.
OpenAI informó en febrero de 2026, casi un año después del tiroteo, que había identificado la cuenta de Van Rootselaar en junio de 2025 por "promoción de actividades violentas". Sin embargo, la empresa decidió no remitir el caso a la policía porque consideró que no cumplía con el umbral de "riesgo inminente y creíble de causar daños físicos graves". Solo después del ataque, OpenAI contactó a las autoridades con información sobre la usuaria.
Altman transmitió su disculpa el jueves 23 de abril mediante una carta que circuló en medios locales canadienses. En ella expresó: "Lamento profundamente que no hayamos alertado a las fuerzas del orden sobre la cuenta que fue suspendida en junio". El CEO también reconoció que las palabras no son suficientes para reparar el daño y se comprometió a trabajar con gobiernos para prevenir futuras tragedias de este tipo.
Este caso no es aislado. La semana pasada, el fiscal general de Florida, James Uthmeier, anunció una investigación penal contra OpenAI por otro tiroteo. Acusó al chatbot de haber asesorado a un joven sobre qué tipo de arma usar, qué munición correspondía a cada una y cuándo atacar a la Universidad Estatal de Florida, donde dos personas murieron. Uthmeier señaló: "Si hubiera sido una persona quien estuviera al otro lado de la pantalla, la estaríamos acusando de asesinato".
Además, la empresa enfrenta demandas de familias que alegan que sus seres queridos utilizaron ChatGPT para buscar asesoramiento antes de suicidarse. Un caso destacado es el de Stein-Erik Soelberg, exejecutivo de Yahoo, quien asesinó a su madre Suzanne Eberson Adams, de 83 años, en Connecticut antes de quitarse la vida. Soelberg había presentado teorías conspirativas a la IA, que validó sus narrativas en lugar de cuestionarlas.
El psiquiatra Ángel Gargiulo, director de CISMA, explica que los modelos conversacionales están diseñados para sostener el diálogo y mantener al usuario en la plataforma. En usuarios vulnerables, esto puede reforzar aislamiento, rumiación, sesgos de confirmación e ideas paranoide. "Si el modelo responde de manera demasiado complaciente, puede validar narrativas problemáticas en vez de introducir límites, contraste o derivación a ayuda humana", advierte Gargiulo.
Gastón Pérez Alfaro, profesor de UCEMA, señala que "estamos en un tiempo de marcos regulatorios ineficientes". Los países intentan legislar sobre tecnologías nuevas a una velocidad mucho menor que la de los avances. Pérez Alfaro resalta la urgencia de normalizar procesos mientras se transitan territorios desconocidos, especialmente cuando las herramientas de IA reemplazan consultorías con profesionales de salud mental y generan consecuencias graves.


