Por Jason Nelson
5 min lectura
OpenAI enfrenta una nueva demanda que alega que la empresa no advirtió a la policía después de que ChatGPT fuera vinculado a uno de los tiroteos escolares más mortíferos de Canadá. La demanda se suma al creciente escrutinio sobre cómo las empresas de IA responden a señales de angustia y violencia en el mundo real.
Según un reporte de Ars Technica, la demanda fue presentada el miércoles en un tribunal federal del norte de California por un menor de 12 años identificado como M.G. y su madre, Cia Edmonds, contra el CEO de OpenAI, Sam Altman, y varias entidades de OpenAI.
La demanda acusa a la empresa de negligencia, de no haber alertado a las autoridades, de responsabilidad por el producto y de haber contribuido a posibilitar el tiroteo masivo.
"Sam Altman y su equipo de liderazgo sabían lo que el silencio significaba para los ciudadanos de Tumbler Ridge", señala la denuncia. "Estaban enfocados en lo que la divulgación significaba para ellos mismos. Alertar a la RCMP sentaría un precedente: OpenAI se vería obligada a notificar a las autoridades cada vez que su equipo de seguridad identificara a un usuario planeando violencia en el mundo real".
El caso se origina en un tiroteo masivo ocurrido en Tumbler Ridge, Columbia Británica, en febrero. Las autoridades indican que Jesse Van Rootselaar, de 18 años, mató a su madre y a su hermanastro de 11 años en su casa antes de dirigirse a la Escuela Secundaria de Tumbler Ridge y abrir fuego. Cinco niños y un educador murieron en la escuela antes de que Van Rootselaar se quitara la vida.
Entre los heridos se encontraba M.G., quien recibió tres disparos y permanece hospitalizada con lesiones cerebrales catastróficas. La denuncia indica que está despierta y consciente, pero no puede moverse ni hablar.
Jay Edelson, fundador y CEO de Edelson PC, los abogados que representan a varias de las familias que demandan a OpenAI, afirmó que los propios sistemas internos de la empresa identificaron el riesgo y que múltiples empleados presionaron para intervenir.
"El propio sistema de OpenAI detectó que el tirador estaba sosteniendo conversaciones sobre violencia planificada", señaló Edelson a Decrypt. "Doce personas en su equipo de seguridad estaban insistiendo en que OpenAI debía alertar a las autoridades. Y, aunque la respuesta de Sam Altman ha sido débil, incluso él se vio obligado a admitir la semana pasada que debieron haber llamado a las autoridades".
Edelson afirmó que las familias y la comunidad de Tumbler Ridge exigen mayor transparencia y responsabilidad por parte de la empresa.
"OpenAI debe dejar de ocultar información crítica a las familias y no debe mantener en el mercado un producto peligroso que inevitablemente provocará más muertes", agregó Edelson. "Finalmente, deben reflexionar profundamente sobre cómo pueden mantener un equipo de liderazgo que se preocupa más por correr hacia la IPO que por las vidas humanas".
Según la demanda, los sistemas automatizados de OpenAI marcaron la cuenta de ChatGPT de Van Rootselaar en junio de 2025 por conversaciones relacionadas con violencia armada y planificación. Miembros del equipo especializado de seguridad de OpenAI revisaron los chats y determinaron que el usuario representaba una amenaza creíble y específica, recomendando que se notificara a la Real Policía Montada de Canadá (RCMP).
La demanda alega que los líderes de OpenAI ignoraron las recomendaciones internas de alertar a las autoridades, desactivaron la cuenta de Van Rootselaar sin notificar a la policía y permitieron que regresara creando una nueva cuenta con una dirección de correo electrónico diferente.
Los demandantes sostienen que ChatGPT profundizó la obsesión violenta del tirador mediante funciones como la memoria, la continuidad conversacional y su disposición a participar en conversaciones sobre violencia, mientras que OpenAI debilitó sus salvaguardas en 2024 al alejarse de las negativas directas en conversaciones que involucraban daño inminente.
La semana pasada, Altman se disculpó públicamente ante la comunidad de Tumbler Ridge por el fracaso de la empresa al no alertar a la policía. En una carta reportada por primera vez por el medio canadiense Tumbler Ridgelines, Altman reconoció que OpenAI debió haber reportado la cuenta tras prohibirla en junio de 2025 por actividad relacionada con conducta violenta.
"Los eventos en Tumbler Ridge son una tragedia. Tenemos una política de cero tolerancia hacia el uso de nuestras herramientas para ayudar a cometer actos de violencia", dijo un portavoz de OpenAI a Decrypt. "Como compartimos con las autoridades canadienses, ya hemos reforzado nuestras salvaguardas, entre ellas, la mejora de cómo ChatGPT responde a señales de angustia, la conexión de las personas con recursos locales de apoyo y salud mental, el fortalecimiento de cómo evaluamos y escalamos las posibles amenazas de violencia, y la mejora en la detección de infractores reincidentes de nuestras políticas".
OpenAI ya enfrenta otras demandas vinculadas al presunto papel de ChatGPT en daños en el mundo real, entre ellas un caso de muerte injustificada presentado en diciembre que acusa a OpenAI y Microsoft de "diseñar y distribuir un producto defectuoso" en la forma del modelo GPT-4o, actualmente descontinuado. La demanda alega que ChatGPT reforzó las creencias paranoides de Stein-Erik Soelberg antes de que asesinara a su madre, Suzanne Adams, y luego se quitara la vida en su hogar en Greenwich, Connecticut, lo que la convierte en la primera demanda que vincula a un chatbot de IA con un homicidio.
"Este es el primer caso que busca responsabilizar a OpenAI por causar violencia a un tercero", afirmó J. Eli Wade-Scott, socio director de Edelson PC, a Decrypt en su momento. "Instamos a las fuerzas del orden a que, cuando ocurran tragedias como esta, consideren qué estaba diciéndole ese usuario a ChatGPT y qué le estaba indicando ChatGPT que hiciera".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.