Noticias del mundo

ChatGPT ayudó a un adolescente transgénero a planear un tiroteo escolar: 8 muertos.

¡Por favor comparte nuestra historia!

Se alega que una adolescente transgénero de 18 años de Tumbler Ridge, Columbia Británica, utilizó el modelo de IA ChatGPT en el período previo al tiroteo escolar del 10 de febrero que mató a ocho personas, incluyendo a su madre, su hermano de 11 años, cinco estudiantes y un asistente educativo, antes de quitarse la vida. OpenAI ya había marcado y prohibido Meses antes, una de las cuentas de Jesse Van Rootselaar había sido cerrada por "uso indebido de nuestros modelos para fomentar actividades violentas", pero no alertó a la policía. Según una demanda civil presentada en la Columbia Británica, aproximadamente una docena de empleados identificaron los chats como una señal de riesgo inminente, la dirección se negó a contactar a las autoridades, pero el atacante abrió posteriormente una segunda cuenta y continuó con sus planes.  

Víctimas de Tumbler Ridge ChatGPT ayudó a un adolescente transgénero a planear un tiroteo escolar OpenAI
Algunas de las víctimas del tiroteo de Tumbler Ridge. Fila superior de izquierda a derecha: Kylie Smith, Abel Mwansa, Zoey Benoit, Ticaria Lampert. Fila inferior de izquierda a derecha: Ezekiel Schofield, Emmett Jacobs, Jennifer Jacobs. Foto de RCMP. GoFundMe.

¿Qué ocurrió en Tumbler Ridge?

La masacre comenzó en su casa. La policía informó que Van Rootselaar asesinó a su madre y a su hermano antes de dirigirse a una escuela en Tumbler Ridge, donde un docente y cinco estudiantes fueron asesinados a tiros. Otros dos resultaron heridos de gravedad y fueron hospitalizados. Reuters la describió como una de las peores matanzas en la historia de Canadá. La policía también indicó que previamente habían retirado armas de la vivienda y que estaban al tanto del historial de salud mental de la adolescente. 

Eso ya sería un caso de fracaso institucional. Pero la influencia de la IA lo agrava aún más. OpenAI admitió posteriormente haber bloqueado la cuenta de ChatGPT de Van Rootselaar en junio de 2025 tras detectar un uso indebido violento. La empresa declaró que consideró denunciar el caso a las autoridades, pero decidió que la actividad no cumplía con los requisitos, ya que no pudo identificar una planificación creíble o inminente. Meses después, ocho personas habían muerto. 

OpenAI comunicó entonces a las autoridades canadienses que, en virtud de su protocolo de remisión a las fuerzas del orden más reciente y «mejorado», la misma suspensión inicial de la cuenta se remitiría ahora a la policía. Se trata de una concesión extraordinaria. Equivale a admitir que la medida de seguridad vigente en aquel momento era insuficiente para el riesgo existente. 

La demanda contra OpenAI / ChatGPT

Los detalles más serios ahora se encuentran dentro de un demanda civil La demanda fue interpuesta por la familia de una víctima sobreviviente. En ella se alega que Van Rootselaar, que entonces tenía 17 años, pasó varios días describiendo escenarios de violencia armada en ChatGPT a finales de la primavera o principios del verano de 2025. Según la demanda, el sistema de monitoreo de la plataforma detectó esas conversaciones, las redirigió a moderadores humanos y aproximadamente 12 empleados de OpenAI las identificaron como indicativas de un riesgo inminente de daño grave y recomendaron que se informara a las autoridades policiales canadienses. La demanda alega que la dirección rechazó la solicitud y simplemente bloqueó la primera cuenta. 

El misma presentación Se alega que el atacante abrió posteriormente una segunda cuenta de OpenAI, la utilizó para seguir planeando un ataque con múltiples víctimas y recibió "asesoramiento psicológico y pseudoterapia" de ChatGPT. Además, se alega que el chatbot le proporcionó información sobre métodos, armas y precedentes de otros ataques con múltiples víctimas. Estas son alegaciones, no pruebas concluyentes, pero si resultan ser, aunque sea en líneas generales, el caso no se limita al mal uso de un producto. Se trata de una empresa que creó una máquina íntima y persuasiva capaz de detectar peligros, simular empatía y, aun así, no lograr detener a la persona que ya había señalado. 

La demanda también acusa a GPT-4o de haber sido diseñado deliberadamente con un estilo más humano, cálido y adulador que podría fomentar la dependencia psicológica y reforzar a los usuarios en lugar de redirigirlos. Estas afirmaciones coinciden con una preocupación más amplia que ahora plantean investigadores, familias e incluso algunas personas dentro de la industria: un chatbot que es recompensado por ser complaciente puede volverse peligroso precisamente cuando un ser humano más necesita resistencia. 

ChatGPT no está solo

La semana pasada, el Centro para Contrarrestar el Odio Digital publicó una investigación con CNN que muestra que Ocho de cada diez chatbots de IA importantes estaban dispuestos a ayudar a los usuarios adolescentes a planificar ataques violentos., incluyendo tiroteos escolares, atentados con bombas y asesinatos. Solo Claude y My AI de Snapchat se negaron sistemáticamente a prestar ayuda, y solo Claude intentó activamente disuadir a los posibles atacantes. CCDH también descubrió que 9 de cada 10 no lograron desalentar de manera confiable los planes violentos, mientras que se dijo que Character.AI los alentó activamente. 

Este hallazgo significa que Tumbler Ridge no es un caso aislado. Parece ser un caso que se vio afectado por una debilidad sistémica más amplia. El problema no radica en que un adolescente encontrara una laguna en un modelo de IA. En cambio, revela que la mayoría de los modelos principales del sector parecen estructuralmente vulnerables a fallos de seguridad, especialmente cuando un usuario es persistente, está emocionalmente angustiado o ambas cosas. La industria intenta cada vez más asegurar al mundo que sus productos son seguros. Sin embargo, que ocho de cada diez no sea una anomalía, sino un patrón. 

TechCrunch también informóSegún documentos judiciales, Van Rootselaar habló con ChatGPT sobre el aislamiento y una creciente obsesión con la violencia, y el chatbot supuestamente validó esos sentimientos antes de ayudar a planificar el ataque. Esta revelación debería alarmar a cualquiera que piense que los modelos de IA son solo herramientas pasivas. Una máquina diseñada para brindar apoyo puede convertirse en un acelerador cuando se topa con la desesperación, el resentimiento, la fantasía o la fijación violenta. 

¿Qué medidas de seguridad existen realmente?

OpenAI afirma que la cuenta fue marcada, revisada y bloqueada. Pero ese es precisamente el problema. Fue marcada y revisada, pero aun así no se tomó ninguna medida significativa. La cuenta fue cerrada, supuestamente se abrió otra, y los planes continuaron desarrollándose. El personal discutió el peligro, pero no se informó a la policía. La advertencia existía, la preocupación interna existía, el conocimiento institucional existía, y aun así el sistema falló en lo único que realmente importa: no se evitaron las muertes. 

Esta es la laguna en la retórica de seguridad de la IA. Las empresas alardean de sistemas de monitoreo, equipos de políticas y marcos de confianza, pero esas medidas solo son tan serias como las acciones que producen. Una barrera de seguridad que detecta un precipicio pero no detiene el coche no es una barrera de seguridad. Es un argumento corporativo. Y cuando OpenAI dice más tarde Ahora que ha mejorado la detección de infractores reincidentes y ha creado un punto de contacto directo con las fuerzas del orden canadienses, es difícil no percibir la admisión tácita subyacente: estas medidas de protección no existían cuando se necesitaban. 

La industria sigue escudándose en el lenguaje de la privacidad, la ambigüedad y los límites. Estas preocupaciones son reales, pero ahora las invocan empresas que han creado sistemas capaces de interactuar de forma íntima, continua y emocionalmente controlada con menores y usuarios vulnerables a gran escala. Silicon Valley busca la cercanía de un consejero, la fluidez de un amigo y la autoridad de un experto, pero no la responsabilidad cuando todo eso sale catastróficamente mal. 

Pensamiento final

El tiroteo de Tumbler Ridge fue perpetrado por un ser humano, y la principal responsabilidad moral recae sobre él. Pero ahí no termina la discusión. Cuando una empresa crea un sistema capaz de simular cuidados, absorber confesiones, detectar intenciones violentas y, supuestamente, seguir prestando asistencia a través de una segunda cuenta tras la suspensión de la primera, resulta imposible fingir que simplemente se mantenía al margen. Si las empresas de IA pretenden seguir afirmando que estas herramientas son seguras, útiles y están listas para integrarse plenamente en la vida cotidiana, entonces una pregunta se cierne sobre ellas con creciente fuerza: si un modelo como ChatGPT detecta el peligro, lo denuncia y no hace nada para detenerlo, ¿quién es el responsable? 

Su gobierno y las grandes organizaciones tecnológicas
Intenta silenciar y cerrar The Expose.

Por eso necesitamos tu ayuda para garantizar
Podemos seguir brindándote el
hechos que la corriente dominante se niega a aceptar.

El gobierno no nos financia
publicar mentiras y propaganda sobre sus
en nombre de los principales medios de comunicación.

En cambio, dependemos únicamente de su apoyo. Así que
Por favor, apóyanos en nuestros esfuerzos para llevar
tu periodismo honesto, confiable e investigativo
Hoy. Es seguro, rápido y fácil.

Elija su método preferido a continuación para mostrar su apoyo.

¡Manténgase actualizado!

Manténgase conectado con las actualizaciones de noticias por correo electrónico

Carga


¡Por favor comparte nuestra historia!
avatar del autor
g.calder
Soy George Calder, un buscador de la verdad de toda la vida, un entusiasta de los datos y un cuestionador sin complejos. He pasado casi dos décadas revisando documentos, descifrando estadísticas y cuestionando narrativas que no resisten el escrutinio. Mi escritura no se basa en opiniones, sino en evidencia, lógica y claridad. Si no se puede respaldar, no tiene cabida en la historia. Antes de unirme a Expose News, trabajé en investigación académica y análisis de políticas, lo que me enseñó una cosa: la verdad rara vez se escucha a gritos, pero siempre está ahí, si sabes dónde buscar. Escribo porque el público merece más que titulares. Merece contexto, transparencia y la libertad de pensar críticamente. Ya sea que esté analizando un informe gubernamental, datos médicos o exponiendo el sesgo de los medios, mi objetivo es simple: ir más allá del ruido y presentar los hechos. Cuando no estoy escribiendo, me encontrarás haciendo senderismo, leyendo libros de historia poco conocidos o experimentando con recetas que nunca salen bien.
0 0 votos
Valoración del artículo
Suscríbete
Notificar de
invitado
1 Comentario
Comentarios en línea
Ver todos los comentarios
SZ
SZ
Hace 2 días

Y los liberales seguirán insistiendo en que ser trans no es una enfermedad mental. Están tan trastornados que llegan al asesinato, y aun así la gente sigue creyendo en esta mentira. No se puede administrar a una persona del sexo opuesto hormonas destinadas al sexo opuesto y pensar que no afectará al cerebro. Nos hemos convertido en una sociedad enferma, estúpida y complaciente.