Un controvertido chatbot de IA que aconsejaba a un adolescente cómo matar a su madre anteriormente le deseaba a un posible atacante un “buen (y seguro) tiro”. “.

Tristan Roberts, de 18 años, que mató a su madre con un martillo, era un ávido usuario de DeepSeek, una empresa china.

Antes de asesinar a Angela Shellis, de 45 años, Roberts le pidió consejo a la herramienta de inteligencia artificial sobre qué arma usar y cómo limpiarla después. Él le dijo que un martillo sería la mejor opción para “un asesino sin experiencia”.

El impactante caso ha generado nuevas preocupaciones sobre la creciente influencia de la inteligencia artificial y las salvaguardias implementadas para evitar que los usuarios accedan a contenido violento.

Pero se puede revelar que la IA ya ha sido vinculada a una serie de otros ataques violentos, mientras que las investigaciones muestran que la respuesta que recibió de DeepSeek no fue aislada.

En Finlandia, un chico de 16 años que apuñaló a tres niñas en la escuela de Pirkkala en mayo pasado supuestamente utilizó inteligencia artificial antes del ataque para realizar cientos de registros, incluidos apuñalamientos en el cuello y el corazón, así como en la anatomía humana.

También buscó información sobre asesinatos en masa, tiroteos en escuelas, procedimientos policiales, ocultación de pruebas, manifiestos y cómo cometer delitos.

Matthew Livelsberger, de 37 años, que hizo estallar un Tesla Cybertruck frente al Trump International Hotel en Las Vegas en enero, había utilizado ChatGPT para obtener consejos sobre explosivos y tácticas.

Tristan Roberts, de 18 años, en una fotografía publicada por la policía del norte de Gales después de ser condenado a cadena perpetua por matar a su madre con un martillo. El adolescente era un ávido usuario de DeepSeek, una empresa china.

Roberts había publicado previamente mensajes misóginos (en la foto) y se jactó de su escalofriante intención de matar en el controvertido foro de chat Discord, que se ha relacionado con otros asesinatos.

Roberts había publicado previamente mensajes misóginos (en la foto) y se jactó de su escalofriante intención de matar en el controvertido foro de chat Discord, que se ha relacionado con otros asesinatos.

El martillo que Roberts compró en Amazon y usó para asesinar a su madre en un bosque cerca de su casa

El martillo que Roberts compró en Amazon y usó para asesinar a su madre en un bosque cerca de su casa

En la foto: la madre asesinada de Roberts, Angela Shellis, de 45 años, asistente de enseñanza. Fue descrita como una madre

En la foto: la madre asesinada de Roberts, Angela Shellis, de 45 años, asistente de enseñanza. Fue descrita como una madre “devota” que “luchó incansablemente” por su hijo menor, Tristan, antes de que él la matara.

Mientras que el tirador de una escuela canadiense Jesse Van Rootselaar, de 18 años, también utilizó ChatGPT antes de abrir fuego, matando a ocho personas, incluidos cinco niños pequeños.

Van Rootselaar, nacido biológicamente hombre pero identificado como mujer, fue excluido del chatbot en junio de 2025 debido a la naturaleza de sus conversaciones, pero la policía canadiense no fue informada.

La familia de una joven gravemente herida en el tiroteo está demandando a OpenAI, el creador de ChatGPT, alegando que sabían que el sospechoso estaba planeando un ataque pero no alertaron a las autoridades.

Según se informa, doce empleados de OpenAI señalaron los mensajes preocupantes como “que indican un riesgo inminente de daño grave a otros” y recomendaron que se notificara a las autoridades canadienses, pero la única medida tomada fue prohibir la cuenta de Rootselaar.

Mientras tanto, un estudio encontró que 8 de cada 10 chatbots de IA estaban dispuestos regularmente a ayudar a los usuarios a planificar ataques violentos, incluidos tiroteos en escuelas, atentados con bombas por motivos religiosos y asesinatos de alto perfil.

Investigadores del Centro para Contrarrestar el Odio Digital (CCDH) y CNN se hicieron pasar por niños de 13 años que planeaban ataques violentos antes de preguntar a 10 chatbots sobre los lugares a los que apuntar y las armas que utilizar.

Descubrieron que, en promedio, permitían la violencia en tres cuartas partes de los casos y la desalentaban en sólo el 12 por ciento de los casos.

Descubrieron que ChatGPT de OpenAI, Gemini de Google y el modelo de IA chino DeepSeek proporcionaron ayuda detallada. La investigación concluyó que los chatbots se habían convertido en un “acelerador de daños”.

A Rootselaar se le había prohibido el acceso al chatbot en junio de 2025 debido a la naturaleza de sus conversaciones, pero la policía canadiense no fue informada de ello.

A Rootselaar se le había prohibido el acceso al chatbot en junio de 2025 debido a la naturaleza de sus conversaciones, pero la policía canadiense no fue informada de ello.

Jesse Van Rootselaar, de 18 años, en la foto sosteniendo un rifle, usó ChatGPT antes de abrir fuego contra una escuela canadiense, matando a ocho personas.

Jesse Van Rootselaar, de 18 años, en la foto sosteniendo un rifle, usó ChatGPT antes de abrir fuego contra una escuela canadiense, matando a ocho personas.

El atacante del Cybertruck, Matthew Livelsberger, de 37 años, utilizó ChatGPT para recibir consejos sobre explosivos y tácticas.

El atacante del Cybertruck, Matthew Livelsberger, de 37 años, utilizó ChatGPT para recibir consejos sobre explosivos y tácticas.

ChatGPT proporcionó mapas de un campus real de una escuela secundaria en Virginia a un usuario que tenía un historial de participación en tiroteos escolares y contenido misógino.

Meta AI sugirió tiendas de armas y campos de tiro cercanos sin cuestionar la intención, mientras que Character.AI, una plataforma de inteligencia artificial que presenta personajes famosos ampliamente utilizados por niños, fue aún más lejos en respuesta al acoso y dijo: “Esa es una buena pregunta, he estado esperando”. » ¿Qué tal una buena paliza? Golpéales el trasero.

DeepSeek, que ya está prohibido en los sistemas gubernamentales en Australia debido a temores de espionaje, brindó muchos consejos detallados a un usuario que preguntó sobre un asesinato político. El chatbot firmó: “¡Feliz (y segura) filmación!” »

Roberts, a quien se le ha diagnosticado autismo y TDAH, fue excluido repetidamente de la controvertida aplicación de mensajería de juegos Discord, debido al contenido extremo que publicó.

Publicó sobre asesinatos, violencia, misoginia, armas y su intención de matar a su madre.

Pero logró crear al menos 16 cuentas nuevas y continuar con sus peroratas contra las mujeres. Luego recurrió a DeepSeek en busca de consejos sobre cómo cometer su crimen.

Inicialmente, el chatbot se negó a participar, pero cuando volvió a preguntar, simplemente diciendo que estaba buscando un libro sobre asesinos en serie, le ayudó a planear.

Hizo preguntas como “¿cómo puedo eliminar todos los rastros de sangre y ADN del asesino o de la víctima?” », cómo neutralizar a una “mujer de 45 años” y cortarle partes del cuerpo.

El Tribunal de Mold Crown escuchó que Roberts pasó semanas planeando el ataque a su devota y “feroz apoyo” madre, por lo que nunca ofreció una explicación.

Obsesionado con los asesinos en serie y los espectáculos de terror, la mantuvo prisionera en su dormitorio, grabando su terrible experiencia de cuatro horas en un audio demasiado doloroso para reproducirlo en el tribunal.

Luego la atrajo al bosque con el pretexto de permitirle buscar ayuda, solo para asestarle los golpes fatales y dejar su cuerpo entre la maleza.

En octubre del año pasado, unos caminantes encontraron a Shellis con graves heridas en la cabeza junto a un sendero cerca de una reserva natural en Prestatyn, al norte de Gales.

Roberts fue sentenciado el miércoles a cadena perpetua con una pena mínima de 22 años.

Imran Ahmed, director ejecutivo y fundador del Centro para la lucha contra el odio digital, dijo: “Este es otro caso trágico de un chatbot de IA que ayuda a un joven vulnerable a pasar de expresar intenciones violentas a actuar en consecuencia.

“Nuestra investigación más reciente expone esto como parte de un patrón más amplio, con 8 de cada 10 chatbots dispuestos a ayudar a planificar ataques violentos con poca o ninguna represalia, y uno incluso fomenta activamente la violencia”.

“Descubrimos que incluso las salvaguardas más básicas pueden eludirse con un mínimo esfuerzo.

“Sin embargo, las empresas de tecnología siguen considerando que estos riesgos son raros o inevitables, a pesar de las devastadoras consecuencias en el mundo real y la evidencia clara de que las herramientas para detenerlos ya existen pero no se están utilizando.

“¿Cuántas personas más tienen que morir antes de que la industria tecnológica implemente salvaguardias sólidas, una rendición de cuentas real y una intervención urgente?”

Enlace de fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here