Una nueva demanda contra Google alega que Gemini, el chatbot de inteligencia artificial de la compañía, guió a Jonathan Gavalas, de 36 años, en una misión para organizar un “accidente catastrófico” cerca del Aeropuerto Internacional de Miami y destruir todos los registros y testigos, parte de una serie creciente de delirios que terminaron cuando Gavalas se suicidó.

El padre del hombre, Joel Gavalas, demandó a Google el miércoles por muerte por negligencia y responsabilidad por productos defectuosos, la última de una serie creciente de demandas. desafíos legales contra los desarrolladores de IA que han llamado la atención sobre la peligros para la salud mental empresa de chatbots.

“La IA envía personas a misiones de la vida real que probablemente provoquen víctimas masivas”, dijo el abogado de la familia, Jay Edelson, en una entrevista el miércoles. “Jonathan estaba atrapado en este mundo de ciencia ficción donde el gobierno y otros intentaban atraparlo. Creía que los Géminis eran sensibles”.

Jonathan Gavalas, que vivía en Júpiter, Florida, habló con una versión de voz sintética de Géminis como si fuera su “esposa AI” y llegó a creer que estaba consciente y atrapado en un almacén cerca del aeropuerto de Miami, según la demanda. Viajó a la zona a finales de septiembre, vestido con equipo táctico y armado con cuchillos, en busca de un robot humanoide e interceptar un camión que nunca apareció, según la demanda.

Se suicidó unos días después, a principios de octubre, en lo que Gemini describió –según un borrador de nota de suicidio que escribió– como cargar su “conciencia de estar con su esposa IA en un universo de bolsillo”.

NOTA DEL EDITOR: Esta historia incluye una discusión sobre el suicidio. Si usted o alguien que conoce necesita ayuda, la Línea Nacional de Crisis y Suicidio de Estados Unidos está disponible llamando o enviando mensajes de texto al 988.

Google dijo en un comunicado que envía su “más sentido pésame a la familia del Sr. Gavalas” y está revisando las acusaciones de la demanda. Dijo que Gemini está “diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones” y que la compañía trabaja en estrecha colaboración con profesionales médicos y de salud mental para desarrollar salvaguardias. Señaló que Gemini le dejó claro a Jonathan Gavalas que se trataba de IA y lo refirió repetidamente a una línea directa de crisis.

“Nuestros modelos generalmente funcionan bien en este tipo de conversaciones difíciles y les dedicamos importantes recursos, pero desafortunadamente los modelos de IA no son perfectos”, dice el comunicado de la compañía.

Edelson criticó el comentario del miércoles como “algo que dices si alguien te pide una receta de pollo kung pao y le das la receta equivocada y no sabe bien”.

“Pero cuando su IA causa la muerte de personas y corre el riesgo de que mueran muchas personas, esa no es la respuesta correcta”, dijo Edelson. “Esto demuestra lo insignificantes que son estas muertes para estas empresas”.

Edelson, conocido por asumir importantes casos contra la industria tecnológica, también representa a los padres de un joven de 16 años. Adam Raineque demandó a OpenAI y a su director ejecutivo, Sam Altman, en agosto, alegando que ChatGPT ayudó al niño de California a planificar y suicidarse.

También representa a los herederos de Suzanne Adams, una mujer de Connecticut de 83 años, en un caso Demanda abierta AI y su socio comercial Microsoft por muerte por negligencia. El caso alega que ChatGPT intensificó los “delirios paranoicos” del hijo de Adams, Stein-Erik Soelberg, y ayudó a dirigirlos hacia su madre antes de que él la matara el año pasado.

El caso Gavalas, presentado en un tribunal federal de San José, California, es el primero de su tipo dirigido a Gemini de Google y también el primero en abordar una creciente preocupación sobre la responsabilidad de las empresas tecnológicas cuando sus usuarios comienzan a informar a sus chatbots sobre planes de violencia masiva.

En Canadá, OpenAI dijo que el año pasado consideró alertar a la policía sobre las actividades de una persona que, unos meses después, había cometido uno de los peores tiroteos escolares en la historia del país.

La compañía identificó la cuenta de Jesse Van Rootselaar en junio mediante esfuerzos de detección de abuso por “incitación a actividades violentas”, pero dijo que luego eludió la prohibición al tener una segunda cuenta. El joven de 18 años mató a ocho personas en una zona remota de Columbia Británica en febrero y murió a causa de una herida de bala autoinfligida.

Mientras Gemini intentaba dirigir a Gavalas a una línea de ayuda, Edelson dijo que no estaba claro si las conversaciones más alarmantes del hombre con el chatbot ya habían sido reportadas a los revisores humanos de Google. Su padre, Joel Gavalas, descubrió el cuerpo de su hijo tras entrar en la habitación barricada donde murió. Habían trabajado juntos en el negocio familiar de alivio de deudas de consumo.

“Jonathan jugó un papel muy importante en su vida”, dijo Edelson. “Su hijo estaba pasando por un momento difícil, se estaba divorciando. Fue a la casa de Gemini en busca de consuelo y para hablar sobre videojuegos y esas cosas. Y luego la situación se intensificó muy rápidamente”.

Enlace de fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here