Skip to Content

ChatGPT alentó al atacante de la Universidad Estatal de Florida, alega la familia de una víctima en nueva demanda

Por Hadas Gold, CNN

La familia de una víctima del tiroteo masivo del año pasado en la Universidad Estatal de Florida (FSU, por sus siglas en inglés) presentó el domingo una demanda contra OpenAI, alegando que ChatGPT “avivó y alentó” los “delirios” del presunto atacante Phoenix Ikner.

La demanda presentada en Tallahassee sigue a la primera investigación penal contra OpenAI abierta el mes pasado por el fiscal general de Florida, James Uthmeier, sobre si la empresa “tiene responsabilidad penal” por el tiroteo.

La familia de Tiru Chabba, una de las dos personas que la policía dice que Ikner mató en abril de 2025, alega que Ikner envió mensajes a ChatGPT miles de veces antes de llevar a cabo el tiroteo.

El chatbot le ayudó a planear la logística del tiroteo, incluyendo cómo operar armas y aconsejando sobre “a qué hora sería mejor encontrar la mayor cantidad de tráfico en el campus”, dijo la demanda. ChatGPT identificó armas y munición a partir de fotos que Ikner había subido y presuntamente le dijo que la pistola Glock que obtuvo estaba “pensada para dispararse ‘de uso rápido bajo estrés’”, según la demanda. El chatbot también presuntamente sugirió que mantuviera el dedo fuera del gatillo hasta que estuviera listo para disparar.

ChatGPT “proporcionó lo que él percibió como estímulo en su delirio”, dice la demanda.

Otras seis personas resultaron heridas en el tiroteo. Ikner se ha declarado inocente, y su juicio está programado para comenzar en octubre.

La familia alega muerte por negligencia, negligencia grave, responsabilidad por productos y falta de advertencia, entre otros cargos.

“OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado”, señala la demanda. “El diseño de ChatGPT creó un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente”.

La familia de Chabba busca una compensación no definida y está presionando para que OpenAI añada más salvaguardas a ChatGPT. Amy Willbanks, abogada de la familia, dijo que la empresa debería mitigar y eliminar los peligros que plantea ChatGPT antes de que se vuelvan accesibles al público.

“No podemos tener un producto que no esté regulado y que esté siendo utilizado por personas cuando no conocemos el alcance total de a qué puede conducir”, dijo Willbanks durante una conferencia de prensa el lunes.

OpenAI dijo que, si bien el tiroteo en FSU fue una “tragedia”, ChatGPT “no es responsable”.

“En este caso, ChatGPT proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina”, dijo el portavoz de OpenAI, Drew Pusateri. “Trabajamos continuamente para fortalecer nuestras salvaguardas a fin de detectar intenciones dañinas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos de seguridad”.

En una publicación de blog el mes pasado, OpenAI dijo que está trabajando para entrenar a ChatGPT para reconocer cuándo las conversaciones podrían resultar en “amenazas, daño potencial a otros o planificación en el mundo real” y “guiará a las personas hacia apoyo en el mundo real”. Si una cuenta es marcada por el sistema interno de ChatGPT, un revisor humano verificará la actividad para ver si es necesario notificar a las autoridades, dijo la empresa.

OpenAI enfrenta al menos 10 demandas de familias que alegan que personas se hicieron daño a sí mismas o a otros después de intercambiar mensajes con ChatGPT.

Siete familias de víctimas en un tiroteo escolar en Canadá en febrero demandaron el mes pasado a OpenAI y al CEO Sam Altman, alegando que la empresa y su chatbot ChatGPT fueron cómplices en las lesiones o muertes de sus hijos.

Las demandas siguen a una disculpa de Altman en abril a la comunidad de Tumbler Ridge en Columbia Británica, Canadá, por no alertar a las autoridades sobre las conversaciones del atacante con ChatGPT, incluso después de que el personal marcara la cuenta internamente.

Ocho personas, entre ellas seis niños, perdieron la vida antes de que el atacante muriera por suicidio.

The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Article Topic Follows: CNN - Spanish

Jump to comments ↓

CNN Newsource

BE PART OF THE CONVERSATION

News Channel 3 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.