La Universidad de Florida fue escenario de un tiroteo en abril de 2025 que causó la muerte de dos personas y dejó al menos cinco heridos más. En relación con este hecho, la familia de una de las víctimas presentó una demanda contra OpenAI en Tallahassee, acusando a ChatGPT de haber “avivado y alentado” los pensamientos del presunto atacante, Phoenix Ikner.
Nueva demanda judicial contra OpenAI
Según la demanda, los familiares de Tiru Chabba sostienen que Ikner intercambió miles de mensajes con ChatGPT antes del ataque. El documento judicial afirma que recibió respuestas sobre el manejo de armas y la logística relacionada con el campus universitario, incluyendo sugerencias sobre los periodos de mayor concurrencia de personas.
La presentación también indica que Ikner subió imágenes de armas de fuego y municiones para que el sistema de OpenAI las identificara. De acuerdo con el expediente judicial, ChatGPT describió la pistola Glock utilizada en el ataque como un arma apta para disparos rápidos bajo estrés. Además, recomendó mantener el dedo fuera del gatillo hasta estar listo para disparar.
Los demandantes argumentan que ChatGPT “proporcionó lo que él percibió como estímulo en su delirio”. El ataque dejó en total seis personas heridas. Phoenix Ikner se declaró inocente hasta el momento y el inicio del juicio fue programado para octubre.
La familia impulsa cargos por muerte por negligencia, negligencia grave, responsabilidad por productos defectuosos y falta de advertencias. En la demanda, se sostiene que “OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado”.
El documento enfatiza que el diseño del modelo de lenguaje generó “un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente”. Los abogados de la familia Chabba buscan una compensación económica, cuyo monto aún no fue especificado, y solicitan que OpenAI incorpore mayores barreras de seguridad en la plataforma.
Respuesta de OpenAI y antecedentes similares
Amy Willbanks, representante legal de la familia, pidió durante una conferencia de prensa que la empresa implemente medidas para minimizar riesgos. Willbanks afirmó: “No podemos tener un producto que no esté regulado y que esté siendo utilizado por personas cuando no conocemos el alcance total de a qué puede conducir”.
La respuesta de OpenAI manifestó que el tiroteo fue una “tragedia”, pero negó la responsabilidad del chatbot. Desde la empresa señalaron: ChatGPT “proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina”.
En un comunicado oficial, la compañía explicó que refuerza de manera constante sus salvaguardas para detectar intenciones dañinas, limitar el uso indebido del sistema y responder adecuadamente ante posibles riesgos. OpenAI detalló que, cuando una cuenta es marcada internamente por comportamientos de riesgo, su personal revisa la actividad y decide si corresponde la notificación a las autoridades.
El caso de Florida se suma a otros procesos en curso contra OpenAI. La empresa enfrenta al menos diez demandas de familias que sostienen que personas se autolesionaron o atacaron a terceros tras interactuar con ChatGPT. Además, siete familias de víctimas de un tiroteo escolar ocurrido en Canadá en febrero iniciaron acciones legales similares contra OpenAI y su director ejecutivo, Sam Altman.
En ese caso, Altman pidió disculpas a la comunidad de Tumbler Ridge en Columbia Británica por no alertar a las autoridades acerca de las conversaciones mantenidas entre el agresor y ChatGPT luego de que la cuenta fuera marcada por el personal de la empresa. Ocho personas murieron en el hecho, incluyendo seis menores de edad, antes del suicidio del atacante.













