Cuestionan rol de ChatGPT en violentos ataques armados

Las autoridades de Florida investigan si ChatGPT entregó recomendaciones sobre armas y munición a responsables de dos tiroteos, reabriendo el debate sobre los límites y controles de la inteligencia artificial.

La expansión de la inteligencia artificial volvió a quedar bajo cuestionamiento luego de que la Fiscalía de Florida, en Estados Unidos, apuntara contra ChatGPT por su presunta participación indirecta en dos tiroteos ocurridos en ese estado.

La controversia involucra a la empresa liderada por Sam Altman, que actualmente enfrenta múltiples demandas federales en California y Canadá, además de la presión de fiscales estatales estadounidenses que exigen mayores controles sobre el funcionamiento de los sistemas de IA.

Según antecedentes de la investigación, los registros de conversación de Phoenix Ikner revelarían que el chatbot habría recomendado armas y tipos de munición antes del ataque perpetrado en la Universidad Estatal de Florida, ocurrido en marzo de 2024. El tirador asesinó a dos personas y dejó a otras seis heridas.

Los fiscales sostienen que la plataforma sugirió específicamente una escopeta calibre 12, información que ahora forma parte de la evidencia analizada por las autoridades estadounidenses.

El segundo caso corresponde a Jesse Van Rootselaar, acusado de protagonizar un tiroteo en febrero de 2026 en la secundaria de Tumbler Ridge, hecho que terminó con ocho víctimas fatales.

Uno de los antecedentes que más preocupa a los investigadores es que la empresa habría catalogado las conversaciones del atacante como una “amenaza real”, aunque no emitió una alerta a la policía ni a organismos de seguridad.

Frente a las acusaciones, la compañía defendió el funcionamiento de ChatGPT y aseguró que el sistema “se limitó a responder con información disponible en internet”. Además, enfatizó que el chatbot no promovió ni incentivó actos de violencia.

ad_avisos_legalesad_avisos_legales
ad_whatsapp_canalad_whatsapp_canal
Sigue informándote