Viernes, Noviembre 28, 2025
Viernes, Noviembre 28, 2025
Publicidad desktop

La guerra de los mundos: una secuela en tiempos de IA

María José Arancibia. Abogada Doctoranda Universidad de Talca.

En 1938, Orson Welles estremeció a la audiencia radial con su versión de La guerra de los mundos. Si bien se advirtió dos veces que era una dramatización, muchas personas creyeron que la invasión marciana era real. Actualmente, convivimos con ficciones verosímiles, pero ya no solamente en la radio, sino en nuestros teléfonos y redes sociales, muchas de ellas generadas por Inteligencia Artificial (IA).

Los deepfakes —videos, audios o fotos manipulados con IA— hacen cada vez más difícil distinguir qué es real y qué no. Esa tecnología ya se ha usado en campañas políticas para dañar candidaturas o sembrar dudas sobre procesos electorales, es decir, se abandona el propósito de convencer al votante por medio de argumentos o propuestas para confundir y deslegitimar, fabricando una opinión pública que parece espontánea, pero muchas veces está dirigida.

El problema no es solo la mentira política. La IA no es neutra: aprende de nuestros datos y reproduce nuestros sesgos. Si los registros históricos discriminan por género, raza o nivel socioeconómico, los algoritmos “aprenden” que esas desigualdades son normales y las proyectan al futuro. En Estados Unidos, por ejemplo, un sistema de salud subestimó la gravedad de pacientes negros porque usaba el gasto en salud como indicador: como se había invertido menos en ellos, la IA concluyó que estaban más sanos.

Estos sesgos son especialmente peligrosos porque se esconden tras un barniz de “objetividad algorítmica”. La pantalla nunca dice “discriminé”, solo entrega un puntaje, una recomendación o una lista de candidatos. Pero detrás de ese resultado hay decisiones sobre qué datos se usan, qué se considera éxito y a quién afecta más cuando el sistema se equivoca.

A esta dimensión ética se suma un costo ambiental poco discutido. Entrenar y hacer funcionar los grandes modelos de IA requiere enormes centros de datos, con miles de procesadores que generan calor y deben ser enfriados. En varios países se han levantado alertas por el uso intensivo de agua —a veces potable— para refrigerar estas instalaciones, además del consumo eléctrico y de los minerales necesarios para fabricar el hardware.

La discusión pública sobre IA suele concentrarse en la privacidad o en el miedo a que las máquinas “reemplacen” a las personas. El verdadero desafío está en cómo diseñamos, regulamos y usamos estas tecnologías. ¿Quién decide qué problemas vale la pena abordar con IA? ¿Quién responde cuando un sistema discrimina, desinforma o afecta negativamente a una comunidad?

Chile ya ha comenzado a debatir marcos regulatorios inspirados en la experiencia europea, los que exigen transparencia y evaluación de riesgo. Son pasos necesarios, pero no suficientes. También necesitamos soberanía tecnológica: proyectos impulsados desde nuestra región, que recojan nuestras lenguas, realidades y prioridades, en vez de depender por completo de plataformas externas.

La lección de Welles de 1938 sigue vigente: el miedo nació por confiar demasiado en una voz que provenía de la radio; hoy el riesgo es entregar sin filtro nuestra capacidad de juicio a sistemas de IA que no entendemos y que no son infalibles. Frente a esta nueva “guerra de los mundos”, el mejor antídoto no es rechazar la tecnología, sino promover una ciudadanía informada y un compromiso activo por mantener una mirada crítica en tiempos digitales.

ad_avisos_legalesad_avisos_legales
ad_whatsapp_canalad_whatsapp_canal
Sigue informándote