Las redadas mortales del ICE y la oleada de videos ‘deepfake’ dificultan distinguir la violencia real de la ficción generada por IA. Revelamos cómo los videos falsos ocultan la evidencia de enfrentamientos fatales.Las medidas represivas contra la inmigración ordenadas por el presidente de Estados Unidos, Donald Trump, se han vuelto mortales. Un segundo ciudadano estadounidense fue mortalmente tiroteado por agentes de Inmigración y Control de Aduanas (ICE) en enero. Videos de teléfonos móviles de testigos oculares en Minneapolis muestran cómo, el 24 de enero, varios agentes de ICE tiraron al suelo a Alex Pretti, un enfermero de cuidados intensivos de 37 años, y luego le dispararon. Pretti no había sacado su arma, como declaró inicialmente el Departamento de Seguridad Nacional. Imágenes de diferentes teléfonos celulares muestran que su arma estaba en su cinturón, que un agente de ICE le quitó antes de que Pretti fuera asesinado. A principios de enero de 2026, agentes de ICE dispararon y mataron a Renee Good, de 37 años, mientras se alejaba en su auto. Videos tomados desde múltiples ángulos también han desacreditado la declaración oficial de que Good intentaba atropellar a un oficial, quien le disparó a quemarropa a través de su ventana. En medio de estos incidentes, las redes sociales han sido inundadas por una mezcla de videos auténticos de testigos y videos falsos generados por inteligencia artificial (IA), lo que dificulta la comprensión de los hechos. El Departamento de Policía Metropolitana de Las Vegas advirtió que observó un aumento de las imágenes y videos generados por IA relacionadas con sus fuerzas, y añadió que “no participa en actividades proactivas de control migratorio”. DW verifica investigó varios videos virales. ¿Los oficiales del ICE están siendo arrestados por la Policía? Afirmación: Los oficiales de ICE están siendo arrestados o golpeados por la Policía, como se ve en varios videos en diferentes plataformas y publicaciones en diferentes idiomas (aquí, aquí y aquí). DW Verifica: falso Detalles como el texto ilegible en los videos lo delatan. Las señales del metro no tienen sentido (“Exit Ses”; “Sotreé Seet”; “42eet”), y los logotipos de los uniformes están mal escritos (“pice”; “IICE”). Los movimientos corporales parecen antinaturales, exagerados o rígidos; por ejemplo, cuando el policía agarra a uno de los agentes de ICE con la mano derecha, pero su brazo izquierdo cuelga prácticamente sin moverse. El diálogo parece confuso, como si la IA hubiera olvidado añadir una respuesta del otro personaje. Los agentes de ICE actúan como PNJ (Personaje No Jugador) en un videojuego: esos personajes secundarios controlados por el juego en lugar de por el jugador. No parecen reaccionar a lo que sucede, y los movimientos de su boca al gritar parecen bruscos y exagerados. Patrones similares aparecen en otros contenidos generado por IA, de manifestantes que supuestamente se enfrentan a agentes de ICE. ¿Oficiales de ICE entrando en aulas o campus universitarios? Afirmación: un oficial de ICE entró a la Universidad Estatal de California buscando a un estudiante, mientras otros agentes se presentaron en un partido de fútbol de una escuela secundaria. DW Verifica: falso Ambos videos publicados en la red social TikTok están generados por IA. El logotipo de Sora, el software de IA, aparece en el video del aula de la universidad, lo que indica que se creó con IA y no muestra imágenes reales. El video de agentes de ICE observando a una multitud durante un partido de fútbol tiene un aspecto extraño y brillante. Una búsqueda de “Agleca soccer” (inscrito en un cartel) no arroja resultados. Los rostros de la multitud parecen estar distorsionados y lo que se lee en los carteles es un indistinguible. TikTok también ha añadido una advertencia que indica que este video contiene contenido generado por IA. ¿Las falsificaciones de inteligencia artificial están eclipsando las imágenes de testigos reales? “Uno de los problemas con todo el contenido generado por IA y los videos falsos que circulan entre los videos reales es que se vuelve muy difícil distinguir qué es real”, dijo Courtney Radsch, directora del Centro de Periodismo y Libertad del Open Markets Institute en Estados Unidos. Ahora que las herramientas de IA son ampliamente accesibles, cualquiera puede crear videos que parezcan reales. Radsch advirtió que las campañas de desinformación pueden publicar intencionalmente videos falsos para ocultar la documentación precisa de los encuentros mortales de ICE. Brittani Kollar, subdirectora de MediaWise, el proyecto de alfabetización mediática digital de Poynter, que enseña a las personas cómo detectar la información errónea y la desinformación, aclara a DW que cuando la información falsa se vuelve viral, las verificaciones de hechos tienden a no ser vistas por tanta gente. “De hecho, los deepfakes virales pueden eclipsar a los videos reales en lo que respecta a los algoritmos, porque más personas los ven”, dice. Cada vez resulta más difícil descifrar qué ocurrió realmente, lo que “podría socavar los procesos legales, la confianza en las pruebas en video y la confianza en los relatos de testigos oculares”, advierte Radsch. ¿Cómo detectar falsificaciones generadas por IA? Aún es posible, pero es cada vez más difícil, a medida que avanzan las herramientas generativas. Aunque existen herramientas de detección como Hive Moderation, las herramientas de generación de IA evolucionan más rápido que los sistemas diseñados para identificarlas. Las señales que era posible detectar antes, como el parpadeo anormal o los reflejos distorsionados, son menos frecuentes. Kollar aconseja buscar pistas en el video: Marcas de agua o identificadores de herramientas de IA Frases extrañas, texto distorsionado o iluminación inconsistente Audio en un idioma que entiendas Subtítulos que parecen sensacionalistas o carecen de contexto Informes de medios de comunicación de renombre Imágenes adicionales o ángulos de cámara alternativos Verificación de cuentas fuente “En muchos casos, es prácticamente imposible distinguir lo real de lo falso si se intenta crear un deepfake”, añade Radsch. “Ni siquiera los expertos más sofisticados pueden hacerlo”. Por eso, aboga por protocolos técnicos más fuertes para autenticar imágenes reales. ¿Por qué crear estos videos? Desinformación y lucro Los expertos dicen que las motivaciones varían, desde actores maliciosos que buscan perturbar el discurso público hasta troles que buscan el caos. Además, según Radsch, la creación de contenido de IA también podría estar motivada por intereses económicos. Las redadas de ICE podrían ser un tema muy lucrativo para generar seguidores o aumentar los ingresos por publicidad digital. En última instancia, dice Radsch, no importa tanto quién esté detrás de la última ola de contenido de IA; el problema más profundo es que “la gente está perdiendo la confianza en que se puedan establecer los hechos”. Dado que prácticamente no existen límites para la monetización de los videos generados por IA, el ecosistema de las redes sociales incentiva la desinformación con fines de lucro, afirma la directora del Centro de Periodismo y Libertad del Open Markets Institute. Y la consecuencia es muy alarmante: cuando las personas no pueden distinguir entre videos falsos y auténticos, a menudo evitan las noticias por completo. (cp/rml)
