Noticias en Español de todo el mundo

DW verifica: ¿cómo identificar audios falsos?

0 51

Los «deepfakes» de audio clonan voces de políticos y personas públicas. Aquí, algunos consejos para ayudar a detectarlos.¿Sugirió el expresidente estadounidense Barack Obama que los demócratas estaban detrás del fallido intento de asesinato de su sucesor, Donald Trump? En Estados Unidos, han circulado varias grabaciones de audio en las que, aparentemente, Obama habla con su exasesor, David Axelrod, sobre las próximas elecciones presidenciales de noviembre.

En uno de los fragmentos, una voz que suena como la de Obama dice: «Era su única oportunidad y estos idiotas la perdieron. Si tan solo pudieran deshacerse de Trump, aseguraríamos su victoria contra cualquier candidato republicano». Pero el audio ha sido identificado como falso, fue generado sintéticamente con la ayuda de inteligencia artificial(IA).

NewsGuard, un organismo de control de desinformación y medios de comunicación en Estados Unidos, publicó un análisis de los archivos. Utilizó múltiples herramientas de detección de IA y entrevistó a un experto en análisis forense digital antes de concluir que eran falsos. También habló con un portavoz de Obama, quien confirmó que no eran auténticos.

Obama no es el único político de cuya voz circulan deepfakes. Y el problema no se ciñe solo a Estados Unidos. El año pasado, poco antes de una elección en Eslovaquia, se hizo público un deepfake de audio que suplantaba al líder del partido liberal Michal Simecka. En Reino Unido, el alcalde de Londres, Sadiq Khan, también fue víctima de una grabación falsa de IA en la que supuestamente hacía comentarios controvertidos. Las falsificaciones de audio generadas por IA se han convertido en una importante amenaza de desinformación, especialmente en tiempos de incertidumbre política.

Fáciles de crear, difíciles de desmentir

«Requieren menos datos de entrenamiento y menos potencia informática —en comparación con las falsificaciones de video— para producir resultados casi realistas», afirma Anna Schild, experta en medios y comunicación del equipo de Innovación de DW.

Schild ha examinado el impacto de los deepfakes o falsificaciones de audio, junto con su colega Julia Bayer, y explica por qué crece tan rápidamente su popularidad: «Se pueden utilizar de forma versátil, desde llamadas automáticas hasta mensajes de voz y locuciones de video, ofrecen muchos canales de difusión», afirma Schild.

Las falsificaciones de audio también «son un poco más difíciles de reconocer que las falsificaciones de video, sencillamente, porque tenemos menos pistas», explica a DW Nicolas Müller, ingeniero de aprendizaje automático del Instituto Fraunhofer de Seguridad Aplicada e Integrada de Alemania. «En un video, tenemos el audio, el video y una cierta sincronicidad entre ambos», detalla Müller,

Entonces, ¿qué pueden hacer los usuarios si encuentran un archivo de audio que creen que puede haber sido creado por IA?

Una solución sería combinar las técnicas de verificación estándar con el uso de software de IA especializado en la identificación de grabaciones falsas de audio.

Afinar los sentidos

Una vía es comprobar si el archivo contiene patrones que puedan indicar la presencia de IA. En el ejemplo de Obama, esto implica comparar el archivo sospechoso con una pista de audio conocida y verificada de su voz, para encontrar posibles desviaciones de la forma de hablar.

Esto podría incluir pronunciaciones diferentes, pausas poco naturales o patrones de respiración poco realistas. En un examen más detallado, se podría comprobar si hay ruido de fondo o sonidos no naturales.

Encontrar estas pistas puede ser difícil para oyentes inexpertos, pero existen varias herramientas para ayudar a las personas a reconocer este tipo de desinformación. Una de ellas es el proyecto de detección de deepfakes Digger, diseñado en cooperación con DW. El proyecto ha desarrollado ejercicios prácticos para que las personas entrenen sus habilidades de escucha crítica.

El equipo de Nicolas Müller también ha desarrollado un juego para que los participantes prueben su capacidad para detectar deepfakes de audio.

Herramientas de IA para combatir la desinformación con IA

Existe además software con soporte de IA entrenado para detectar deepfakes de audio.

En nuestro ejemplo con la voz sintética de Obama, NewsGuard utilizó verificadores de deepfakes como TrueMedia, que tiene un bot detector de deepfakes , que dice que responde a solicitudes de verificación en X (antes Twitter).

El Instituto Fraunhofer, por su parte, desarrolló Deepfake Total, una plataforma donde los usuarios pueden cargar archivos de audio sospechosos para ser analizados. Todos los archivos cargados se califican con una puntuación en un «fake-o-meter», que indica la probabilidad de que el archivo sea artificial.

Pero las herramientas para detectar deepfakes no son infalibles. Pueden estimar la probabilidad de que un archivo sea generado por IA, pero no siempre son correctas. Por eso estas herramientas siempre deben usarse con cautela, como uno de los múltiples pasos de verificación.

Varios medios de comunicación también han desarrollado herramientas para identificar deepfakes de audio, como VerificAudio, de la empresa de medios global española PRISA Media, que tiene como objetivo detectar falsificaciones en el mundo de habla hispana.

Verificación del contexto

Si todo esto parece demasiado complicado o técnico, lo que también ayuda al intentar identificar deepfakes de audio es centrarse en habilidades de verificación más tradicionales que no sean exclusivas de las grabaciones de audio.

El equipo de Innovación de DW sugiere «alejarse» para verificar el contenido, la fuente y cualquier otra información relevante sobre el archivo en cuestión. En un sitio web llamado «Cómo verificar», se enumeran algunas herramientas que funcionan.

Algunos consejos útiles incluyen comparar el contenido de audio con hechos conocidos, verificar los canales de redes sociales de la persona y buscar contexto adicional en fuentes de noticias confiables.

Al final, todo se trata de usar una combinación de técnicas. Como señala DW Innovation, «no existe una solución única que pueda ayudar y detectar cualquier tipo de manipulación en el audio». (rml/ms)

Deja una respuesta

Su dirección de correo electrónico no será publicada.

Translate »