Cómo se están preparando los investigadores para la próxima ola de propaganda deepfake
Los detectores con tecnología de IA son las mejores herramientas para detectar videos falsos generados por IA.
El Washington Post a través de Getty Images

Un periodista de investigación recibe un video de un denunciante anónimo. Muestra a un candidato a presidente admitiendo actividades ilegales. ¿Pero este video es real? Si es así, sería una gran noticia, la primicia de su vida, y podría cambiar por completo las próximas elecciones. Pero la periodista pasa el video a través de una herramienta especializada, que le dice que el video no es lo que parece. De hecho, es un "deepfake, "Un video realizado con inteligencia artificial con deep learning.

Los periodistas de todo el mundo pronto podrían estar utilizando una herramienta como esta. En unos años, una herramienta como esta podría incluso ser utilizada por todos para erradicar el contenido falso en sus feeds de redes sociales.

As investigadores que han estado estudiando la detección de deepfake y desarrollando una herramienta para periodistas, vemos un futuro para estas herramientas. Sin embargo, no resolverán todos nuestros problemas y serán solo una parte del arsenal en la lucha más amplia contra la desinformación.

El problema de los deepfakes

La mayoría de la gente sabe que no se puede creer todo lo que ve. Durante las últimas dos décadas, los consumidores de noticias inteligentes se han acostumbrado a ver imágenes manipuladas con software de edición de fotografías. Los videos, sin embargo, son otra historia. Los directores de Hollywood pueden gastar millones de dólares en efectos especiales para crear una escena realista. Pero utilizando deepfakes, los aficionados con unos pocos miles de dólares en equipos informáticos y unas pocas semanas para gastar podrían hacer algo casi tan real.


gráfico de suscripción interior


Los deepfakes permiten poner a las personas en escenas de películas en las que nunca estuvieron - piensa en Tom Cruise jugando a Iron Man - lo que hace que los videos sean entretenidos. Desafortunadamente, también permite crear pornografía sin el consentimiento de las personas representadas. Hasta ahora, esas personas, casi todas mujeres, son las mayores víctimas del mal uso de la tecnología deepfake.

Los deepfakes también se pueden usar para crear videos de líderes políticos diciendo cosas que nunca dijeron. El Partido Socialista Belga lanzó un video de baja calidad, no profundamente falso pero aún falso, de El presidente Trump insulta a Bélgica, que tuvo una reacción suficiente para mostrar los riesgos potenciales de los deepfakes de mayor calidad.

{vembed Y = poSd2CyDpyA}
Hany Farid de la Universidad de California, Berkeley, explica cómo se hacen las deepfakes.

Quizás el más aterrador de todos, se pueden utilizar para crear duda sobre el contenido de videos reales, al sugerir que podrían ser deepfakes.

Dados estos riesgos, sería extremadamente valioso poder detectar deepfakes y etiquetarlos claramente. Esto garantizaría que los videos falsos no engañen al público y que los videos reales puedan recibirse como auténticos.

Detectar falsificaciones

La detección de deepfake como campo de investigación se inició un poco más hace tres años. El trabajo inicial se centró en detectar problemas visibles en los videos, como deepfakes que no parpadearon. Sin embargo, con el tiempo, la las falsificaciones han mejorado imitan videos reales y se vuelven más difíciles de detectar tanto para las personas como para las herramientas de detección.

Hay dos categorías principales de investigación de detección de deepfake. El primero involucra mirando el comportamiento de las personas en los videos. Suponga que tiene muchos videos de alguien famoso, como el presidente Obama. La inteligencia artificial puede usar este video para aprender sus patrones, desde sus gestos con las manos hasta sus pausas en el habla. Entonces puede mira un deepfake de él y observe dónde no coincide con esos patrones. Este enfoque tiene la ventaja de que posiblemente funcione incluso si la calidad del video en sí es esencialmente perfecta.

{vembed Y = gsv1OsCEad0}
Aaron Lawson de SRI International describe un método para detectar deepfakes.

Otros investigadores, incluido nuestro equipo, se han centrado en diferencias esa todos los deepfakes tienen en comparación con videos reales. Los videos deepfake a menudo se crean fusionando fotogramas generados individualmente para formar videos. Teniendo eso en cuenta, los métodos de nuestro equipo extraen los datos esenciales de las caras en fotogramas individuales de un video y luego los rastrean a través de conjuntos de fotogramas concurrentes. Esto nos permite detectar inconsistencias en el flujo de información de un marco a otro. También utilizamos un enfoque similar para nuestro sistema de detección de audio falso.

Estos detalles sutiles son difíciles de ver para la gente, pero muestran que los deepfakes no son del todo perfecto todavía. Detectores como estos pueden funcionar para cualquier persona, no solo para algunos líderes mundiales. Al final, puede ser que se necesiten ambos tipos de detectores deepfake.

Los sistemas de detección recientes funcionan muy bien en videos recopilados específicamente para evaluar las herramientas. Desafortunadamente, incluso los mejores modelos lo hacen mal en videos encontrados en línea. Mejorar estas herramientas para que sean más sólidas y útiles es el siguiente paso clave.

¿Quién debería usar detectores deepfake?

Idealmente, una herramienta de verificación deepfake debería estar disponible para todos. Sin embargo, esta tecnología se encuentra en las primeras etapas de desarrollo. Los investigadores deben mejorar las herramientas y protegerlas contra los piratas informáticos antes de lanzarlas ampliamente.

Al mismo tiempo, sin embargo, las herramientas para hacer deepfakes están disponibles para cualquiera que quiera engañar al público. Sentarse al margen no es una opción. Para nuestro equipo, el equilibrio adecuado fue trabajar con los periodistas, porque son la primera línea de defensa contra la difusión de información errónea.

Antes de publicar historias, los periodistas deben verificar la información. Ya tienen métodos probados y verdaderos, como verificar las fuentes y hacer que más de una persona verifique los hechos clave. Entonces, al poner la herramienta en sus manos, les damos más información y sabemos que no dependerán solo de la tecnología, ya que puede cometer errores.

¿Pueden los detectores ganar la carrera armamentista?

Es alentador ver equipos de Facebook y Microsoft invertir en tecnología para comprender y detectar deepfakes. Este campo necesita más investigación para mantenerse al día con la velocidad de los avances en la tecnología deepfake.

Los periodistas y las plataformas de redes sociales también deben descubrir la mejor manera de advertir a las personas sobre deepfakes cuando se detectan. La investigación ha demostrado que la gente recuerda la mentira, pero no el hecho de que fuera mentira. ¿Sucederá lo mismo con los videos falsos? El simple hecho de poner "Deepfake" en el título podría no ser suficiente para contrarrestar algunos tipos de desinformación.

Los deepfakes llegaron para quedarse. Gestionar la desinformación y proteger al público será más desafiante que nunca a medida que la inteligencia artificial se vuelva más poderosa. Somos parte de una comunidad de investigación en crecimiento que está asumiendo esta amenaza, en la que la detección es solo el primer paso.La conversación

Acerca de los autores

John Sohrawardi, estudiante de doctorado en informática y ciencias de la información, Rochester Institute of Technology y Matthew Wright, profesor de seguridad informática, Rochester Institute of Technology

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el reconocida por artículo.