deep fakes sow doubt 4 14
 La tecnología que puede producir deepfakes está ampliamente disponible. (Shutterstock)

A principios de marzo, un Circula video manipulado del presidente ucraniano Volodymyr Zelenskyy. En él, un Zelenskyy generado digitalmente le dice al ejército nacional ucraniano que se rinda. El video circuló en línea, pero rápidamente se desacreditó como un deepfake: un video hiperrealista pero falso y manipulado producido con inteligencia artificial.

Si bien la desinformación rusa parece tener un impacto limitado, este ejemplo alarmante ilustra las posibles consecuencias de las falsificaciones profundas.

Sin embargo, los deepfakes se están utilizando con éxito en la tecnología de asistencia. Por ejemplo, las personas que padecen la enfermedad de Parkinson pueden usar la clonación de voz para comunicarse.

Los deepfakes se utilizan en la educación: la empresa irlandesa de síntesis de voz CereProc creó una voz sintética para John F. Kennedy, devolviéndolo a la vida para pronunciar su discurso histórico.


innerself subscribe graphic


Sin embargo, toda moneda tiene dos caras. Deepfakes puede ser hiperrealista, y básicamente indetectable por los ojos humanos.

Por lo tanto, la misma tecnología de clonación de voz podría usarse para phishing, difamación y chantaje. Cuando los deepfakes se implementan deliberadamente para remodelar la opinión pública, incitar a los conflictos sociales y manipular las elecciones, tienen el potencial de socavar la democracia.

Investigadores de la Universidad de Washington produjeron un deepfake de Barack Obama.

causando caos

Los deepfakes se basan en una tecnología conocida como redes adversas generativas en el que dos algoritmos se entrenan mutuamente para producir imágenes.

Si bien la tecnología detrás de las falsificaciones profundas puede parecer complicada, producir una es muy sencillo. Existen numerosas aplicaciones en línea como Intercambio cara y Intercambio profundo de ZAO que puede producir deepfakes en cuestión de minutos.

Google Colaboratory, un repositorio en línea de código en varios lenguajes de programación, incluye ejemplos de código que se puede usar para generar imágenes y videos falsos. Con un software tan accesible, es fácil ver cómo los usuarios promedio podrían causar estragos con deepfakes sin darse cuenta de los posibles riesgos de seguridad.

La popularidad de las aplicaciones de intercambio de rostros y los servicios en línea como Nostalgia profunda mostrar cuán rápida y ampliamente las falsificaciones profundas pueden ser adoptadas por el público en general. En 2019, Se detectaron aproximadamente 15,000 videos usando deepfakes. Y se espera que este número aumente.

Los deepfakes son la herramienta perfecta para las campañas de desinformación porque producen noticias falsas creíbles que requieren tiempo para ser desacreditadas. Mientras tanto, los daños causados ​​por los deepfakes, especialmente aquellos que afectan la reputación de las personas, suelen ser duraderos e irreversibles.

¿Ver es creer?

Quizás la ramificación más peligrosa de las falsificaciones profundas es cómo se prestan a la desinformación en las campañas políticas.

Vimos esto cuando Donald Trump designó cualquier cobertura mediática poco halagadora como “noticias falsas.” Al acusar a sus críticos de hacer circular noticias falsas, Trump pudo utilizar la información errónea en defensa de sus fechorías y como herramienta de propaganda.

La estrategia de Trump le permite mantener el apoyo en un ambiente lleno de desconfianza y desinformación al afirmar “que los hechos e historias reales son fake news o deepfakes."

La credibilidad de las autoridades y los medios de comunicación está siendo socavada, creando un clima de desconfianza. Y con la creciente proliferación de deepfakes, los políticos podrían fácilmente negar su culpabilidad en cualquier escándalo emergente. ¿Cómo se puede confirmar la identidad de alguien en un video si lo niega?

Sin embargo, combatir la desinformación siempre ha sido un desafío para las democracias en su intento de defender la libertad de expresión. Las asociaciones humano-IA pueden ayudar a lidiar con el creciente riesgo de falsificaciones profundas al hacer que las personas verifiquen la información. También se podría considerar la introducción de nueva legislación o la aplicación de leyes existentes para penalizar a los productores de deepfakes por falsificar información y hacerse pasar por personas.

Los enfoques multidisciplinarios de los gobiernos internacionales y nacionales, las empresas privadas y otras organizaciones son vitales para proteger a las sociedades democráticas de la información falsa.The Conversation

Sobre el Autor

Sze-Fung Lee, Asistente de Investigación, Departamento de Estudios de la Información, McGill University y Benjamin CM Fung, Profesor y Cátedra de Investigación de Canadá en Minería de Datos para la Ciberseguridad, McGill University

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.