A principios de marzo, circuló un video manipulado del presidente ucraniano Volodymyr Zelenskyy. En él, un Zelenskyy generado digitalmente le dice al ejército nacional ucraniano que se rinda. El video circuló en línea, pero rápidamente se desacreditó como un deepfake: un video hiperrealista pero falso y manipulado producido con inteligencia artificial.
Si bien la desinformación rusa parece tener un impacto limitado, este ejemplo alarmante ilustra las posibles consecuencias de las falsificaciones profundas.
Sin embargo, los deepfakes se están utilizando con éxito en la tecnología de asistencia. Por ejemplo, las personas que padecen la enfermedad de Parkinson pueden usar la clonación de voz para comunicarse.
Los deepfakes se utilizan en la educación: la empresa de síntesis de voz CereProc, con sede en Irlanda, creó una voz sintética para John F. Kennedy, devolviéndole la vida para pronunciar su discurso histórico.
Sin embargo, toda moneda tiene dos caras. Los deepfakes pueden ser hiperrealistas y básicamente imperceptibles para los ojos humanos.
Por lo tanto, la misma tecnología de clonación de voz podría usarse para phishing, difamación y chantaje. Cuando los deepfakes se implementan deliberadamente para remodelar la opinión pública, incitar a los conflictos sociales y manipular las elecciones, tienen el potencial de socavar la democracia.
causando caos
Los deepfakes se basan en una tecnología conocida como redes antagónicas generativas en las que dos algoritmos se entrenan entre sí para producir imágenes.
Si bien la tecnología detrás de las falsificaciones profundas puede parecer complicada, producir una es muy sencillo. Existen numerosas aplicaciones en línea, como Faceswap y ZAO Deepswap, que pueden producir deepfakes en cuestión de minutos.
Google Colaboratory, un repositorio en línea de código en varios lenguajes de programación, incluye ejemplos de código que se pueden usar para generar imágenes y videos falsos. Con un software tan accesible, es fácil ver cómo los usuarios promedio podrían causar estragos con deepfakes sin darse cuenta de los posibles riesgos de seguridad.
La popularidad de las aplicaciones de intercambio de rostros y los servicios en línea como Deep Nostalgia muestran cuán rápida y ampliamente podrían adoptarse las falsificaciones profundas por parte del público en general. En 2019, se detectaron aproximadamente 15 000 videos usando deepfakes. Y se espera que este número aumente.
Los deepfakes son la herramienta perfecta para las campañas de desinformación porque producen noticias falsas creíbles que requieren tiempo para ser desacreditadas. Mientras tanto, los daños causados por los deepfakes, especialmente aquellos que afectan la reputación de las personas, suelen ser duraderos e irreversibles.
DeepSwap es una excelente opción para cualquiera que quiera crear deepfakes convincentes con el mínimo esfuerzo. 🥸#intercambioprofundo #Intercambio cara #DeepFake #FaceApp #Revestir de nuevo #Revisar #Reseñas #Inteligencia artificial #AI #Tecnología #Tecnología #NoticiasTecnológicas #Noticias de tecnología #MENA #TecnologíaMGZNhttps://t.co/A2Cbp02sH1
— Revista de tecnología (@TechMGZN) 4 de mayo de 2022
¿Ver es creer?
Quizás la ramificación más peligrosa de las falsificaciones profundas es cómo se prestan a la desinformación en las campañas políticas.
Vimos esto cuando Donald Trump designó cualquier cobertura mediática poco halagadora como “noticias falsas”. Al acusar a sus críticos de hacer circular noticias falsas, Trump pudo utilizar la información errónea en defensa de sus fechorías y como herramienta de propaganda.
La estrategia de Trump le permite mantener el apoyo en un ambiente lleno de desconfianza y desinformación al afirmar que “los hechos e historias reales son fake news o deepfakes”.
Se está socavando la credibilidad de las autoridades y los medios de comunicación, creando un clima de desconfianza. Y con la creciente proliferación de deepfakes, los políticos podrían fácilmente negar su culpabilidad en cualquier escándalo emergente. ¿Cómo se puede confirmar la identidad de alguien en un video si lo niega?
Sin embargo, combatir la desinformación siempre ha sido un desafío para las democracias en su intento de defender la libertad de expresión. Las asociaciones humano-IA pueden ayudar a lidiar con el creciente riesgo de falsificaciones profundas al hacer que las personas verifiquen la información. También se podría considerar la introducción de nueva legislación o la aplicación de leyes existentes para penalizar a los productores de deepfakes por falsificar información y hacerse pasar por personas.
Los enfoques multidisciplinarios de los gobiernos internacionales y nacionales, las empresas privadas y otras organizaciones son vitales para proteger a las sociedades democráticas de la información falsa.
Artículo de Sze-Fung Lee, Asistente de Investigación, Departamento de Estudios de la Información, Universidad McGill y Benjamin CM Fung, Profesor y Cátedra de Investigación de Canadá en Minería de Datos para Ciberseguridad, Universidad McGill
Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.