Las noticias recientes sobre el uso de avatares generados por computadora por parte de una campaña de influencia pro china han vuelto a poner de relieve el uso de deepfakes. La campaña de influencia fue observada por primera vez por el servicio secreto Graphika a fines de 2022. Los videos de avatares de IA realistas que retratan a los presentadores de noticias en la agencia ficticia de noticias Wolf promovieron los intereses del Partido Comunista Chino. Los videos comentaban temas como la violencia armada en los Estados Unidos y la importancia de la cooperación entre China y los Estados Unidos en la recuperación económica mundial de la COVID-19.
Investigaciones anteriores de Graphika y otros investigadores revelaron el uso de rostros falsos generados por IA y videos editados fuera de contexto destinados a engañar al inventar las palabras o acciones de una persona. Lo que distinguió esto de otras imágenes o medios anteriores generados por IA fue la participación de una campaña de información alineada con el gobierno para generar personajes falsos utilizando tecnologías deepfake.
Este caso trae preocupaciones sobre los deepfakes al frente de las discusiones públicas y plantea preguntas serias: ¿cuáles son las implicaciones de los deepfakes y la desinformación, y cuál es la importancia de profundizar la comercialización de la tecnología deepfake?
Los deepfakes se generan utilizando una forma específica de inteligencia artificial conocida como aprendizaje profundo. Los algoritmos de aprendizaje profundo pueden intercambiar caras de una persona en un video o imagen con otras. La creación de deepfakes se hizo de conocimiento público con fotos de celebridades compartiendo caras en línea, con videos deepfake de Tom Cruise en TikTok en 2021 que cautivaron al público a través de la personalidad hiperrealista del actor.
Los deepfakes son omnipresentes en las redes sociales hoy en día, con capacidades y aplicaciones de IA que permiten a los usuarios crear avatares de sí mismos o crear una personalidad completamente nueva. La adición de Generative Adversarial Networks (GAN) a la mezcla permite la creación de caras únicas y novedosas que no se encuentran en los datos de aprendizaje del algoritmo y que no se basan en personas existentes. La popularidad de tales tecnologías ha llevado a un auge en el desarrollo de aplicaciones y funciones que ofrecen avatares de IA. Los avances en la tecnología de inteligencia artificial han hecho que sea más difícil distinguir entre imágenes reales y falsas, lo que difumina aún más la línea gris entre la realidad y la ficción.
Esta proliferación ha generado preocupaciones sobre la erosión de la privacidad y el potencial de abuso y explotación. La tecnología de inteligencia artificial generativa se utilizó para crear pornografía falsa, que representó la friolera de 96 por ciento de todos los videos falsos en Internet en 2019. Las personas comunes también han sido objeto de campañas de pornografía falsa. También han aumentado los servicios que convierten imágenes de mujeres en desnudos. Uno de esos casos involucró a la aplicación de inteligencia artificial generativa Lensa, que fue criticada por permitir que su sistema creara imágenes completamente desnudas a partir de las fotografías de los perfiles de los usuarios. Cualquier mujer puede convertirse en víctima de este desnudo sintético y compartir sus «fotos de desnudos» en múltiples plataformas en línea.
El uso de la tecnología deepfake en campañas de influencers y desinformación no es nuevo. Se han identificado varios casos de comportamiento inauténtico coordinado utilizando deepfakes. En 2019, Facebook eliminó una red no auténtica coordinada de 900 páginas con cuentas administradas en su mayoría desde Vietnam. La red estaba afiliada a Epoch Media Group, un grupo de medios de extrema derecha con sede en EE. UU. conocido por participar en tácticas de desinformación. La mayoría de las cuentas identificadas usaban fotos de perfil falsas generadas por IA para crear cuentas no auténticas en Facebook haciéndose pasar por estadounidenses en grupos de Facebook. Se utilizaron fotos de perfil falsas de periodistas y consultores, generadas por tecnología de IA. Estos deepfakes hiperrealistas se combinaron con identidades de periodistas falsos para escribir artículos para publicaciones en línea conservadoras.
El impacto potencial de las falsificaciones profundas ha hecho sonar las alarmas. La Oficina Federal de Investigaciones (FBI) advirtió en su Informe de Evaluación de Amenazas de marzo de 2021 que el uso de contenido sintético para operaciones cibernéticas y de influencia extranjera podría ser explotado por actores malintencionados. El informe de evaluación señaló además que influir en las operaciones utilizando imágenes de perfil sintéticas generadas por IA es de particular importancia, ya que potencialmente permiten a los operadores ocultar sus identidades detrás de personas generadas por deepfakes para difundir desinformación en línea.
Deepfakes ya se han utilizado con fines políticos en Asia. Un ejemplo notable de una campaña política falsa fueron las elecciones de la Asamblea Legislativa de 2020 en India. Los videos manipulados del presidente del Partido Bharatiya Janata (BJP), Manoj Tiwari, se distribuyeron en 5.700 grupos de WhatsApp en Delhi y sus alrededores, llegando a alrededor de 15 millones de personas en India. Los rostros generados por IA se han utilizado en campañas coordinadas de influenciadores que se dice que se originaron en Asia. Un caso implicó proporcionar un grupo de 14 cuentas de Twitter no auténticas que usaban rostros generados por IA como imágenes de perfil para promover las capacidades 5G de China en Bélgica. El uso de rostros generados por IA elimina la necesidad de usar imágenes de perfil robadas para disfrazar cuentas falsas y evita el riesgo de ser detectado por técnicas de investigación tradicionales.
En el pasado, las campañas de influencia a favor de China han tenido un éxito limitado. En el ejemplo de Wolf News, los avatares generados por la IA eran de baja calidad, con la narración entrecortada por los presentadores. Los guiones en inglés también estaban llenos de errores gramaticales. El alcance de la campaña también fue mínimo, ya que utilizó cuentas personales falsas para expandir su alcance en línea. Aunque el impacto de la campaña fue limitado, tales campañas plantean el problema de la creciente comercialización de servicios falsos.
El auge de los deepfakes ha llevado a un aumento en el número de empresas que crean deepfakes avanzados y de calidad. Los servicios de dichas empresas se utilizan principalmente con fines educativos y de entretenimiento, como la creación de videos para clientes y empleados. Pero el auge de los servicios comerciales para generar videos falsos profundos proporciona recursos fácilmente disponibles para que los actores influyan, ya sean patrocinados por el estado o no. Esto genera preocupaciones sobre la moderación de los servicios de tecnología deepfake.
La aplicación comercial de medios sintéticos seguirá siendo una tendencia creciente debido a la popularidad de dichas aplicaciones en las redes sociales e Internet. La generación de deepfakes de alta calidad para desinformar o con fines políticos podría volverse más común en el futuro. Estos deepfakes comercializados podrían convertirse en herramientas clave en la caja de herramientas de desinformación para los propagandistas de todo el mundo, ya que los países con capacidades avanzadas de inteligencia artificial y acceso a grandes conjuntos de datos pueden obtener ventajas en la guerra de información.
También podría haber una proliferación de empresas especializadas en la generación de deepfakes por encargo, lo que podría poner a disposición de los clientes (con o sin el respaldo del gobierno) una amplia gama de herramientas que deseen realizar campañas de desinformación. Deepfakes podría superponerse en campañas de propaganda para mejorar la eficacia. Esto podría conducir potencialmente a una industria artesanal de generación de deepfake como servicio.
La fusión de GPT, un modelo de lenguaje de red neuronal de aprendizaje profundo entrenado en grandes cantidades de texto, con deepfakes genera más preocupaciones a medida que los avances tecnológicos continúan superando la regulación. Al combinar múltiples técnicas, estas herramientas pueden amplificar el trabajo de los actores maliciosos para producir artefactos mediáticos aún más convincentes para intenciones hostiles, desestabilizando aún más la confianza y la credibilidad de la sociedad.
Cuando se le preguntó sobre los videos a favor de China realizados por los servicios ofrecidos por su empresa, el CEO de Synthesia enfatizó que los reguladores deben establecer reglas más definitivas sobre el uso de herramientas de IA. La creciente comercialización de aplicaciones y servicios de medios sintéticos y la falta de claridad de los reguladores sobre el uso de herramientas de inteligencia artificial permiten que la desinformación se propague en línea. Los organismos reguladores han intentado establecer parámetros y reglas bajo los cuales se deben regular las falsificaciones profundas. La ley de inteligencia artificial de la UE, anunciada como la primera ley de inteligencia artificial del mundo y que se espera que se apruebe en 2023, requiere que los creadores divulguen contenido falso.
En Asia, China prohíbe el uso de deepfakes, que se consideran perjudiciales para la seguridad nacional y la sociedad. Las nuevas regulaciones chinas requieren que los deepfakes estén claramente marcados como generados o editados sintéticamente, y las identidades de las personas en el deepfake deben ser reveladas a la empresa. También existen intentos similares de regulación en los Estados Unidos, Gran Bretaña, Corea del Sur y Taiwán.
Un fuerte enfoque en la educación pública también podría ayudar. Las personas tienden a sobreestimar su capacidad para distinguir entre contenido visual auténtico y no auténtico y, por lo general, son débiles para protegerse contra el engaño visual. Las iniciativas existentes de alfabetización mediática y verificación de hechos pueden continuar ayudando a aumentar la conciencia pública contra las falsificaciones superficiales y profundas al mismo tiempo que aumentan la importancia de la alfabetización visual.
Es necesario capacitar al público no solo en alfabetización mediática sino también en alfabetización informacional integral, incluyendo y con énfasis en la alfabetización visual. Esto puede crear y mejorar la conciencia pública y la comprensión de las falsificaciones profundas. La participación pública puede ayudar a inocular a las personas sobre los daños potenciales de los avances emergentes en la tecnología de IA falsificada.