
Una campaña de desinformación pro-Rusia utiliza herramientas de inteligencia artificial gratuitas para provocar una 'explosión de contenido'.
Las herramientas de inteligencia artificial de nivel consumidor han amplificado la desinformación alineada con Rusia, facilitando la difusión de imágenes, vídeos, códigos QR y sitios web falsos.
Una campaña de desinformación a favor de Rusia está utilizando herramientas de inteligencia artificial de consumo para provocar una "explosión de contenido" centrada en amplificar tensiones existentes en torno a elecciones globales, la situación en Ucrania y la inmigración, entre otros temas polémicos, según una investigación reciente. Conocida por diversos nombres, como Operación Overload y Matryoshka (vinculada por otros investigadores a Storm-1679), esta campaña ha estado activa desde 2023 y cuenta con el respaldo del gobierno ruso, según varios grupos, incluidos Microsoft y el Instituto para el Diálogo Estratégico. El propósito de esta campaña es difundir narrativas falsas suplantando medios de comunicación, buscando así generar divisiones en países democráticos. Aunque su público objetivo son diversas regiones del mundo, el enfoque principal ha sido Ucrania, donde se han producido cientos de videos manipulados por inteligencia artificial que alimentan narrativas pro-rusas.
El informe revela que entre septiembre de 2024 y mayo de 2025, la producción de contenido por parte de quienes dirigen la campaña ha aumentado exponencialmente, alcanzando millones de visualizaciones a nivel global. Durante el periodo de julio de 2023 a junio de 2024, se identificaron 230 piezas únicas de contenido promovido, incluyendo imágenes, videos, códigos QR y sitios web falsos. Sin embargo, en los últimos ocho meses, la Operación Overload generó un total de 587 piezas únicas de contenido, siendo la mayoría creadas con herramientas de inteligencia artificial, según los investigadores.
El incremento en la producción de contenido se atribuye a herramientas de inteligencia artificial accesibles y de nivel de consumo disponibles gratuitamente en línea. Esto ha facilitado la táctica de "amalgama de contenido", mediante la cual los operativos de la campaña han creado múltiples piezas apoyando la misma narrativa. Investigadores de Reset Tech y Check First señalaron que esto representa un cambio hacia tácticas de propaganda más escalables, multilingües y sofisticadas.
La variedad de herramientas y tipos de contenido empleados por la campaña sorprendió a los investigadores. Aleksandra Atanasova, investigadora principal de inteligencia de fuentes abiertas de Reset Tech, constató que la campaña ha diversificado su enfoque para captar diferentes perspectivas y matices de sus historias. Aunque no se utilizaban herramientas personalizadas de inteligencia artificial, empleaban generadores de voz e imagen accesibles al público general.
Uno de los instrumentos destacados en el análisis fue Flux AI, un generador de texto a imagen desarrollado por Black Forest Labs. Los investigadores detectaron que muchas imágenes falsas compartidas por la campaña tenían un alto porcentaje de probabilidad de haber sido creadas utilizando este generador. Las imágenes manipuladas incluían contenido sensible que fomentaba estereotipos negativos.
La tecnología de clonación de voz también ha sido utilizada por la Operación Overload para alterar videos, logrando que figuras prominentes parezcan decir cosas que nunca dijeron. La cantidad de videos producidos por la campaña se incrementó de 150 entre junio de 2023 y julio de 2024 a 367 entre septiembre de 2024 y mayo de 2025. Muchos de estos videos emplearon tecnología de inteligencia artificial para engañar a los espectadores.
Un ejemplo alarmante de esta manipulación ocurrió en febrero, cuando se publicó un video en X que mostraba a Isabelle Bourdon, investigadora universitaria, aparentando incitar a disturbios masivos en Alemania y apoyar al partido de extrema derecha Alternativa para Alemania (AfD). Este video fue fabricado al tomar fragmentos de una charla legítima, alterando su contexto original.
El contenido generado por inteligencia artificial se ha compartido en más de 600 canales de Telegram, así como en cuentas bot en redes sociales como X y Bluesky. Recientemente, también se ha comenzado a distribuir en TikTok, donde se detectaron 13 cuentas que alcanzaron 3 millones de vistas antes de que la plataforma tomara medidas.
El proceso de la campaña incluye una táctica inusitada: el envío de correos electrónicos a cientos de organizaciones de medios y verificación de datos a nivel global, solicitando que se investigue la veracidad de su contenido falso. Este enfoque busca que su contenido aparezca en medios de comunicación legítimos, incluso si está etiquetado como "FAKE".
Desde septiembre de 2024, se enviaron hasta 170,000 de estos correos a más de 240 destinatarios, y aunque estos intentos no suelen atraer mucho tráfico, su promoción en redes sociales puede generar atención significativa. Investigaciones previas han documentado que las redes de desinformación rusas producen anualmente al menos 3 millones de artículos generados por inteligencia artificial, lo que complica la distinción entre contenido real y falso.
Con la creciente dificultad para discernir el contenido auténtico del generado por inteligencia artificial, se anticipa que el uso de estas herramientas por parte de operativos de desinformación seguirá en aumento. “Ya tienen la receta que funciona”, concluyó Atanasova.