Hace siete días, mientras el presidente de EE. UU., Donald Trump, abandonaba anticipadamente la Cumbre del G7 y pedía la "rendición incondicional" de Irán a Israel, una cuenta anónima de TikTok publicó dos videos de propaganda pro-Irán. Uno mostraba una bahía de mujeres frente a computadoras, aparentemente preparándose para lanzar un cohete. Otro mostraba una hilera de tanques con misiles y banderas iraníes saliendo de un túnel.
En los días siguientes, Estados Unidos bombardearía sitios iraníes de desarrollo nuclear, iniciando otro conflicto en el Medio Oriente. Y en las redes sociales, los dos videos, que parecen ser generados por IA, comenzaron a circular ampliamente. Según la plataforma de análisis de datos Zelf, los dos videos se convirtieron en dos de los 15 TikToks más vistos sobre Irán en la última semana, acumulando más de 30 millones de vistas. Luego, desaparecieron de la plataforma.
Los videos, que parecen ser generados por IA, no eran exclusivos de TikTok. También se publicaron —más de 100 veces cada uno— en cuentas de Instagram Reels y YouTube Shorts, donde acumularon millones de vistas adicionales. No fueron etiquetados como generados por IA en ninguno de los sitios de redes sociales, donde algunas personas que los compartían y comentaban parecían tomarlos en serio. TikTok, YouTube e Instagram requieren que los creadores etiqueten el contenido realista generado por IA. (En una vida anterior, ocupé puestos de política de contenido en Facebook y Spotify).
En YouTube, una publicación que mostraba a las mujeres con el cohete contenía el descargo de responsabilidad: "Este canal recibió dinero o cosas gratis para hacer este video". En otra publicación de YouTube del mismo video, un creador agregó texto en árabe pidiendo a sus espectadores que dieran me gusta y se suscribieran. En Facebook, un usuario respondió al video del cohete publicando una criatura emoji animada riendo y sonriendo con alas y corazones por ojos. Otros respondieron con corazones y pulgares arriba.
Ninguna de las plataformas sociales prohíbe las publicaciones que parecen ser propaganda —de Irán, Israel, Estados Unidos o cualquier otro lugar— siempre y cuando no sean engañosas y no formen parte de una campaña de comportamiento inauténtico más grande, que utiliza tácticas como cuentas falsas para difundir mensajes engañosos. Los gobiernos, incluido el de Estados Unidos, han utilizado propaganda generada por IA para avanzar sus agendas en las redes sociales. Israel también ha realizado amplias campañas publicitarias pagadas en plataformas de redes sociales sobre su guerra en Gaza.
Aun así, la prevalencia de imágenes de guerra falsas en las redes sociales podría inflamar las tensiones entre naciones y sus poblaciones, alimentando la división entre grupos y provocando violencia en el mundo real. También podría socavar la confianza entre las personas en el terreno en las zonas de conflicto, lo que les dificultaría saber qué es real. En los últimos días, imágenes y videos generados por IA que mostraban misiles cayendo sobre Tel Aviv y bombarderos B-2 sobre Teherán también se han vuelto virales, y algunos medios falsos han sido compartidos por funcionarios gubernamentales y medios estatales.
Un portavoz de Meta se negó a comentar sobre los videos. Jack Malon, un portavoz de YouTube, dijo que, si bien los videos no violaban las reglas de la plataforma, la compañía había agregado una etiqueta, ya que requiere descargos de responsabilidad destacados en los videos generados por IA cuando son "realistas" y podrían ser engañosos. TikTok también se negó a comentar, pero después de que Forbes se puso en contacto para solicitar comentarios, la cuenta anónima que publicó los videos fue eliminada.
En Check Point Research identicaron el resurgimiento de una campaña global de phishing selectivo atribuida al actor iraní Educated Manticore, también conocido como APT42, Charming Kitten y Mint Sandstorm. Asociado con la Organización de Inteligencia del CGRI, este grupo es conocido por atacar a figuras públicas de todo el mundo. Actualmente, la campaña está ejecutando sofisticadas operaciones de robo de credenciales contra personas de alto perfil en Israel, aunque es probable que su alcance real sea mucho mayor, tanto geográficamente como por sector.
Tras la escalada de las tensiones entre Irán e Israel, el grupo busca hacerse pasar por instituciones, diplomáticos y profesionales del sector tecnológico israelíes.
Campaña de amplio alcance y altamente dirigida
Esta campaña representa un alcance más amplio de las operaciones cibernéticas iraníes, utilizando phishing selectivo personalizado que crea personas ficticias vinculadas a entidades existentes, precisión en el momento y alcance multicanal para extraer credenciales y eludir la MFA. En particular se observaron ataques contra reconocidos académicos israelíes de informática e investigadores de ciberseguridad, además de periodistas destacados conocidos por cubrir temas geopolíticos y de inteligencia.
Si bien la actividad reciente se centra en objetivos israelíes, Educated Manticore tiene un amplio historial de operaciones globales. En el pasado, el grupo se ha hecho pasar por importantes medios de comunicación y ONG internacionales, como The Washington Post (EE. UU.), The Economist (Reino Unido), Khaleej Times (Emiratos Árabes Unidos), Azadliq (Azerbaiyán), entre otros, para suplantar a periodistas, investigadores y figuras geopolíticas en regiones alineadas con los intereses estratégicos de Irán. Estas operaciones siguen el mismo patrón: creación de confianza mediante suplantación de identidad, seguida de recolección de credenciales y vigilancia.