OpenAI ha anunciado la terminación de varias cuentas vinculadas a operaciones de influencia encubiertas (IO) que intentaban utilizar modelos de inteligencia artificial para actividades engañosas. En los últimos tres meses, OpenAI ha desarticulado cinco IO que buscaban manipular la opinión pública sin revelar las verdaderas identidades o intenciones de los actores detrás de ellas.
Según el informe publicado, estas operaciones no han logrado aumentar significativamente su audiencia o alcance a través de los servicios de OpenAI. Los actores identificados utilizaban los modelos de IA para generar comentarios, artículos y otro contenido en varios idiomas, además de realizar investigaciones y depurar código. A continuación, se detallan las operaciones desarticuladas:
- Bad Grammar: Una operación no reportada previamente de Rusia, que operaba principalmente en Telegram y se dirigía a Ucrania, Moldavia, los Estados Bálticos y Estados Unidos. Utilizaban modelos de IA para depurar código y crear comentarios políticos en ruso e inglés.
- Doppelganger: Operación rusa que generaba comentarios en inglés, francés, alemán, italiano y polaco, y traducía y editaba artículos publicados en diversas plataformas.
- Spamouflage: Red china que investigaba la actividad pública en redes sociales y generaba textos en chino, inglés, japonés y coreano, distribuidos en plataformas como X, Medium y Blogspot.
- International Union of Virtual Media (IUVM): Operación iraní que generaba y traducía artículos extensos, titulares y etiquetas de sitios web.
- Zero Zeno: Actividad de una empresa comercial israelí, que generaba artículos y comentarios publicados en múltiples plataformas, incluyendo Instagram, Facebook y X.
Estas operaciones se enfocaban en temas como la invasión de Rusia a Ucrania, el conflicto en Gaza, las elecciones en India y la política en Europa y Estados Unidos. Sin embargo, ninguna de ellas logró un aumento significativo en la participación de la audiencia gracias a los servicios de OpenAI, según la escala Breakout de Brookings.
Tendencias de los Atacantes y Defensa con IA
Tendencias de los atacantes:
- Generación de contenido: Los actores utilizaban la IA para crear textos en mayor volumen y con menos errores lingüísticos.
- Mezcla de lo antiguo y lo nuevo: El contenido generado por IA se combinaba con textos escritos manualmente y otros formatos tradicionales.
- Falsa apariencia de participación: Generaban respuestas a sus propias publicaciones para simular interacción.
- Aumento de productividad: Utilizaban la IA para resumir publicaciones en redes sociales y depurar código.
Tendencias defensivas:
- Diseño defensivo: Los sistemas de seguridad de OpenAI bloqueaban la generación de contenido solicitado por los actores en múltiples casos.
- Investigación mejorada por IA: Herramientas de IA propias permitieron que las investigaciones fueran más eficientes, reduciendo el tiempo de semanas a días.
- Importancia de la distribución: Aunque el contenido se distribuyó en múltiples plataformas, ninguna operación logró una participación sustancial.
- Colaboración industrial: Compartir indicadores de amenazas con otros actores de la industria ha sido crucial para aumentar el impacto de las interrupciones.
OpenAI se compromete a desarrollar IA segura y responsable, diseñando modelos con la seguridad en mente y actuando proactivamente contra usos malintencionados. La detección y la interrupción de abusos multi-plataforma como las IO siguen siendo desafiantes, pero OpenAI continúa mejorando sus capacidades para mitigar estos abusos a gran escala.
Para leer el informe completo y obtener más detalles sobre estas investigaciones, puede acceder al blog de OpenAI.