La empresa estadounidense OpenAI, la firma detrás de la popular herramienta de inteligencia artificial ChatGPT, advirtió este jueves que había identificado campañas de Rusia, China, Irán e Israel que utilizaban su tecnología para influir en el discurso político y ejecutar propaganda encubierta.
"En los últimos tres meses, hemos desmantelado cinco IO (influencias encubiertas) que utilizaban nuestros modelos para respaldar actividades engañosas en Internet", indicó el investigador principal del equipo de OpenAI, Ben Nimmo, en un informe sobre campañas de influencia encubiertas.
OpenAI citó la interrupción de dos operaciones rusas, una que publicaba contenido sobre Ucrania en internet y otra que operaba "principalmente en Telegram y tenía como objetivo Ucrania, Moldavia, los Estados bálticos y Estados Unidos ".
La empresa estadounidense también identificó un actor chino persistente que publicaba contenido en internet "para elogiar a China y criticar a sus críticos"; y otro iraní lanzaba contenido en contra de Israel y Estados Unidos.
Publicidad
Además, se detectó una empresa comercial en Israel que generaba contenidos sobre el conflicto de Gaza y, en menor medida, la organización sindical Histadrut en Israel y las elecciones indias, reza el informe.
El contenido publicado por esas operaciones se centró en temas como la guerra en Ucrania y el conflicto en Gaza, aunque también abordaron asuntos como las elecciones generales de la India, la política en Europa y EE.UU., además de críticas al Gobierno de China por parte de disidentes y gobiernos extranjeros.
Publicidad
Los atacantes intentaban influir en la opinión pública a través de la generación de contenido con errores de idioma, la mezcla de contenido nuevo con antiguo y la generación de respuestas a publicaciones propias para fingir participación y generar mayor productividad.
Estas operaciones, aun así, "no parecen haberse beneficiado de una mayor participación o alcance de la audiencia como resultado de nuestros servicios", sentenció Nimmo.