L’entreprise affirme avoir stoppé des campagnes provenant de Russie, Chine, Iran et Israël

OpenAI a révélé avoir démantelé plusieurs opérations d’influence secrètes qui utilisaient abusivement ses modèles d’intelligence artificielle. Ces campagnes, originaires de Russie, de Chine, d’Iran et d’Israël, tentaient de manipuler l’opinion publique et d’influencer des résultats politiques sans dévoiler leurs véritables identités et intentions. L’entreprise a collaboré avec l’industrie technologique, la société civile et les gouvernements pour mettre fin à ces activités malveillantes.

Points clés

  • OpenAI a identifié et stoppé 5 opérations d’influence secrètes entre 2023 et 2024
  • Ces campagnes provenaient de Russie, Chine, Iran et Israël et visaient à manipuler l’opinion publique
  • Elles utilisaient les modèles d’IA d’OpenAI pour générer du contenu à grande échelle (texte, images, commentaires)
  • Le réseau russe “Doppelganger” a notamment utilisé les outils d’OpenAI pour saper le soutien à l’Ukraine
  • Le groupe chinois “Spamouflage” a employé l’IA pour amplifier sa présence sur Facebook et Instagram
  • Les Iraniens de “l’Union internationale des médias virtuels” ont aussi recouru à l’IA pour produire du contenu multilingue
  • OpenAI a collaboré avec l’industrie, la société civile et les gouvernements pour endiguer ces opérations

À retenir

Avec ces révélations, OpenAI montre que les modèles d’IA peuvent être détournés à des fins de désinformation et d’influence malveillante. Heureusement, l’entreprise a réagi rapidement pour stopper ces campagnes abusives. Mais il est clair que la lutte contre la manipulation de l’information en ligne reste un défi majeur, surtout à l’approche d’élections cruciales dans le monde. Les géants de la tech, les autorités et la société civile devront continuer à travailler main dans la main pour relever ce défi.

Sources