logo Begeek

OpenAI révèle avoir déjoué diverses manipulations cachées exploitant ses modèles d’IA

OpenAI révèle avoir déjoué diverses manipulations cachées exploitant ses modèles d’IA
Publié le , mis à jour le

Les concepteurs de ChatGPT alertent sur des tentatives de manipulation de l'opinion publique par des réseaux russes, chinois, iraniens et israéliens, en utilisant du contenu généré par intelligence artificielle. Comment pouvons-nous nous prémunir de ces menaces ?

Tl;dr

  • OpenAI a arrêté cinq opérations d’influence occultes menées avec ses modèles d’IA.
  • Ces opérations provenaient de Russie, de Chine, d’Iran et d’Israël.
  • Elles visaient à manipuler l’opinion publique sans révéler leurs véritables intentions.
  • OpenAI n’a pas constaté d’augmentation significative de l’engagement de l’audience suite à ces opérations.

OpenAI face aux manipulations occultes

L’entreprise OpenAI, leader de l’intelligence artificielle (IA), a annoncé ce jeudi avoir déjoué cinq opérations d’influence dissimulées. Menées à l’aide de ses modèles d’IA, ces actions avaient pour but de mystifier l’internet.

Originaires de Russie, de Chine, d’Iran et d’Israël, ces opérations visaient à manipuler l’opinion publique et à infléchir les résultats politiques. Ce, bien sûr, sans jamais trahir leurs véritables identités ou intentions.

Lutte contre le contrôle de l’opinion

En combinant les efforts avec divers acteurs des secteurs technologiques, civiques et gouvernementaux, OpenAI a réussi à couper court à ces manœuvres sournoises. Pour Ben Nimmo, principal enquêteur de l’équipe d’Intelligence et d’Investigations d’OpenAI, ces opérations posent des questions sérieuses. “Au cours de l’année et demie passée, beaucoup s’interrogent sur ce qui pourrait arriver si les opérations d’influence utilisaient l’IA générative”, a-t-il déclaré.

Il a ajouté : “Avec ce rapport, nous voulons vraiment commencer à éclaircir certaines des zones d’ombre.

Les mécanismes sous-jacents

Parmi les stratégies déployées, l’opération russe dénommée “Doppelganger” a utilisé les modèles d’OpenAI pour produire des titres accrocheurs, convertir des articles en posts Facebook et créer des commentaires dans plusieurs langues afin de miner le soutien pour l’Ukraine.

OpenAI souligne que ces opérations d’influence à l’aide de l’IA générative ne semblent pas avoir conduit à une augmentation significative de l’engagement de l’audience. Cependant, leur propagation exacerbée soulève de vives inquiétudes, notamment en vue des nombreuses élections prévues cette année.

La transparence, un enjeu

Cette démarche de transparence d’OpenAI est similaire à celle adoptée par d’autres entreprises technologiques, qui rapportent régulièrement leurs actions contre les comportements inauthentiques coordonnés sur leurs plateformes.

Ainsi, la veille, Meta avait publié un rapport détaillant comment une agence de marketing israélienne avait utilisé de faux comptes Facebook pour mener une campagne d’influence ciblant les États-Unis et le Canada.

Chacune de ces révélations souligne à quel point la protection de l’intégrité numérique est cruciale à notre époque, où l’IA a le potentiel d’être à la fois un formidable outil d’innovation et un instrument de manipulation de masse.

Publicité

À lire aussi sur Begeek:

Accessibilité : partiellement conforme