logo Futura-Sciences

Le côté obscur des IA basées sur les grands modèles de langage

Le côté obscur des IA basées sur les grands modèles de langage
Publié le , mis à jour le

Les intelligences artificielles (IA) reposant sur les grands modèles de langage ne sont toujours pas suffisamment sécurisées pour faire face à leur détournement pour des actes malveillants.

Révolution pour les uns, danger pour les autres, les intelligences artificielles (IA) basées sur les grands modèles de langage (LLM) ne sont ni bonnes ni mauvaises, mais comme de nombreux objets, elles deviennent ce que l’Homme souhaite en faire. Pour les cybercriminels, leur démocratisation est une aubaine, ne serait-ce que pour peaufiner des attaques par hameçonnage ciblé. Julian Hazell, un chercheur en cybersécurité, a d’ailleurs pu simuler des attaques par phishing très sophistiquées. Pour être convaincant et inciter la cible à livrer des identifiants, le contenu des mails a été rédigé par ChatGPT 3, 3.5 et 4 et les messages générés automatiquement étaient suffisamment crédibles pour augmenter considérablement le taux de réussite des attaques.

Des chercheurs du MIT (Massachusetts Institute of Technology) ont également démontré que les LLM pouvaient permettre à quiconque de synthétiser des agents biologiques à des fins malveillantes. Ils donnent également plus de crédibilité aux « arnaques au président » en se faisant passer pour le dirigeant d’une entreprise que ce soit avec des <span…

> Lire la suite sur Futura

Par Sylvain Biget, Journaliste

Publicité

À lire aussi sur Futura-Sciences:

Accessibilité : partiellement conforme