OpenAI permet de savoir plus facilement si une image a été générée par DALL-E 3

OpenAI permet de savoir plus facilement si une image a été générée par DALL-E 3. Deux filigranes intégrés dans chaque image créée.
OpenAI a décidé récemment de permettre de savoir facilement si une image a été générée avec DALL-E 3. L’entreprise a partagé l’information il y a quelques jours, précisant qu’elle allait commencer à ajouter deux types de filigranes à toutes les images générées par DALL-E 3, adhérant aux standards mis en avant par la Coalition for Content Provenance and Authenticity (C2PA). Ces changements ont été déployés et sont effectifs sur toutes les images générées via le service.
OpenAI permet de savoir plus facilement si une image a été générée par DALL-E 3
Le premier des deux filigranes n’existe que dans les métadonnées de l’image. Vous pourrez vérifier les données de création d’une image en utilisant le site Content Credentials Verify ou similaire. Le second est un symbole CR visible dans le coin inférieur gauche de l’image en elle-même.
Voilà en tous les cas une bonne initiative, de celles qui font avancer DALL-E 3 dans la bonne direction tout en permettant d’identifier convenablement lorsqu’un contenu est généré via une intelligence artificielle. D’autres systèmes IA utilisent des systèmes similaires dans les métadonnées, et Google a implémenté son propre filigrane pour aider à identifier les images créées via son modèle de génération d’image. Ce dernier a d’ailleurs été porté récemment dans Google Bard.
À l’heure d’écrire ces lignes, seules les images sont dotées de ce filigrane. Les vidéos comme le texte en sont encore dépourvus. OpenAI indique que l’ajout du filigrane dans les métadonnées ne devrait causer aucun souci de latence ni affecter la qualité de la génération d’image. Cela étant dit, la taille des images en elles-mêmes sera légèrement augmentée.
Deux filigranes intégrés dans chaque image créée
Si c’est la première fois que vous entendez parler de ce sujet, sachez que la C2PA est un groupe composé de sociétés comme Microsoft, Sony et Adobe. Ces entreprises n’ont eu de cesse de pousser à l’inclusion des filigranes de Content Credentials pour savoir si les images sont ou non créées via un système IA. En vérité, le symbole Content Credentials qu’OpenAI ajoute aux images de DALL-E 3 a été créé par Adobe.
Bien que le filigrane puisse aider, ce n’est pas une option sans faille pour s’assurer que de la désinformation ne se propage pas via du contenu généré par IA. Les métadonnées peuvent toujours être oubliées grâce à l’utilisation d’une simple capture d’écran et les filigranes visibles peuvent tout simplement être rognés. Cependant, OpenAI est convaincu que ces méthodes encourageront les utilisateurs à reconnaître que ces “signaux sont cruciaux pour augmenter la confiance en l’information numérique” et que tout cela conduira à une réduction des abus de ces systèmes IA.
À lire aussi sur Begeek: