Filigranes invisibles à venir pour les images générées par DALL-E sur Azure OpenAI Service

Filigranes invisibles à venir pour les images générées par DALL-E sur Azure OpenAI Service

Les modèles DALL-E d’OpenAI sont capables de générer des images à partir d’invites de texte. Le service Azure OpenAI fournit un accès API REST aux modèles DALL-E d’OpenAI, permettant aux développeurs de créer des images par programmation dans leurs applications. Aujourd’hui, Microsoft a annoncé une fonctionnalité intégrée innovante au sein du service Azure OpenAI, appelée « Watermarks ». Cette nouvelle fonctionnalité Watermarks ajoutera des filigranes invisibles à toutes les images produites à l’aide de DALL·E, améliorant ainsi la transparence et la protection des images générées par l’IA.

L’essor récent des modèles de génération d’images a entraîné une augmentation notable de la désinformation et de la prolifération des deepfakes générés par l’IA. Ainsi, la capacité à reconnaître le contenu généré par l’IA est devenue cruciale. Le nouveau filigrane invisible, intégré dans les images générées par l’IA, peut être détecté à l’aide d’outils spécialisés, mais il reste indétectable à l’œil nu, préservant ainsi l’intégrité de l’image. De plus, l’intégrité du filigrane est préservée même si l’image générée par l’IA est redimensionnée ou recadrée.

Les filigranes invisibles contiendront des métadonnées sur l’origine de l’image, représentées par un manifeste lié à l’image. Ce manifeste est signé de manière cryptographique par un certificat qui fait référence à Azure OpenAI Service et comprendra les détails suivants :

  • « description » – Ce champ indique « Image générée par l’IA » pour toutes les images produites par les modèles DALL-E, confirmant la nature générée par l’IA de l’image.
  • « softwareAgent » – Ce champ désigne « Azure OpenAI DALL-E » pour toutes les images créées par les modèles de la série DALL-E intégrés au service Azure OpenAI.
  • « quand » : cet horodatage indique le moment où les informations d’identification de contenu ont été établies, mettant en évidence les similitudes avec d’autres services Azure AI.

Ce n’est pas la première fois que Microsoft implémente des filigranes. L’année dernière, Microsoft a déployé des filigranes pour les sorties vocales générées avec la fonctionnalité de voix personnelle d’Azure AI Speech, permettant aux utilisateurs de déterminer si le discours a été synthétisé via Azure AI Speech.

En outre, Microsoft collabore avec d’autres acteurs majeurs du secteur de l’IA, notamment Adobe, Truepic et la BBC, pour garantir la cohérence du filigrane, des métadonnées cryptographiques et des techniques de détection sur diverses plateformes.

Cette initiative de Microsoft représente une avancée décisive vers le déploiement responsable de la technologie de l’IA et la lutte contre l’utilisation abusive du contenu généré par l’IA.

Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *