Google introduit un filigrane destiné à reconnaître les images générées par intelligence artificielle

0 5 233

Pour savoir si une image a été générée par une intelligence artificielle, Google a créé un filigrane spécial qui résiste même au recadrage ou à l’édition du fichier.

Plus le temps passe, plus il est difficile de différencier une image réalisée par un être humain de la même créée par une intelligence artificielle. Cette question de l’identification est centrale, tant cela peut poser des problèmes de droits d’auteur ou de pillage des œuvres par les systèmes d’IA. Google, qui pourtant aimerait bien que son IA puisse se servir sur Internet sans limite, vient de lancer un système de filigrane original pour tenter d’y remédier.

Un filigrane, c’est tout simplement un logo ou un nom apposé sur l’image, généralement dans un coin, pour identifier son auteur. La limite est asse évidente puisqu’il suffit de redimensionner le fichier pour le faire disparaître. La solution de Google DeepMind, entreprise spécialisée dans l’IA, est beaucoup plus subtile. SynthID, c’est son nom, est un filigrane invisible qui utilise deux réseaux de neurones artificiels.

GOOGLE DÉVOILE UN FILIGRANE INVISIBLE POUR SAVOIR SI UNE IMAGE A ÉTÉ GÉNÉRÉE PAR UNE IA

Le premier réseau prend l’image originale et en créé une copie sur laquelle seuls quelques pixels ont été modifiés, sans que l’œil humain puisse le voir. Le deuxième réseau neuronal s’occupe de repérer la présence (ou non) de cette modification. Il peut même dire s’il n’est pas sûr, mais pense que oui, il y a un filigrane invisible. Le système a été développé pour résister aux captures d’écran, redimensionnements ou éditions du fichier.

Il y a cependant 3 limites à SynthID. La première, c’est qu’il est réservé à Imagen, l’outil de génération d’images par IA de Google. La deuxième, c’est que les utilisateurs ont le choix de l’utiliser ou non, rien ne les y oblige. Enfin, la troisième est qu’aussi sophistiqué qu’il soit, SynthID a de très fortes chances d’être rapidement contourné par des personnes mal intentionnée. Pour Ben Zhao, professeur à l’Université de Chicago qui a travaillé sur des systèmes pour protéger les œuvres des IA, “il y a peu ou pas de filigranes qui se sont révélés robustes au fil du temps”. De son côté, Google refuse de dire s’il a prévu d’étendre son système globalement. Son intérêt en devient d’autant plus limité, dommage.

Crédits : MIT Technology Review

Cliquez pour noter ce post!
[Total: 0 Average: 0]
Comments
Chargement...