La reconnaissance automatique de contenus de l’IA n’est pas fiable. Pourquoi ?
Le fait qu’une image, un texte ou une vidéo ait été créé à l’aide de l’intelligence artificielle (IA) devrait être visible. Mais ce n’est pas si simple. Instagram en est l’exemple le plus récent. Toutes les autres tentatives ont jusqu’à présent aussi échoué.
La transparence est importante lorsqu’il s’agit de contenus générés par l’IA. Meta, le groupe derrière Facebook et Instagram, veut marquer (en anglais) les images générées par l’IA comme telles, afin que personne ne soit trompé. Depuis mai 2024, certaines images sur Instagram sont marquées en conséquence. Vous pouvez y voir la mention « Made with AI », du moins aux États-Unis. Pour ma part, je n’ai pas encore vu de mention du genre. Elle n’est peut-être pas encore arrivée en Europe.
L’intention est louable. Le seul hic, c’est qu’elle n’est pas fiable. Selon divers rapports (en anglais), Instagram tague également de vraies photos qui n’ont en aucun cas été générées par un outil d’intelligence artificielle. Ce qui a le don d’irriter les photographes concernés.
Et la source du problème reste un mystère. Meta révèle peu de choses sur la manière exacte dont ces marqueurs sont créés. Ce qui est clair, c’est que le groupe s’appuie sur des filigranes inscrits dans les métadonnées par les outils d’intelligence artificielle eux-mêmes. Il est toutefois facile de contourner cette règle, par exemple en téléchargeant une capture d’écran de l’image à la place.
Photoshop utilise également des techniques relevant de l’intelligence artificielle, par exemple pour les retouches ou le débruitage. Adobe fait partie de l’organisation C2PA, qui se consacre à la transparence des contenus créatifs. Je suppose que, pour des raisons de transparence, Photoshop écrit dans les métadonnées lorsqu’une photo a été traitée par l’IA.
Mais cela ne fait pas d’une photo prise de manière traditionnelle une photo « Made with AI ». Une photo sur laquelle une tache gênante est retouchée avec un pinceau de réparation est très différente d’une image créée de toutes pièces avec Midjourney, Dall-E ou Stable Diffusion.
Les filigranes ne sont pas le bon moyen de démasquage
Les Content Credentials, une sorte de filigrane numérique codé, permettent de prouver l’authenticité des photos et de rendre transparentes les différentes étapes de traitement. Les interventions de l’IA en font partie. L’objectif : une documentation complète du processus de création.
Avec de telles métadonnées codées, les créateurs peuvent prouver ce qu’ils ont fait. L’inverse n’est toutefois pas possible. On ne peut pas utiliser de filigrane pour prouver qu’une photo n’est pas authentique.
Toute l’idée repose sur le fait que les créateurs de contenus sont eux-mêmes intéressés par la transparence. Elle ne permet pas de démasquer les supercheries. C’est pourtant ce que veut Meta.
Si cela ne fonctionne pas avec les filigranes, avec quoi cela fonctionne-t-il ? Ce qui a déjà été tenté à plusieurs reprises : détecter l’IA à l’aide de l’IA. Mais cela n’a jamais fonctionné jusqu’à présent.
Détecter l’IA à l’aide de l’IA ne fonctionne pas
Les professeurs aimeraient vérifier au moyen de l’IA si un travail de séminaire a été rédigé avec une IA comme ChatGPT. OpenAI, l’entreprise derrière ChatGPT, travaillait sur un tel détecteur, mais a cessé de le développer en 2022. La justification (en anglais) est pour le moins intéressante : aucun détecteur n’a jamais fonctionné de manière à peu près fiable. Et apparemment, Open AI n’a vu aucun signe indiquant que cela changerait dans un avenir proche.
Ces détecteurs utilisent les mêmes méthodes que l’IA générative. Tous deux sont basés sur l’apprentissage automatique, c’est-à-dire sur la reconnaissance de formes sur la base de grandes quantités de textes comme matériel d’entraînement. Les détecteurs déterminent dans quelle mesure un texte s’écarte du style d’une IA connue comme ChatGPT. Mais c’est un peu le chat qui se mord la queue, car ChatGPT & cie imite le style des humains et est entraîné sur la base de textes humains.
Il est possible qu’il existe une sorte de style typique de ChatGPT. Mais ce n’est que le réglage par défaut, qui peut être modifié. Ces générateurs, qu’il s’agisse de texte, d’image ou de musique, sont très flexibles dans leur style. Ils peuvent imiter des genres ou même des individus.
Dans le détail, les choses peuvent être différentes pour les images et pour les textes. Mais le problème de fond demeure. Une IA qui doit reconnaître l’IA de manière fiable devrait être beaucoup plus avancée ou du moins fonctionner très différemment de l’outil d’IA à vérifier. Et c’est précisément ce qui n’est pas le cas : la reconnaissance des formes et la génération de formes sont basées sur la même technologie.
Tant que rien ne changera fondamentalement, nous continuerons à être confrontés à de fâcheuses erreurs de marquage.
Mon intéret pour l'informatique et l'écriture m'a mené relativement tôt (2000) au journalisme technique. Comment utiliser la technologie sans se faire soi-même utiliser m'intéresse. Dans mon temps libre, j'aime faire de la musique où je compense mon talent moyen avec une passion immense.