Une vidéo d’Elizabeth Warren disant que les Républicains ne devraient pas voter est devenu viral en 2023. Mais ce n’était pas Warren. Que vidéo de Ron DeSantis n’était pas non plus le gouverneur de Floride. Et non, Pape François ne portait pas de manteau Balenciaga blanc.
L’IA générative a facilité la création de deepfakes et leur diffusion sur Internet. L’une des solutions proposées les plus courantes implique l’idée d’un filigrane qui identifierait le contenu généré par l’IA. L’administration Biden a fait grand cas des filigranes en tant que solution politique, obligeant même spécifiquement les entreprises technologiques à trouver des moyens d’identifier le contenu généré par l’IA. Celui du président décret sur l’IA, publié en novembre, s’appuie sur les engagements des développeurs d’IA pour trouver un moyen de marquer le contenu comme étant généré par l’IA. Et cela ne vient pas seulement de la Maison Blanche… les législateurs aussienvisagent de consacrer les exigences en matière de filigrane dans la loi.
Le filigrane ne peut pas être une panacée : d’une part, la plupart des systèmes n’ont tout simplement pas la capacité de baliser le texte de la même manière qu’ils peuvent baliser les médias visuels. Pourtant, les gens sont suffisamment familiers avec les filigranes pour que l’idée de filigraner une image générée par l’IA semble naturelle.
Presque tout le monde a vu une image filigranée. Getty Images, qui distribue des photos sous licence prises lors d’événements, utilise un filigrane si omniprésent et si reconnaissable qu’il est sa propre méta-mème. (En fait, le filigrane est maintenant le base du procès de Getty contre la plateforme de génération d’IA Midjourney, Getty alléguant que Midjourney a dû prendre son contenu protégé par le droit d’auteur puisqu’il génère le filigrane Getty dans sa sortie.) Bien sûr, les artistes signaient leurs œuvres bien avant les médias numériques ou même l’essor de la photographie, en afin de faire savoir aux gens qui a créé le tableau. Mais le filigrane lui-même – selon Une histoire du design graphique — a commencé au Moyen Âge, lorsque les moines modifiaient l’épaisseur du papier d’impression alors qu’il était mouillé et y ajoutaient leur propre marque. Le tatouage numérique s’est développé dans les années 90 à mesure que le contenu numérique gagnait en popularité. Les entreprises et les gouvernements ont commencé à mettre des balises (cachées ou non) pour faciliter le suivi de la propriété, des droits d’auteur et de l’authenticité.
Comme auparavant, les filigranes indiqueront toujours qui possède et a créé les médias que les gens consultent. Mais en tant que solution politique au problème des deepfakes, cette nouvelle vague de filigranes baliserait, en substance, le contenu comme étant généré par l’IA ou généré par l’homme. En théorie, un marquage adéquat par les développeurs d’IA montrerait également la provenance du contenu généré par l’IA, abordant ainsi la question de savoir si du matériel protégé par le droit d’auteur a été utilisé dans sa création.
Les entreprises technologiques ont adopté la directive Biden et publient lentement leurs solutions de filigrane IA. Le filigrane peut paraître simple, mais il présente une faiblesse importante : un filigrane collé sur une image ou une vidéo peut être facilement supprimé via le montage photo ou vidéo. Le défi consiste alors à créer un filigrane que Photoshop ne peut pas effacer.
Le défi consiste alors à créer un filigrane que Photoshop ne peut pas effacer.
Des entreprises comme Adobe et Microsoft – membres du groupe industriel Coalition for Content Provenance and Authenticity, ou C2PA – ont adopté Content Credentials, une norme qui ajoute des fonctionnalités aux images et vidéos de sa provenance. Adobe a créé un symbole pour les informations d’identification du contenu cela est intégré dans les médias; Microsoft a également sa propre version. Content Credentials intègre certaines métadonnées – comme qui a créé l’image et quel programme a été utilisé pour la créer – dans le média ; idéalement, les gens pourront cliquer ou appuyer sur le symbole pour consulter eux-mêmes ces métadonnées. (Il reste encore à prouver que ce symbole peut survivre de manière cohérente à la retouche photo.)
Pendant ce temps, Google a déclaré qu’il travaillait actuellement sur ce qu’il appelle SynthID, un filigrane qui s’intègre dans les pixels d’une image. SynthID est invisible à l’œil humain, mais toujours détectable via un outil. Digimarc, une société de logiciels spécialisée dans le filigrane numérique, dispose également de sa propre fonction de filigrane IA ; il ajoute un symbole lisible par machine à une image qui stocke les informations sur les droits d’auteur et la propriété dans ses métadonnées.
Toutes ces tentatives de filigrane visent soit à rendre le filigrane imperceptible à l’œil humain, soit à transférer le travail acharné vers des métadonnées lisibles par machine. Ce n’est pas étonnant : cette approche constitue le moyen le plus sûr de stocker des informations sans qu’elles soient supprimées et encourage les gens à examiner de plus près la provenance de l’image.
C’est bien beau si ce que vous essayez de construire est un système de détection des droits d’auteur, mais qu’est-ce que cela signifie pour les deepfakes, où le problème est que les yeux humains faillibles sont trompés ? Le filigrane fait peser une charge sur le consommateur, en s’appuyant sur le sentiment qu’il a que quelque chose ne convient pas à l’information. Mais les gens ne prennent généralement pas l’habitude de vérifier la provenance de tout ce qu’ils voient en ligne. Même si un deepfake est étiqueté avec des métadonnées révélatrices, les gens tomberont quand même dans le piège – nous avons vu d’innombrables fois que lorsque les informations sont vérifiées en ligne, de nombreuses personnes refuse toujours de croire les informations vérifiées.
Les experts estiment une balise de contenu ne suffit pas pour empêcher la désinformation d’atteindre les consommateurs, alors pourquoi le filigrane fonctionnerait-il contre les deepfakes ?
La meilleure chose que l’on puisse dire à propos des filigranes, semble-t-il, c’est qu’au moins, c’est n’importe quoi. Et en raison de l’ampleur de la quantité de contenu généré par l’IA qui peut être produit rapidement et facilement, un peu de friction peut faire beaucoup de chemin.
Après tout, il n’y a rien de mal à l’idée de base du filigrane. Les filigranes visibles signalent l’authenticité et peuvent encourager les gens à être plus sceptiques à l’égard des médias sans ces filigranes. Et si un spectateur est curieux de connaître l’authenticité, les filigranes fournissent directement cette information.
La meilleure chose que l’on puisse dire à propos des filigranes, semble-t-il, c’est qu’au moins, c’est n’importe quoi.
Le filigrane ne peut pas être une solution parfaite pour les raisons que j’ai énumérées (et en plus de cela, les chercheurs ont pu casser de nombreux systèmes de filigrane là-bas). Mais cela va de pair avec une vague croissante de scepticisme à l’égard de ce que les gens voient en ligne. Je dois avouer que lorsque j’ai commencé à écrire ceci, je pensais qu’il était facile de tromper les gens en leur faisant croire que de très bonnes photos de DALL-E 3 ou de Midjourney avaient été prises par des humains. Cependant, j’ai réalisé que le discours autour de l’art de l’IA et des deepfakes s’était infiltré dans la conscience de nombreuses personnes chroniquement en ligne. Au lieu d’accepter les couvertures de magazines ou les publications Instagram comme authentiques, il existe désormais un doute sous-jacent. Les utilisateurs des réseaux sociaux enquêtent et dénoncent régulièrement les marques lorsqu’elles utilisent l’IA. Regardez à quelle vitesse les détectives Internet ont dénoncé le générique d’ouverture de Invasion secrète et le Affiches générées par l’IA dans Vrai détective.
Ce n’est toujours pas une excellente stratégie que de s’appuyer sur le scepticisme, la curiosité ou la volonté d’une personne pour savoir si quelque chose est généré par l’IA. Les filigranes peuvent faire du bien, mais il doit y avoir quelque chose de mieux. Les gens doutent davantage du contenu, mais nous n’en sommes pas encore complètement là. Un jour, nous pourrions trouver une solution qui transmettra que quelque chose est créé par l’IA sans espérer que le spectateur veuille savoir si c’est le cas.
Pour l’instant, il est préférable d’apprendre à reconnaître si une vidéo n’est pas vraiment celle d’un homme politique.