Nous en sommes inondés maintenant — « falsification profonde« des photos pratiquement impossibles à distinguer des vraies (à l’exception des doigts supplémentaires), des articles et des dissertations générés par l’IA qui semblent réalistes (même s’ils semblent toujours guindés), des critiques générées par l’IA, et bien d’autres. De plus, les systèmes d’IA peuvent extraire du matériel protégé par le droit d’auteur ou de la propriété intellectuelle des sites Web en tant que données de formation, exposant les utilisateurs à des violations potentielles.
Aussi: La plupart des gens s’inquiètent des deepfakes et surestiment leur capacité à les repérer
Le problème est que le contenu généré par l’IA ne cesse de s’améliorer. Existera-t-il un jour un moyen infaillible d’identifier le contenu généré par l’IA ? Et que devraient comprendre les créateurs d’IA et leurs entreprises à propos des nouvelles techniques ?
« Le cas d’utilisation initial de l’IA générative était à des fins ludiques et éducatives, mais nous voyons maintenant de nombreux acteurs malveillants utiliser l’IA à des fins malveillantes », Andy Thuraivice-président et analyste principal de Constellation Research, a déclaré à ZDNET.
Les contenus médiatiques – images, vidéos, fichiers audio – sont particulièrement susceptibles d’être « mal crédités, plagiés, volés ou pas du tout crédités », a ajouté M. Thurai. Cela signifie que « les créateurs ne recevront pas de crédit ni de revenus appropriés ». Un autre danger, a-t-il ajouté, est la « propagation de la désinformation qui peut influencer les décisions ».
D’un point de vue textuel, un problème clé est que les multiples invites et itérations par rapport aux modèles linguistiques ont tendance à effacer les filigranes ou à n’offrir que des informations minimales, selon une étude récente. papier rédigé par des chercheurs de l’Université de Chicago, dirigés par Aloni Cohenprofesseur adjoint à l’université. Ils appellent à une nouvelle approche – les filigranes multi-utilisateurs – « qui permettent de retracer le texte généré par le modèle jusqu’aux utilisateurs individuels ou aux groupes d’utilisateurs complices, même face à des invites adaptatives. »
Aussi: Photoshop vs. Midjourney vs. DALL-E 3 : Un seul générateur d’images IA a réussi mes 5 tests
Le défi, tant pour le texte que pour les médias, est de filigraner numériquement les modèles linguistiques et les résultats de l’IA. Vous devez implanter des signaux détectables qui ne peuvent pas être modifiés ou supprimés.
Des initiatives à l’échelle de l’industrie sont en cours pour développer des filigranes d’IA infaillibles. Par exemple, Coalition pour la provenance et l’authenticité du contenu (C2PA) – un effort conjoint formé grâce à une alliance entre Adobe, Arm, Intel, Microsoft et Truepic – développe une norme technique ouverte destinée à fournir aux éditeurs, aux créateurs et aux consommateurs « la capacité de retracer l’origine de différents types de médias ».
Aussi: Un scientifique de l’IA : « Nous devons sortir du cadre du grand modèle linguistique »
C2PA unifie les efforts de l’équipe dirigée par Adobe Initiative pour l’authenticité du contenu (CAI)qui se concentre sur les systèmes permettant de fournir un contexte et un historique aux médias numériques, et Origine du projetune initiative menée par Microsoft et la BBC qui s’attaque à la désinformation dans l’écosystème de l’information numérique.
« Sans accès standardisé aux outils de détection, vérifier si le contenu est généré par l’IA devient un processus coûteux, inefficace et ad hoc », selon Alessandra Sala de Shutterstock, dans un article rapport publié par le Union internationale des télécommunications (UIT) – l’agence des Nations Unies pour les technologies numériques. « En fait, cela revient à essayer tous les outils de détection d’IA disponibles, un par un, sans toujours être sûr que certains contenus sont générés par l’IA. »
La prolifération de IA générative « La mise en place de plateformes de tatouages numériques nécessite un registre public des modèles tatoués, ainsi que des outils de détection universels », a insisté Sala. « En attendant, les utilisateurs éthiques de l’IA doivent interroger le service de tatouage de chaque entreprise au cas par cas pour vérifier si un élément de contenu est tatoué. »
Aussi: Le défi du jour : contourner les retours flous et la précision douteuse de l’IA
L’initiative C2PA favorise « l’adoption généralisée de certificats de contenu, c’est-à-dire de métadonnées inviolables qui peuvent être attachées au contenu numérique », a expliqué Thurai. Il compare les certificats de contenu à une « étiquette nutritionnelle » que les créateurs peuvent attacher à leur contenu numérique, qui peut être utilisée pour suivre la provenance du contenu. » Grâce à cette norme ouverte, les éditeurs, les créateurs et les consommateurs pourront « retracer l’origine et l’évolution d’un élément multimédia, y compris les images, les vidéos, l’audio et les documents », a-t-il ajouté.
Le principe est le suivant : les créateurs de contenu peuvent « obtenir une reconnaissance pour leur travail en ligne en joignant des informations telles que leur nom ou leurs comptes de réseaux sociaux directement au contenu qu’ils créent », a expliqué Thurai. Il suffit pour cela de cliquer sur une épingle attachée à un élément de contenu ou d’aller sur un site Web pour vérifier la provenance. De tels outils « valident les informations pertinentes et fournissent un historique détaillé des changements au fil du temps ».