Dans un nouveau poste ce matin, Meta a annoncé qu’elle identifierait et étiqueterait le contenu généré par l’IA sur Facebook, Instagram et Threads – tout en avertissant qu’il n’était « pas encore possible d’identifier tout le contenu généré par l’IA ».
L’annonce intervient deux semaines après la publication d’informations pornographiques générées par l’IA. deepfakes de la chanteuse Taylor Swift est devenu viral sur Twitter, entraînant la condamnation des fans et des législateurs, ainsi que les gros titres des journaux mondiaux. Cela vient aussi sous forme de Meta est sous pression pour gérer les images générées par l’IA et les vidéos falsifiées avant les élections américaines de 2024.
Nick Clegg, président des affaires mondiales chez Meta, a écrit que « nous n’en sommes qu’aux premiers stades de la diffusion du contenu généré par l’IA », ajoutant qu’à mesure que cela deviendra plus courant, « il y aura des débats dans la société sur ce qui devrait et ne devrait pas être. fait pour identifier le contenu synthétique et non synthétique. L’entreprise «continuerait à observer et à apprendre, et nous continuerons à revoir notre approche comme nous le faisons. Nous continuerons à collaborer avec nos pairs du secteur. Et nous resterons en dialogue avec les gouvernements et la société civile.
Le message soulignait que Meta travaillait avec des organisations industrielles comme le Partenariat sur l’IA (PAI) pour développer des normes communes pour identifier le contenu généré par l’IA. Il a déclaré que les marqueurs invisibles utilisés pour les images Meta AI – métadonnées IPTC et filigranes invisibles – sont conformes aux normes PAI. les meilleures pratiques.
Meta a déclaré qu’elle étiqueterait les images que les utilisateurs publient sur Facebook, Instagram et Threads « lorsque nous pouvons détecter les indicateurs standard de l’industrie indiquant qu’elles sont générées par l’IA ». Le message ajoute que les images photoréalistes créées à l’aide de Meta AI ont été étiquetées depuis le lancement du service « afin que les gens sachent qu’elles sont « imaginées avec l’IA ».
Clegg a écrit que l’approche de Meta « représente la pointe de ce qui est techniquement possible à l’heure actuelle », ajoutant que « nous travaillons dur pour développer des classificateurs qui peuvent nous aider à détecter automatiquement le contenu généré par l’IA, même si le contenu manque de marqueurs invisibles. Dans le même temps, nous recherchons des moyens de rendre plus difficile la suppression ou la modification des filigranes invisibles.
Dernier effort pour lutter contre l’étiquetage du contenu généré par l’IA
L’annonce de Meta est le dernier effort visant à identifier et étiqueter le contenu généré par l’IA grâce à des techniques telles que les filigranes invisibles. En juillet 2023, sept les entreprises ont promis au président Biden qu’elles prendraient des mesures concrètes pour améliorer la sécurité de l’IA, y compris le filigranetandis qu’en août, Google DeepMind a publié une version bêta d’un nouvel outil de filigrane, SynthID, qui intègre un filigrane numérique directement dans les pixels d’une image, la rendant imperceptible à l’œil humain, mais détectable pour l’identification.
Mais jusqu’à présent, les filigranes numériques – qu’ils soient visibles ou invisibles – ne suffisent pas à arrêter les mauvais acteurs. En octobre, Wired cité Soheil Feizi, professeur d’informatique à l’Université du Maryland, a déclaré : « Nous n’avons aucun filigrane fiable à ce stade – nous les avons tous cassés. » Feizi et ses collègues chercheurs ont examiné à quel point il est facile pour les mauvais acteurs d’échapper aux tentatives de filigrane. En plus de démontrer comment les attaquants pouvaient supprimer les filigranes, ils ont montré comment ajouter des filigranes aux images créées par l’homme, déclenchant ainsi des faux positifs.
Les experts affirment que les filigranes sont utiles, mais ne constituent pas une « solution miracle » pour le contenu de l’IA
Margaret Mitchell, scientifique en chef de l’éthique chez Hugging Face, a déclaré EntrepriseBeat en octobre que ces filigranes numériques invisibles sont utiles, mais ne constituent pas une « solution miracle » pour identifier le contenu généré par l’IA.
Cependant, a-t-elle souligné, même si les filigranes numériques n’arrêtent pas les mauvais acteurs, ils constituent un « très gros problème » pour permettre et soutenir les bons acteurs qui souhaitent une sorte d’« étiquette nutritionnelle » intégrée pour le contenu de l’IA.
En ce qui concerne l’éthique et les valeurs entourant les images et les textes générés par l’IA, a-t-elle expliqué, un ensemble de valeurs est lié au concept de provenance. « Vous voulez pouvoir avoir une sorte de lignée indiquant d’où viennent les choses et comment elles ont évolué », a-t-elle déclaré. «C’est utile pour suivre le contenu afin d’obtenir un crédit de consentement et une compensation. C’est également important pour comprendre quelles sont les entrées potentielles pour les modèles.
C’est ce groupe d’utilisateurs de filigranes qui, selon Mitchell, est « vraiment enthousiasmé ». « Je pense que cela a vraiment été perdu dans certains discours récents », a-t-elle déclaré, expliquant qu’il y aura toujours des raisons pour lesquelles la technologie de l’IA ne fonctionne pas bien. Mais cela ne veut pas dire que la technologie dans son ensemble est mauvaise.
La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie et les transactions d’entreprise transformatrices. Découvrez nos Briefings.