Nous vivons dans un monde où tout semble possible grâce à l’intelligence artificielle. Bien que l’IA présente des avantages significatifs dans certains secteurs, tels que soins de santé, un côté plus sombre est également apparu. Cela a accru le risque que des acteurs malveillants lancent de nouveaux types de cyberattaques, ainsi que manipulent l’audio et la vidéo à des fins de fraude et d’enlèvement virtuel. Parmi ces actes malveillants, on retrouve les deepfakes, devenus de plus en plus répandus avec cette nouvelle technologie.
Que sont les deepfakes ?
Les deepfakes utilisent l’IA et apprentissage automatique (IA/ML) pour produire des vidéos, des images, des fichiers audio et des textes convaincants et réalistes présentant des événements qui ne se sont jamais produits. Parfois, les gens l’ont utilisé innocemment, comme lorsque la campagne Malaria Must Die a créé une vidéo mettant en vedette le légendaire footballeur David Beckham semblant parler dans neuf langues différentes pour lancer une pétition pour mettre fin au paludisme.
Cible 3.3 de #Objectif3 est d’en finir une fois pour toutes avec le paludisme. Rejoignez David Beckham pour prendre la parole pour mettre fin à l’ennemi le plus ancien et le plus meurtrier de l’humanité : https://t.co/CLoquyMzR6 #MalariaMustDie pic.twitter.com/Zv8hpXDCqy
– Les objectifs mondiaux (@TheGlobalGoals) 9 avril 2019
Cependant, étant donné la propension naturelle des gens à croire ce qu’ils voient, les deepfakes n’ont pas besoin d’être particulièrement sophistiqués ou convaincants pour se propager efficacement. désinformation ou désinformation.
Selon Pour le Département américain de la Sécurité intérieure, l’éventail des préoccupations concernant les « médias synthétiques » allait de « une menace urgente » à « ne paniquez pas, soyez simplement prêt ».
Le terme « deepfakes » vient de la façon dont la technologie derrière cette forme de média manipulé, ou « contrefaçons », s’appuie sur des méthodes d’apprentissage en profondeur. L’apprentissage profond est une branche de l’apprentissage automatique, qui à son tour fait partie de l’intelligence artificielle. Les modèles d’apprentissage automatique utilisent les données de formation pour apprendre à effectuer des tâches spécifiques, et s’améliorent à mesure que les données de formation deviennent plus complètes et plus robustes. Les modèles d’apprentissage profond, cependant, vont plus loin en identifiant automatiquement les caractéristiques des données qui facilitent leur classification ou leur analyse, et en effectuant une formation à un niveau plus approfondi, ou « plus profond ».
Les données peuvent inclure des images et des vidéos de n’importe quoi, ainsi que de l’audio et du texte. Le texte généré par l’IA représente une autre forme de deepfake qui pose un problème croissant. Alors que les chercheurs ont identifié plusieurs vulnérabilités dans les deepfakes impliquant des images, des vidéos et des fichiers audio qui facilitent leur détection, l’identification du texte deepfake s’avère plus difficile.
Comment fonctionnent les deepfakes ?
Certaines des premières formes de deepfakes ont été observées en 2017, lorsque le visage de La star hollywoodienne Gal Gadot a été superposée à une vidéo pornographique. Carte mère signalé à l’époque, c’était prétendument l’œuvre d’une seule personne : un Redditor qui s’appelle « deepfakes ».
L’utilisateur anonyme de Reddit a déclaré au magazine en ligne que le logiciel s’appuie sur plusieurs bibliothèques open source, telles que Keras avec un backend TensorFlow. Pour compiler les visages des célébrités, la source a mentionné l’utilisation de la recherche d’images Google, de photos d’archives et de vidéos YouTube. L’apprentissage profond implique des réseaux de nœuds interconnectés qui effectuent de manière autonome des calculs sur les données d’entrée. Après une « formation » suffisante, ces nœuds s’organisent ensuite pour accomplir des tâches spécifiques, comme manipuler de manière convaincante des vidéos en temps réel.
De nos jours, l’IA est utilisée pour remplacer le visage d’une personne par celui d’une autre sur un autre corps. Pour y parvenir, le processus peut utiliser les technologies Encoder ou Deep Neural Network (DNN). Essentiellement, pour apprendre à échanger des visages, le système utilise un encodeur automatique qui traite et mappe les images de deux personnes différentes (Personne A et Personne B) dans une représentation de données partagée et compressée en utilisant les mêmes paramètres.
Après avoir entraîné les trois réseaux, pour remplacer le visage de la personne A par celui de la personne B, chaque image de la vidéo ou de l’image de la personne A est traitée par un réseau d’encodeurs partagé puis reconstruite à l’aide du réseau de décodeurs de la personne B.
Désormais, des applications telles que FaceShifter, FaceSwap, DeepFace Lab, Reface et TikTok permettent aux utilisateurs d’échanger facilement des visages. Snapchat et TikTok, en particulier, ont rendu plus simple et moins exigeant en termes de puissance de calcul et de connaissances techniques les utilisateurs pour créer diverses manipulations en temps réel.
Une étude récente de Fototorial États qu’il y a 136 milliards d’images sur Google Images et que d’ici 2030, il y aura 382 milliards d’images sur le moteur de recherche. Cela signifie que les criminels ont plus de possibilités que jamais de voler l’image de quelqu’un.
Les deepfakes sont-ils illégaux ?
Cela étant dit, malheureusement, de nombreuses images sexuellement explicites de célébrités ont été publiées. De Scarlett Johannson à Taylor Swift, de plus en plus de personnes sont ciblées. En janvier 2024, de fausses photos de Swift auraient été visionnés des millions de fois sur X avant d’être retirés.
Woodrow Hartzog, professeur à la faculté de droit de l’Université de Boston, spécialisé dans le droit de la vie privée et de la technologie, a déclaré : « Il s’agit simplement de l’exemple le plus médiatisé de quelque chose qui victimise de nombreuses personnes, principalement des femmes, depuis un certain temps déjà. »
#BULawProf @hartzog explique : « Ce n’est que l’exemple le plus médiatisé de quelque chose qui victimise de nombreuses personnes, principalement des femmes, depuis un certain temps maintenant. » ➡️https://t.co/WiV4aIGC3v
– Faculté de droit de l’Université de Boston (@BU_Law) 1 février 2024
Parlant à Billboard, Hartzog a déclaré qu’il s’agissait d’un « cocktail toxique », ajoutant : « C’est un problème existant, mélangé à ces nouveaux outils d’IA générative et à un recul plus large des engagements de l’industrie en matière de confiance et de sécurité. »
Au Royaume-Uni, à compter du 31 janvier 2024, le Loi sur la sécurité en ligne a l’a rendu illégal pour partager des images intimes générées par l’IA sans consentement. La loi introduit également des réglementations supplémentaires contre le partage et la menace de partager des images intimes sans consentement.
Cependant, aux États-Unis, il n’existe actuellement aucune loi fédérale interdisant le partage ou la création d’images deepfake, mais il existe une pression croissante en faveur de modifications de la loi fédérale. Plus tôt cette année, lors de la modification de la loi britannique sur la sécurité en ligne, les représentants ont proposé la loi contre les fausses répliques et les duplications non autorisées de l’intelligence artificielle (pas de fraude liée à l’IA).
Le projet de loi introduit un cadre fédéral pour protéger les individus contre les contrefaçons générées par l’IA, criminalisant la création d’une « représentation numérique » de toute personne, vivante ou décédée, sans consentement. Cette interdiction s’étend à l’utilisation non autorisée de leur image et de leur voix.
La menace des deepfakes est si grave que Kent Walkerprésident des affaires mondiales de Google, a déclaré plus tôt cette année : « Nous avons beaucoup appris au cours de la dernière décennie et nous prenons très au sérieux le risque de désinformation ou de désinformation.
« Pour les élections que nous avons vues partout dans le monde, nous avons créé des salles de crise ouvertes 24 heures sur 24, 7 jours sur 7, pour identifier les informations erronées potentielles.»
Image en vedette : DALL-E / Canva