Les deepfakes pornographiques de Taylor Swift sont devenus viraux sur X (anciennement Twitter) cette semaine, soulignant les dangers de IA-images générées en ligne.
Médias synthétiques ou manipulés qui pourrait tromper les gens n’est pas autorisé sur X, selon sa politique, et la plateforme équipe de sécurité postée Vendredi, il « supprime activement toutes les images identifiées et prend les mesures appropriées contre les comptes responsables de leur publication ».
Samedi, les utilisateurs ont remarqué que X avait tenté de limiter le problème en empêcher la recherche de « Taylor Swift » – mais pas certains termes associés, a rapporté The Verge.
X bloque le nom de Taylor Swift de la recherche.
Crédit : Capture d’écran : X
Mashable a également pu produire la page d’erreur pour les termes « Taylor Swift AI » et « Taylor AI ». Les termes « Swift AI », « Taylor AI Swift » et « Taylor Swift deepfake » peuvent cependant être recherchés sur la plate-forme, les images manipulées étant toujours affichées dans l’onglet « Médias ».
Comme l’a souligné Meera Navlakha, journaliste culturelle de Mashable, dans un article sur le deepfakes de Swift, les principales plateformes de médias sociaux ont du mal à contenir le contenu généré par l’IA. Cela est dû à la rapidité et à l’accès à la création de ces images, qui ont inondé les plateformes sociales comme X ces derniers mois. Rendre le nom de Swift impossible à rechercher suggère que X ne sait pas comment gérer la gamme d’images et de vidéos deepfakes sur sa plate-forme.
Vendredi, l’attaché de presse de la Maison Blanche Karine Jean-Pierre a qualifié la situation d' »alarmante ». Elle a également commenté qu’il devrait y avoir une législation à ce sujet, laissant entendre que la question de la modération des images par l’IA pourrait bientôt être examinée au Congrès.