Hulu a diffusé une publicité anti-Hamas qui semble avoir été réalisée en utilisant l’intelligence artificielle pour montrer une version idéalisée de Gaza, affirmant que cette destination paradisiaque pourrait exister sans le Hamas.
Le spot de 30 secondes, qui s’ouvre comme une publicité touristique, montre des palmiers et des côtes. Il y a des hôtels cinq étoiles et des enfants qui jouent. Les gens dansent, mangent et rient, tandis qu’une voix off encourage les visiteurs à « découvrir une culture riche en traditions ». Mais cela change soudainement, transformant le visage d’un homme souriant en un visage grimaçant. « Voilà à quoi aurait pu ressembler Gaza sans le Hamas », dit le narrateur. Une nouvelle série d’images apparaît, cette fois-ci de combattants et d’armes, et d’enfants errant dans les rues ou tenant des fusils.
La publicité met à plat des décennies de conflit entre Israël et les Palestiniens – et des siècles de guerre dans la région— dans une publicité de 30 secondes qui semble utiliser l’IA pour aider à diffuser son message. La réalité de savoir qui est responsable des souffrances des Palestiniens à Gaza est une question bien plus complexe que celle décrite dans la courte publicité. Le Hamas, considéré comme une organisation terroriste par les États-Unis, le Canada, la Grande-Bretagne, le Japon et l’Union européenne, a pris le contrôle de la bande de Gaza en 2007. Les troupes israéliennes et les colons ont occupé Gaza depuis la guerre de 1967 jusqu’en 2005, lorsque l’armée israélienne et les citoyens se sont retirés du territoire palestinien. Les Nations Unies et plusieurs autres entités internationales considère toujours Gaza doit être effectivement occupée, bien que les États-Unis et Israël contestent cette étiquette.
La semaine dernière, plus de 25 000 personnes ont été tués à Gaza depuis octobre, selon le ministère de la Santé de Gaza. L’ONU estimations que 1,9 million de personnes à Gaza, soit environ 85 pour cent de la population, ont été déplacées. Autour 1 200 Israéliens ont été tués par le Hamas lors de l’attaque du 7 octobre qui a conduit à la crise actuelle.
L’annonce semble contenir des images réalisées à l’aide de l’IA générative, basées sur l’esthétique, des erreurs de perspective et la répétition d’expressions faciales similaires. La publicité elle-même reconnaît également que les scènes de la première moitié de la publicité ne sont pas réelles, mais plutôt imaginées dans une ville sans conflit. WIRED a consulté deux sociétés de détection d’images IA, Inholo et Sensity, à propos de la publicité, et toutes deux ont déclaré que l’IA avait été utilisée dans la création de la première partie de la publicité. Les militants ont utilisé l’IA générative tout au long du conflit pour obtenir du soutien pour chaque côté.
Cette publicité n’est pas vraiment un deepfake, mais elle montre comment les progrès rapides de l’IA générative peuvent être utilisés pour créer une propagande réaliste et émotionnelle. Même si les gens savent que quelque chose n’est pas réel, le contenu peut quand même les influencer. Certaines personnes continuent de partager des deepfakes même lorsqu’elles décrivent des situations trop bizarre pour être crédible.
La réinvention de Gaza, apparemment générée par l’IA, ressemble à une tendance sur TikTok qui utilise l’IA pour restituer des histoires alternatives, déclare Sam Gregory, directeur exécutif de Witness, une organisation à but non lucratif axée sur l’utilisation d’images et de vidéos pour protéger les droits humains. Ici, il semble que l’IA soit utilisée comme « un outil de production bon marché » pour persuader les téléspectateurs ou renforcer un point de vue existant, ou « pour générer une couverture médiatique autour de l’utilisation de l’IA elle-même », explique Gregory.