Adobe a clarifié sa mise à jour des conditions d’utilisation, qui a initialement amené les utilisateurs à croire leurs travaux non publiés ont servi de base à la formation en IA.
Adobe dit que oui pas former ses modèles d’IA générative Firefly sur le contenu des utilisateurs et qu’il « ne s’appropriera jamais le travail d’un client ».
Le contrecoup a fait boule de neige cette semaine après que les utilisateurs d’Adobe ont été informés d’une mise à jour de son Conditions d’utilisation politique. Le langage qui a attiré l’attention des gens était une phrase de la section 2.2 qui disait « Nos systèmes automatisés peuvent analyser votre contenu et vos polices client Creative Cloud (définies dans la section 3.10 (Polices client Creative Cloud) ci-dessous) à l’aide de techniques telles que l’apprentissage automatique afin d’améliorer nos services et logiciels et l’expérience utilisateur.
Le tweet a peut-être été supprimé
Adobe a clarifié dans un article de blog que cette partie de la politique n’était pas nouvelle et faisait spécifiquement référence à la modération de contenus illégaux, tels que des contenus pédopornographiques ou des contenus qui enfreignent ses conditions, comme la création de spam ou de tentatives de phishing. « Compte tenu de l’explosion de l’IA générative et de notre engagement en faveur de l’innovation responsable, nous avons ajouté davantage de modération humaine à nos processus d’examen des soumissions de contenu », indique le billet de blog. Ainsi, davantage de modération humaine a été ajoutée, et non plus de modération automatisée.
Vitesse de la lumière écrasable
Mais comme Adobe n’a pas précisé exactement ce qui avait été mis à jour dans les conditions, les utilisateurs ont supposé que cette section signifiait que des travaux non publiés, y compris du contenu confidentiel, pouvaient être utilisés pour entraîner ses modèles d’IA. « Nos engagements envers nos clients n’ont pas changé », indique le blog. Adobe a expliqué que ses modèles Firefly sont formés sur du contenu sous licence, notamment Adobe Stock, et sur du contenu du domaine public. Adobe a également affirmé que ses utilisateurs sont propriétaires du travail qu’ils créent sur ses applications.
Le tweet a peut-être été supprimé
Qu’est-ce qu’Adobe a exactement mis à jour dans ses conditions d’utilisation ?
Dans le billet de blog, la société a souligné en rose les endroits où la langue avait été modifiée. Dans la section relative à la confidentialité, au lieu de « accès uniquement », le texte a été remplacé par « peut accéder, afficher ou écouter votre contenu » et a ajouté la ligne « « par des méthodes automatisées et manuelles, mais uniquement » de manière limitée… » Plus loin dans le paragraphe, Adobe a ajouté la ligne » comme indiqué plus en détail dans la section 4.1 ci-dessous. » La section 4.1 est l’endroit où les détails du contenu illégal ou interdit sont décrits. Ce paragraphe a également ajouté » y compris le manuel review » qui fait référence aux méthodes utilisées pour filtrer le contenu d’Adobe. La section a également remplacé « « pornographie » infantile » par « matériel d’abus sexuel d’enfants ».
Rien n’a donc substantiellement changé dans la politique de confidentialité d’Adobe, ce qui peut être un soulagement pour les utilisateurs qui en dépendent pour leurs activités créatives. Cependant, la réaction à la mise à jour vague d’Adobe est une indication de la peur et de la méfiance que ressentent les créatifs alors que l’IA générative menace de bouleverser leur profession. Les modèles d’IA comme ChatGPT, Dall-E, Gemini, Copilot et Midjourney ont être sous le feu des critiques pour avoir été formé sur du contenu récupéré sur le Web qui à son tour automatise l’écriture et la création d’images. Ensuite, il y a Sora d’OpenAIqui n’a pas été rendu public, mais qui est on croit être formés sur des vidéos de YouTube et d’ailleurs.
Dans l’ensemble, c’est une période tendue pour les créatifs et ce n’est pas pour rien qu’ils se méfient des changements qui pourraient menacer leurs moyens de subsistance.
Les sujets
Intelligence artificielle
Confidentialité