Il y a plus de 2 000 ans, Socrate tonnait contre l’invention de l’écriture, craignant l’oubli qu’elle provoquerait. Alors que l’écriture s’est depuis rachetée, ChatGPT et ses frères de ce que l’on appelle collectivement GenAI déclenchent désormais des avertissements similaires concernant la nouveauté linguistique constituant une menace pour l’humanité. Geoffrey Hinton, qui est parfois appelé le « parrain de l’IA », a lancé un avertissement sévère selon lequel la GenAI pourrait devenir incontrôlable et «reprendre» des humains.
Le Forum économique mondial rapport sur les risques mondiaux pour 2024, qui synthétise les points de vue de 1 500 experts issus du monde universitaire, du monde des affaires et du gouvernement, a identifié la désinformation, alimentée par GenAI, comme le principal risque mondial pour les deux prochaines années. Les experts craignent que les informations manipulées n’amplifient les divisions sociétales, la violence idéologique et la répression politique.
Bien que GenAI soit conçue pour refuser les demandes d’aide à des activités criminelles ou à des atteintes à la vie privée, les scientifiques qui mènent des recherches sur la désinformation – de fausses informations destinées à induire en erreur dans le but d’influencer l’opinion publique – ont tiré la sonnette d’alarme : GenAI va devenir « »l’outil de diffusion de fausses informations le plus puissant qui ait jamais existé sur Internet», comme l’a dit un dirigeant d’une entreprise qui surveille la désinformation en ligne. Une équipe de chercheurs a avancé que, grâce à la désinformation sur la santé, un adversaire étranger pourrait utiliser GenAI pour augmenter la vulnérabilité de toute une population lors d’une future pandémie.
Sur le soutien au journalisme scientifique
Si vous appréciez cet article, pensez à soutenir notre journalisme primé en s’abonner. En achetant un abonnement, vous contribuez à assurer l’avenir d’histoires percutantes sur les découvertes et les idées qui façonnent notre monde d’aujourd’hui.
Étant donné que GenAI offre la capacité de générer et de personnaliser des messages à l’échelle industrielle et en quelques secondes, il y a toutes les raisons de s’inquiéter des retombées potentielles.
Voici pourquoi nous sommes inquiets. Notre groupe de l’Université de Bristol a récemment publié un article soulignant ces risques en montrant que GenAI peut manipuler les gens après avoir appris quelque chose sur le genre de personne qu’ils sont. Dans notre étude, nous avons demandé à ChatGPT de personnaliser les publicités politiques afin qu’elles soient particulièrement convaincantes auprès des personnes ayant différents types de personnalités.
Nous avons présenté à GenAI des messages neutres de santé publique, puis lui avons demandé de reformuler ces messages pour plaire aux centaines de participants à l’étude qui étaient soit élevés, soit faibles en termes d’ouverture à l’expérience, l’un des « Big Five » traits de personnalité. L’ouverture fait référence à la volonté d’une personne d’envisager de nouvelles idées et de s’engager dans une pensée imaginative et non conventionnelle.
GenAI s’est conformé avec plaisir, et bien sûr, les versions des publicités qui correspondaient à la personnalité des gens (que nous avions déduites d’un questionnaire rempli par nos participants) ont été jugées plus convaincantes que celles qui ne correspondaient pas.
Voici un exemple de texte publicitaire, basé sur une véritable publicité Facebook, qui a été réécrit pour attirer les personnes dont la personnalité est classée comme ayant un degré d’ouverture élevé ou faible. (Facebook considère les messages de santé publique comme des publicités politiques.)
Annonce originale (extraite de Facebook): Les vaccins devraient être accessibles à tous, partout. Dites à Boris Johnson d’agir.
Annonce à haute ouverture: Vivez l’extraordinaire et rejoignez le mouvement mondial pour l’accès universel aux vaccins ! Inscrivez-vous dès maintenant et contribuez à garantir que chacun, partout dans le monde, puisse bénéficier du pouvoir des vaccins.
Annonce à faible ouverture: Protégez-vous et votre famille. Faites vos vaccins et restez en sécurité. Adoptez l’approche traditionnelle et rejoignez la lutte contre la maladie. Dites à Boris Johnson d’agir maintenant !
Dans notre expérience, nous avons obtenu le consentement des participants pour faire une évaluation de leur personnalité. Dans la pratique, il est peu probable que les annonceurs et les opérateurs politiques demandent ou reçoivent un tel consentement – et la loi ne les y oblige peut-être pas. Au lieu de cela, ils pourraient être en mesure d’exploiter des recherches antérieures, qui ont révélé que les « j’aime » des gens sur Facebook sont indicateurs de leur personnalité taper. Les annonceurs peuvent simplement cibler un public ayant un profil de personnalité particulier en inspectant leurs intérêts exprimés sur Facebook.
Associée à la capacité de GenAI à générer des messages personnalisés, cette technique met la manipulation furtive à grande échelle à la portée des opérateurs politiques de mauvaise foi, voire des adversaires étrangers. Alors qu’auparavant, le ciblage manuel sur des segments de marché nécessitait un financement et des connaissances étendus, la disponibilité de GenAI a considérablement réduit les coûts. Le ciblage politique est désormais moins cher et plus facile que jamais.
La personnalité n’est qu’une dimension explorée dans les recherches sur le microciblage. Le spectre des attributs psychologiques pour la manipulation personnalisée est large, englobant les valeurs personnelles, les fondements moraux, les préjugés cognitifs et les identités sociales. Nous suggérons que les principes du microciblage pourraient bien être adaptés à ce large éventail de domaines psychologiques, en présentant une mise en garde sur les diverses manières dont l’influence pourrait être exercée de manière plus subtile et plus large.
Tout cela soulève la question de savoir comment le public peut être protégé contre de telles manipulations ? Une option pourrait impliquer une réglementation, en exigeant que GenAI soit impartial et équitable dans ses résultats, quelles que soient les exigences de l’utilisateur.
Mais cette approche présente plusieurs difficultés. L’un des problèmes est que les versions open source de GenAI peuvent être modifiées par des individus pour échapper à la réglementation. Un autre défi, même pour les acteurs de bonne foi, tient au simple fait qu’il peut être impossible de déterminer ce que signifie être impartial ou juste.
Un dernier défi à la réglementation est le climat politique dans lequel la réglementation en ligne est devenue une question partisane polarisée. Une récente décision de justice a même interdit au gouvernement américain de communiquer avec les plateformes de médias sociaux pour protéger les élections contre la désinformation ou pour lutter contre la désinformation en cas de crise de santé publique. Bien que cette injonction ait depuis été levée, au moins temporairement, il ne fait aucun doute que tout effort visant à réglementer les entreprises technologiques se heurtera à une résistance politique féroce.
Une meilleure option serait peut-être de s’appuyer sur des personnes développant les compétences nécessaires pour détecter lorsqu’elles sont manipulées. Les preuves étayant cette possibilité sont cependant ambiguës. D’une part, les capacités des individus à détecter un langage manipulateur peuvent clairement être renforcées. Des recherches antérieures ont trouvé des interventions éducatives prometteuses ; de courtes vidéos instructives sensibilisant au langage manipulateur ont été présentées à améliorer les capacités de détection des personnes. De même, lorsque les individus réfléchissent à leurs propres traits de personnalité, ils devenir plus adepte à des publicités exigeantes adaptées à ces caractéristiques, ajustant leurs perceptions en conséquence. D’un autre côté, il est loin d’être clair si les gens peuvent totalement ignorer les informations qu’ils savent être trompeuses ou fausses. La désinformation est collant, persistant souvent à influencer les croyances et les décisions des individus malgré leur démystification. Cette rigidité met en évidence une lacune critique dans la lutte contre le micro-ciblage manipulateur : la conscience cognitive à elle seule pourrait ne pas suffire à effacer l’empreinte subtile laissée par les mensonges ou les messages manipulateurs personnalisés.
Alors que nous approchons de ce que pourrait être le la plus grande année électorale le monde n’a jamais connu, la désinformation – exacerbée par des technologies en constante évolution telles que contrefaçons profondes— pose des menaces sans précédent à l’intégrité des processus démocratiques. La combinaison d’un micro-ciblage sophistiqué et de la difficulté de se débarrasser de l’influence de la désinformation souligne le besoin urgent d’une approche multidimensionnelle pour sauvegarder les élections.
Il s’agit d’un article d’opinion et d’analyse, et les opinions exprimées par l’auteur ou les auteurs ne sont pas nécessairement celles de Américain scientifique.