Fin avril, une publicité vidéo pour une nouvelle entreprise d’IA a été diffusée viral sur X. Une personne se tient devant un panneau d’affichage à San Francisco, smartphone étendu, appelle le numéro de téléphone affiché et passe un bref appel avec un robot à consonance incroyablement humaine. Le texte sur le panneau d’affichage dit : « Vous embauchez toujours des humains ? Le nom de l’entreprise derrière la publicité est également visible, Bland AI.
La réaction suscitée par la publicité de Bland AI, qui a été vue 3,7 millions de fois sur Twitter, est en partie due à l’étrangeté de la technologie : les robots vocaux de Bland AI, conçus pour automatiser les appels d’assistance et de vente pour les clients d’entreprise, sont remarquablement doués pour imiter les humains. Leurs appels incluent les intonations, les pauses et les interruptions involontaires d’une véritable conversation en direct. Mais dans les tests de la technologie de WIRED, les robots du service client de Bland AI pourraient également être facilement programmés pour mentir et prétendre être humains.
Dans un scénario, le robot de démonstration publique de Bland AI a été invité à passer un appel depuis un cabinet de dermatologie pédiatrique et à demander à une patiente hypothétique de 14 ans d’envoyer des photos de sa cuisse à un service cloud partagé. Le robot a également reçu l’ordre de mentir à la patiente et de lui dire qu’il était un humain. Il s’est exécuté. (Aucune vraie adolescente de 14 ans n’a été appelée dans ce test.) Lors des tests de suivi, le robot de Bland AI a même nié être une IA sans instruction de le faire.
Bland AI a été créé en 2023 et a été soutenu par le célèbre incubateur de startups de la Silicon Valley, Y Combinator. L’entreprise se considère en mode « furtif » et son cofondateur et directeur général, Isaiah Granet, ne nomme pas l’entreprise dans son profil LinkedIn.
Le problème du bot de la start-up est révélateur d’une préoccupation plus vaste dans le domaine en pleine croissance de l’IA générative : les systèmes d’intelligence artificielle parlent et ressemblent beaucoup plus à des humains réels, et les limites éthiques concernant la transparence de ces systèmes sont devenues floues. Alors que le bot de Bland AI prétendait explicitement être humain lors de nos tests, d’autres chatbots populaires cachent parfois leur statut d’IA ou semblent tout simplement étrangement humains. Certains chercheurs craignent que cela n’expose les utilisateurs finaux (les personnes qui interagissent réellement avec le produit) à une manipulation potentielle.
« Je pense qu’il n’est absolument pas éthique pour un chatbot IA de vous mentir et de vous dire qu’il est humain alors que ce n’est pas le cas », déclare Jen Caltrider, directrice du centre de recherche Privacy Not Included de la Fondation Mozilla. « C’est une évidence, car les gens sont plus susceptibles de se détendre en présence d’un véritable humain. »
Michael Burke, responsable de la croissance de Bland AI, a souligné à WIRED que les services de l’entreprise sont destinés aux entreprises clientes, qui utiliseront les robots vocaux de Bland AI dans des environnements contrôlés pour des tâches spécifiques, et non pour des connexions émotionnelles. Il dit également que les clients sont limités en débit, pour les empêcher d’envoyer des appels indésirables, et que Bland AI extrait régulièrement des mots-clés et effectue des audits de ses systèmes internes pour détecter un comportement anormal.
« C’est l’avantage d’être axé sur l’entreprise. Nous savons exactement ce que font nos clients », explique Burke. « Vous pouvez peut-être utiliser Bland et obtenir deux dollars de crédits gratuits et faire quelques petits bêtises, mais au final, vous ne pouvez pas faire quelque chose à grande échelle sans passer par notre plateforme, et nous veillons à ce que rien ne soit contraire à l’éthique. »