Hoffman et d’autres ont déclaré qu’il n’était pas nécessaire d’interrompre le développement de l’IA. Il a qualifié cette mesure drastique, pour laquelle certains chercheurs en IA ont déposé une pétition, stupide et destructeur. Hoffman s’est identifié comme un « accélérateur » rationnel – quelqu’un qui sait ralentir lorsqu’il prend un virage mais qui, vraisemblablement, est heureux d’accélérer lorsque la route est libre. « Je recommande à tout le monde de venir nous rejoindre au sein du club optimiste, non pas parce que c’est une utopie et que tout se passe bien, mais parce que cela peut faire partie d’une solution incroyable », a-t-il déclaré. « C’est vers cela que nous essayons de construire. »
Mitchell et Buolamwini, artiste en chef et président du groupe de défense des préjudices à l’IA Ligue de justice algorithmique, a déclaré que s’appuyer sur les promesses des entreprises pour atténuer les préjugés et l’utilisation abusive de l’IA ne serait pas suffisant. Selon eux, les gouvernements doivent indiquer clairement que les systèmes d’IA ne peuvent pas porter atteinte aux droits des personnes à un traitement équitable ou à l’humanité. « Ceux qui risquent d’être exploités ou extorqués, voire exterminés », doivent être protégés, a déclaré Buolamwini, ajoutant que les systèmes tels que les drones mortels devraient être arrêtés. « Nous sommes déjà dans un monde où l’IA est dangereuse », a-t-elle déclaré. « Nous avons l’IA comme anges de la mort. »
Les applications telles que les armes sont loin de l’objectif principal d’OpenAI d’aider les codeurs, les écrivains et autres professionnels. Les outils de l’entreprise par leurs termes ne peut pas être utilisé à des fins militaires et de guerre, bien que le principal bailleur de fonds et client enthousiaste d’OpenAI Microsoft a des relations commerciales importantes avec l’armée américaine. Mais Buolamwini a suggéré que les entreprises développant des applications commerciales ne méritaient pas moins d’être surveillées. Alors que l’IA prend en charge des tâches banales telles que la composition, les entreprises doivent être prêtes à prendre en compte les conséquences sociales d’un monde qui pourrait offrir aux travailleurs moins d’opportunités significatives d’apprendre les bases d’un travail qui pourrait s’avérer vital pour devenir hautement qualifié. « Que signifie passer par ce processus de création, trouver le mot juste, trouver comment s’exprimer et apprendre quelque chose dans la lutte pour y parvenir ? » dit-elle.
Fei-Fei Li, informaticien à l’Université de Stanford qui dirige l’Institut pour l’intelligence artificielle centrée sur l’humain de l’école, a déclaré que la communauté de l’IA doit se concentrer sur ses impacts sur les personnes, depuis la dignité individuelle jusqu’aux grandes sociétés. «Je devrais créer un nouveau club appelé techno-humaniste», a-t-elle déclaré. « C’est trop simple de dire : « Voulez-vous accélérer ou décélérer ? » Nous devrions parler de où nous voulons accélérer, et là où nous devrions ralentir.
Li est l’un des pionniers modernes de l’IA, ayant développé le système de vision par ordinateur connu sous le nom d’ImageNet. OpenAI voudrait-il une voix apparemment équilibrée comme la sienne au sein de son nouveau conseil d’administration ? Le président du conseil d’administration d’OpenAI, Bret Taylor, n’a pas répondu à une demande de commentaires. Mais si l’occasion se présentait, Li a déclaré : « J’y réfléchirai attentivement. »