OpenAI s’associe au Los Alamos National Laboratory pour étudier comment l’intelligence artificielle peut être utilisée pour lutter contre les menaces biologiques qui pourraient être créées par des non-experts utilisant des outils d’IA, selon les annonces faites mercredi par les deux organisations. Le laboratoire de Los Alamos, créé au Nouveau-Mexique pendant la Seconde Guerre mondiale pour développer la bombe atomique, a qualifié cet effort d’étude « première en son genre » sur la biosécurité de l’IA et les façons dont l’IA peut être utilisée en laboratoire.
La différence entre les deux déclarations publiées mercredi par OpenAI et le laboratoire de Los Alamos est assez frappante. déclaration tente de présenter le partenariat comme une simple étude sur la manière dont l’IA « peut être utilisée en toute sécurité par les scientifiques en laboratoire pour faire progresser la recherche bioscientifique ». Et pourtant, le laboratoire de Los Alamos met beaucoup plus d’emphase sur le fait que des recherches antérieures « ont révélé que ChatGPT-4 apportait une légère amélioration dans la fourniture d’informations pouvant conduire à la création de menaces biologiques ».
Une grande partie du débat public sur les menaces posées par l’IA s’est concentrée sur la création d’une entité consciente d’elle-même qui pourrait éventuellement développer un esprit propre et nuire à l’humanité d’une manière ou d’une autre. Certains craignent que la réalisation de l’AGI (intelligence générale avancée, où l’IA peut effectuer un raisonnement et une logique avancés plutôt que d’agir comme un générateur de mots à saisie automatique sophistiqué) puisse conduire à une situation de type Skynet. Et bien que de nombreux promoteurs de l’IA comme Elon Musk et le PDG d’OpenAI, Sam Altman, se soient penchés sur cette caractérisation, il semble que la menace la plus urgente à traiter soit de s’assurer que les gens n’utilisent pas des outils comme ChatGPT pour créer des armes biologiques.
« Les menaces biologiques générées par l’IA pourraient représenter un risque important, mais les travaux existants n’ont pas évalué comment les modèles multimodaux et frontaliers pourraient abaisser la barrière d’entrée pour les non-experts afin de créer une menace biologique », a déclaré le laboratoire de Los Alamos dans un communiqué publié le son site internet.
La différence de positionnement des messages des deux organisations s’explique probablement par le fait qu’OpenAI pourrait être mal à l’aise à l’idée de reconnaître les implications en matière de sécurité nationale liées au fait de souligner que son produit pourrait être utilisé par des terroristes. Pour aller encore plus loin, la déclaration de Los Alamos utilise les termes « menace » ou « menaces » cinq fois, alors que la déclaration d’OpenAI ne l’utilise qu’une seule fois.
« Le potentiel de croissance des capacités de l’IA est infini », a déclaré mercredi dans un communiqué Erick LeBrun, chercheur scientifique à Los Alamos. « Cependant, la mesure et la compréhension des dangers potentiels ou des abus de l’IA avancée liés aux menaces biologiques restent largement inexplorées. Ce travail avec OpenAI est une étape importante vers l’établissement d’un cadre d’évaluation des modèles actuels et futurs, garantissant le développement et le déploiement responsables des technologies de l’IA. »
Los Alamos a envoyé à Gizmodo une déclaration globalement optimiste quant à l’avenir de la technologie, même avec les risques potentiels :
L’intelligence artificielle est passionnante car elle est devenue un puissant moteur de découverte et de progrès dans les domaines de la science et de la technologie. Bien que cela soit en grande partie bénéfique pour la société, il est concevable que les mêmes modèles, entre les mains d’un acteur malveillant, puissent l’utiliser pour synthétiser des informations menant à la possibilité d’un « guide pratique » pour les menaces biologiques. Il est important de considérer que l’IA en elle-même n’est pas une menace, mais plutôt la façon dont elle peut être mal utilisée qui constitue la menace.
Les évaluations précédentes se sont principalement concentrées sur la question de savoir si ces technologies d’IA pouvaient fournir des « guides pratiques » précis. Cependant, même si un acteur malveillant peut avoir accès à un guide précis pour faire quelque chose de néfaste, cela ne signifie pas qu’il en sera capable. Par exemple, vous savez peut-être que vous devez maintenir la stérilité pendant la culture de cellules ou utiliser un spectromètre de masse, mais si vous n’avez pas d’expérience dans ce domaine, cela peut être très difficile à réaliser.
En prenant du recul, nous essayons plus largement de comprendre où et comment ces technologies d’IA ajoutent de la valeur à un flux de travail. L’accès à l’information (par exemple, la génération d’un protocole précis) est un domaine dans lequel elle peut le faire, mais il est moins évident dans quelle mesure ces technologies d’IA peuvent vous aider à apprendre à exécuter avec succès un protocole en laboratoire (ou d’autres activités du monde réel telles que taper dans un ballon de football ou peindre un tableau). Notre première évaluation pilote de technologie cherchera à comprendre comment l’IA permet aux individus d’apprendre à exécuter des protocoles dans le monde réel, ce qui nous permettra de mieux comprendre non seulement comment elle peut contribuer à la science, mais aussi si elle permettrait à un acteur malveillant d’exécuter une activité néfaste en laboratoire.
Les efforts du laboratoire de Los Alamos sont coordonnés par le groupe d’évaluation technique des risques de l’IA.
Correction : une version antérieure de cet article citait à l’origine une déclaration de Los Alamos comme provenant d’OpenAI. Gizmodo regrette l’erreur.