Avant le coup d’envoi du sommet sur la sécurité de l’IA à Séoul, en Corée du Sud plus tard cette semaine, son co-hôte, le Royaume-Uni, étend ses propres efforts dans ce domaine. L’AI Safety Institute – un organisme britannique créé en novembre 2023 avec pour objectif ambitieux d’évaluer et de gérer les risques liés aux plateformes d’IA – a annoncé qu’il ouvrirait un deuxième site… à San Francisco.
L’idée est de se rapprocher de ce qui est actuellement l’épicentre du développement de l’IA, la Bay Area abritant OpenAI, Anthropic, Google et Meta, entre autres, développant une technologie fondamentale de l’IA.
Les modèles fondamentaux sont les éléments constitutifs des services d’IA générative et d’autres applications, et il est intéressant de noter que bien que le Royaume-Uni ait signé un protocole d’accord avec les États-Unis pour que les deux pays collaborent sur des initiatives de sécurité de l’IA, le Royaume-Uni choisit toujours d’investir dans la création d’un présence directe aux États-Unis pour résoudre ce problème.
« En ayant des gens sur le terrain à San Francisco, cela leur donnera accès au siège de bon nombre de ces sociétés d’IA », a déclaré Michelle Donelan, secrétaire d’État britannique à la science, à l’innovation et à la technologie, dans une interview avec TechCrunch. « Un certain nombre d’entre eux ont des bases ici au Royaume-Uni, mais nous pensons qu’il serait très utile d’avoir une base là-bas également, d’avoir accès à un vivier supplémentaire de talents et de pouvoir travailler encore plus en collaboration et main dans la main. avec les États-Unis. »
Cela s’explique en partie par le fait que, pour le Royaume-Uni, se rapprocher de cet épicentre est utile non seulement pour comprendre ce qui est en cours de construction, mais aussi parce que cela donne au Royaume-Uni plus de visibilité auprès de ces entreprises – ce qui est important, étant donné que l’IA et la technologie en général sont vues par le Royaume-Uni comme une énorme opportunité de croissance économique et d’investissement.
Et étant donné le dernier drame d’OpenAI autour de son Équipe de superalignementcela semble être un moment particulièrement opportun pour y établir une présence.
L’AI Safety Institute, lancé en novembre 2023, est actuellement une affaire relativement modeste. L’organisation ne compte aujourd’hui que 32 personnes qui y travaillent, un véritable David contre Goliath de la technologie de l’IA, si l’on considère les milliards de dollars d’investissement qui reposent sur les entreprises qui construisent des modèles d’IA, et donc leurs propres motivations économiques pour obtenir leurs technologies. à la porte et entre les mains des utilisateurs payants.
L’un des développements les plus notables de l’AI Safety Institute a été la publication, au début du mois, de Inspecterson premier ensemble d’outils pour tester la sécurité des modèles d’IA fondamentaux.
Donelan a qualifié aujourd’hui cette publication de « phase un ». Non seulement il s’est avéré difficile à ce jour, aux modèles de référence, mais pour l’instant, l’engagement est essentiellement un accord volontaire et incohérent. Comme l’a souligné une source haut placée au sein d’un régulateur britannique, les entreprises n’ont aucune obligation légale de faire vérifier leurs modèles à ce stade ; et toutes les entreprises ne sont pas disposées à faire vérifier leurs modèles avant leur sortie. Cela pourrait signifier que, dans les cas où un risque pourrait être identifié, le cheval pourrait déjà s’être enfui.
Donelan a déclaré que l’AI Safety Institute était encore en train de développer la meilleure façon de collaborer avec les entreprises d’IA pour les évaluer. « Notre processus d’évaluation est une science émergente en soi », a-t-elle déclaré. « Ainsi, à chaque évaluation, nous développerons le processus et le peaufinerons encore plus. »
Donelan a déclaré que l’un des objectifs à Séoul serait de présenter Inspect aux régulateurs réunis lors du sommet, dans le but de les amener à l’adopter également.
« Nous disposons désormais d’un système d’évaluation. La deuxième phase doit également viser à rendre l’IA sûre dans l’ensemble de la société », a-t-elle déclaré.
À plus long terme, Donelan estime que le Royaume-Uni élaborera davantage de législation sur l’IA, même si, répétant ce que le Premier ministre Rishi Sunak a dit sur le sujet, il résistera jusqu’à ce qu’il comprenne mieux l’étendue des risques liés à l’IA.
« Nous ne croyons pas à l’importance de légiférer avant d’avoir une bonne maîtrise et une compréhension complète », a-t-elle déclaré, soulignant que le récent rapport international sur la sécurité de l’IA, publié par l’institut, visait principalement à tenter d’obtenir une image complète de la recherche à ce jour, « a souligné qu’il manque de grandes lacunes et que nous devons inciter et encourager davantage de recherche à l’échelle mondiale.
« Et il faut également environ un an pour légiférer au Royaume-Uni. Et si nous avions juste commencé à légiférer au lieu d’organiser le Sommet sur la sécurité de l’IA (qui s’est tenu en novembre de l’année dernière), nous légiférerions encore maintenant, et nous n’aurions en fait rien à démontrer.»
« Depuis le premier jour de l’Institut, nous avons clairement indiqué l’importance d’adopter une approche internationale en matière de sécurité de l’IA, de partager la recherche et de travailler en collaboration avec d’autres pays pour tester des modèles et anticiper les risques liés à l’IA de pointe », a déclaré Ian Hogarth, président de l’Institut. l’Institut de sécurité de l’IA. « Aujourd’hui marque un moment charnière qui nous permet de faire avancer davantage ce programme, et nous sommes fiers d’étendre nos opérations dans une région regorgeant de talents technologiques, en ajoutant à l’incroyable expertise que notre personnel à Londres a apporté depuis le tout début.