Le Loi européenne sur l’IA entre en vigueur aujourd’hui, définissant les réglementations pour le développement, la commercialisation, la mise en œuvre et l’utilisation de l’intelligence artificielle dans l’Union européenne.
Le Conseil a écrit que la loi vise à « promouvoir l’adoption d’une intelligence artificielle centrée sur l’humain et digne de confiance tout en garantissant un niveau élevé de protection de la santé, de la sécurité (et) des droits fondamentaux… y compris la démocratie, l’État de droit et la protection de l’environnement, pour protéger contre les effets néfastes des systèmes d’IA dans l’Union et pour soutenir l’innovation. »
Selon la loi, les cas d’utilisation à haut risque de l’IA comprennent :
-
Mise en œuvre de la technologie au sein des dispositifs médicaux.
-
Je l’utilise pour l’identification biométrique.
-
Déterminer l’accès à des services tels que les soins de santé.
-
Toute forme de traitement automatisé de données personnelles.
-
Reconnaissance émotionnelle pour des raisons médicales ou de sécurité.
L’identification biométrique est définie comme « la reconnaissance automatisée de caractéristiques physiques, physiologiques et comportementales humaines telles que le visage, le mouvement des yeux, la forme du corps, la voix, la prosodie, la démarche, la posture, le rythme cardiaque, la pression artérielle, l’odeur, les caractéristiques de frappe au clavier, dans le but d’établir l’identité d’un individu en comparant les données biométriques de cet individu aux données biométriques stockées des individus dans une base de données de référence, que l’individu ait donné son consentement ou non », ont écrit les régulateurs.
La réglementation sur l’identification biométrique exclut l’utilisation de l’IA à des fins d’authentification, par exemple pour confirmer qu’une personne est bien la personne qu’elle prétend être.
La loi stipule qu’une attention particulière doit être portée lors de l’utilisation de l’IA pour déterminer si une personne doit avoir accès à des services publics et privés essentiels, tels que les soins de santé en cas de maternité, d’accident du travail, de maladie, de perte d’emploi, de dépendance ou de vieillesse, et l’aide sociale et au logement, car cela serait classé comme à haut risque.
L’utilisation de technologies de traitement automatisé des données personnelles est également considérée comme à haut risque.
« L’espace européen des données de santé facilitera l’accès non discriminatoire aux données de santé et la formation d’algorithmes d’IA sur ces ensembles de données, de manière préservant la vie privée, sécurisée, opportune, transparente et fiable, et avec une gouvernance institutionnelle appropriée », peut-on lire dans la loi.
« Les autorités compétentes concernées, y compris sectorielles, qui fournissent ou soutiennent l’accès aux données peuvent également soutenir la fourniture de données de haute qualité pour la formation, la validation et le test des systèmes d’IA. »
Lorsqu’il s’agit de tester des systèmes d’IA à haut risque, les entreprises doivent les tester dans des conditions réelles et obtenir le consentement éclairé des participants.
Les organisations doivent également conserver des enregistrements (journaux) des événements qui se produisent pendant les tests de leurs systèmes pendant au moins six mois, et les incidents graves qui se produisent pendant les tests doivent être signalés aux autorités de surveillance du marché des États membres où l’incident s’est produit.
La loi stipule que l’IA ne doit pas être utilisée pour la reconnaissance émotionnelle concernant « des émotions ou des intentions telles que la joie, la tristesse, la colère, la surprise, le dégoût, l’embarras, l’excitation, la honte, le mépris, la satisfaction et l’amusement ».
Toutefois, l’IA destinée à l’utilisation de la reconnaissance émotionnelle relative à des états physiques, tels que la douleur ou la fatigue, comme les systèmes utilisés pour détecter l’état de fatigue des pilotes ou des conducteurs professionnels afin de prévenir les accidents, n’est pas interdite.
Des exigences de transparence, c’est-à-dire de traçabilité et d’explicabilité, existent pour des applications d’IA spécifiques, telles que les systèmes d’IA interagissant avec des humains, le contenu généré ou manipulé par l’IA (comme les deepfakes) et les systèmes autorisés de reconnaissance émotionnelle et de catégorisation biométrique.
Les entreprises sont également tenues d’éliminer ou de réduire le risque de biais dans leurs applications d’IA et de remédier aux biais lorsqu’ils surviennent à l’aide de mesures d’atténuation.
La loi souligne l’intention du Conseil de protéger les citoyens de l’UE contre les risques potentiels de l’IA ; elle précise cependant que son objectif n’est pas d’étouffer l’innovation.
« Ce règlement devrait soutenir l’innovation, respecter la liberté de la science et ne pas porter atteinte à l’activité de recherche et développement. Il est donc nécessaire d’exclure de son champ d’application les systèmes et modèles d’IA spécifiquement développés et mis en service aux seules fins de la recherche et du développement scientifiques », ont écrit les régulateurs.
« En outre, il est nécessaire de veiller à ce que le présent règlement n’affecte pas les activités de recherche et de développement scientifiques sur les systèmes ou modèles d’IA avant leur mise sur le marché ou leur mise en service. »
Le système de santé HIMSS La cyber-sécurité Le forum devrait se tenir du 31 octobre au 1er novembre à Washington, DC En savoir plus et s’inscrire.