En avril 2021, la Commission Européenne a publié une proposition de Règlement/législation sur l'intelligence artificielle (« LIA »), mieux connu sous le nom anglais de Artificial Intelligence Act). La LIA serait le premier règlement à fixer des règles horizontales pour le développement, la commercialisation et l'utilisation des systèmes d’intelligence artificielle sur le territoire de l'UE.
Quoi ?
La technologie de l'intelligence artificielle (« IA ») jouera un rôle central dans la transformation numérique, car elle devrait procurer de nombreux avantages économiques et sociétaux à un grand nombre de secteurs (privés et publics). L'IA permet par exemple l'automatisation, la prise de décision intelligente, l'amélioration de l'expérience client et l'efficacité de la recherche.
La LIA s'inscrit dans le cadre plus large de la stratégie et du paquet européens sur l'IA, qui soutiennent l'objectif de faire de l'UE un leader mondial dans le développement d'une IA sûre, sécurisée et éthique. La LIA impose plusieurs nouvelles obligations aux fournisseurs, importateurs, distributeurs et utilisateurs de systèmes d'IA, en fonction du risque que le système d'IA peut représenter pour les humains.
Comment ?
- La LIA adopte une approche fondée sur les risques et introduit une classification des différents systèmes d'IA. Différents "niveaux de risque" (risque minimal, limité, élevé et inacceptable) sont associés à différentes exigences et obligations. Par exemple, les systèmes d'IA présentant un niveau de risque élevé ne peuvent être mis sur le marché de l'UE ou mis en service que s'ils satisfont à plusieurs exigences obligatoires strictes (par exemple, mise en œuvre d'un système de gestion des risques, exigences de qualité ou exigences de transparence) et les systèmes d'IA présentant un niveau de risque inacceptable sont interdits.
Par exemple, les fournisseurs de systèmes d'IA dans l'UE présentant un risque élevé doivent suivre les étapes suivantes pour commercialiser leur système d'IA :
- La LIA interdit un certain nombre de systèmes d'IA qui présentent un risque inacceptable, tels que (i) la notation sociale fondée sur l'IA effectuée à des fins générales par les autorités publiques, (ii) les systèmes d’identification biométriques à distance en temps réel dans des espaces accessibles au public à des fins répressives, (iii) les systèmes d'IA qui exploitent des groupes vulnérables pour altérer substantiellement leur comportement d'une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique pour ces personnes ou d'autres personnes, et (iv) les systèmes d'IA qui ont recours à des techniques subliminales au-dessous du seuil de conscience d’une personne pour altérer substantiellement son comportement d'une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique à cette personne ou à un tiers.
- Les systèmes d'IA destinés à interagir avec des personnes physiques, les systèmes de reconnaissance des émotions et les systèmes de catégorisation biométrique, ainsi que les systèmes d'IA utilisés pour générer ou manipuler des images ou des contenus audio ou vidéo seront soumis à des règles de transparence harmonisées.
- La LIA prévoit la création d'un nouveau European Artificial Intelligence Board (“EAIB”), composé de représentants des États membres, du European Data Protection Supervisor et de la Commission. L'EAIB serait compétent pour émettre des avis, des recommandations et des lignes directrices sur l'application du règlement, pour collecter et partager les meilleures pratiques et pour développer des normes techniques harmonisées. A l'instar des autorités nationales de protection des données dans le cadre du GDPR, les autorités nationales compétentes en matière d'IA surveilleraient l'application et la mise en œuvre de la LIA. L'Espagne et les Pays-Bas ont déjà une longueur d'avance sur la Belgique puisqu'ils ont déjà décidé d'investir dans une telle autorité de surveillance de l’IA.
Qui ?
La LIA aura un large champ d'application et s'appliquera :
- aux fournisseurs, établis dans l’UE ou dans un pays tiers, qui mettent sur le marché ou mettent en service des systèmes d’IA dans l’UE;
- aux utilisateurs de systèmes d’IA situés dans l’UE; et
- aux fournisseurs et aux utilisateurs de systèmes d’IA situés dans un pays tiers, lorsque les résultats générés par le système sont utilisés dans l’UE.
Quand ?
La proposition de la LIA est actuellement examinée par les co-législateurs, le Parlement Européen et le Conseil. Les négociations ont commencé au Conseil pour parvenir à une position commune des états membres. En novembre 2021, la présidence slovène a présenté un rapport d'étape et un texte de compromis sur les discussions menées jusqu'à présent au Conseil sur la proposition de LIA.