Vers l’adoption d’un cadre réglementaire Européen pour les systèmes d’Intelligence Artificielle (IA)

La fin de l’année 2023 semble marquer un tournant concernant le cadre légal et réglementaire applicable aux systèmes d’Intelligence Artificielle (IA) basés sur l’apprentissage automatique (ou Machine Learning) avec l’entrée dans la dernière phase d’étude de la Proposition de Règlement du Parlement Européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle.


 

En effet, le 14 juin dernier le Parlement européen a adopté sa position de négociation concernant la Proposition de Règlement sur l’Intelligence Artificielle (IA) et le processus d’adoption de ce texte réglementaire est désormais entré en phase de pourparlers avec les pays membres de l’UE.

Plus récemment, le 24 octobre dernier, les négociations interinstitutionnelles entre le Conseil, le Parlement et la Commission ont abouti à un accord partiel (à savoir sur les dispositifs concernant la classification des applications d’IA à haut risque), et les discussions se poursuivront lors de la prochaine réunion fixée à décembre prochain.

L’objectif clairement affiché par les Institutions européennes est de parvenir à un accord avant la fin de l’année 2023.

Pour mémoire, cette Proposition de Règlement datée du 21 avril 2021 fait notamment suite au développement massif des technologies d’IA développées au cours des dernières années, telles que notamment ChatGPT pour n’en citer qu’une…

Dans ce contexte, le Parlement Européen et le Conseil ont effectivement pris conscience de l’importance de légiférer en matière d’Intelligence Artificielle et ont publié cette Proposition de Règlement qui poursuit un objectif général consistant à assurer le bon fonctionnement du marché unique Européen en créant les conditions applicables au développement et à l’utilisation de systèmes d’IA fiables sur le territoire de l’Union Européenne.

A ce titre, la Proposition de Règlement définit en conséquence un cadre juridique harmonisé pour le développement, la mise sur le marché et l’utilisation de produits et services impliquant l’utilisant de l’IA, aux fins notamment de :

  • garantir que les systèmes d’IA mis sur le marché de l’UE sont sûrs et respectent la législation en vigueur ;
  • garantir la sécurité juridique afin de faciliter les investissements et l’innovation dans le domaine de l’IA ;
  • améliorer la gouvernance et l’application effective de la réglementation européenne définissant les droits fondamentaux des personnes concernées et les exigences de sécurité applicables aux systèmes d’IA, ce qui apparait comme étant étroitement lié aux problématiques relatives à la protection des personnes physiques au regard du traitement de leurs données personnelles telles que prévues par le RGPD du 27 avril 2016.

 

La version amendée de la Proposition de Règlement adoptée le 14 juin 2023 prévoit ainsi un certain nombre de mesures phares, ce incluant :

  • une définition amendée de la notion de « systèmes d’intelligence artificielle » : alignée avec celle de l’OCED, à savoir : « système d’intelligence artificielle » (système d’IA), un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels » ;

 

  • l’établissement d’une liste des systèmes d’IA interdits en raison de la création d’un risque inacceptable pour la sécurité et les droits fondamentaux des personnes concernées. Ces systèmes interdits incluent notamment les systèmes d’identification biométriques, les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, le sexe, la race, l’appartenance ethnique, le statut de citoyen, la religion, l’orientation politique) ou encore les systèmes de police prédictive (basés sur le profilage, la localisation ou le comportement criminel antérieur) ;

 

  • la définition des systèmes d’IA à haut risque (risque significatif), c’est-à-dire ayant un impact négatif sur la santé, la sécurité des personnes concernées ou leurs droits fondamentaux, qui ne sont pas interdits mais impliquent une vigilance particulière et notamment l’obligation de réaliser une évaluation de l’impact d’un tel système sur les droits fondamentaux des personnes concernées (i.e., « Fundamental rights impact assessment ») ;

 

  • les obligations du fournisseur d’un système d’IA à finalité générale (tel que défini à l’article 28 ter de la Proposition de Règlement), en particulier l’obligation d’assurer une protection renforcée des droits fondamentaux, de la santé, de la sécurité, de l’environnement, de la démocratie et de l’État de droit. Les fournisseurs de ces systèmes seraient tenus d’évaluer et d’atténuer les risques que leurs modèles comportent, de se conformer à certaines exigences en matière de conception, d’information et d’environnement et de s’enregistrer. Ils seraient par ailleurs tenus d’évaluer et d’atténuer les risques que leurs modèles comportent, de respecter certaines exigences en matière de conception, d’information et d’environnement et d’enregistrer ces modèles dans une base de données européenne ;

 

  • les règles de gouvernance et de mise en œuvre du Règlement sur l’IA, en renforçant les compétences des autorités nationales en prévoyant le pouvoir de demander l’accès aux modèles de formation et d’entraînement des systèmes d’IA, y compris les modèles de base. La Proposition de Règlement dans sa version amendée prévoit par ailleurs la création d’un nouvel organe de l’UE, l’Office de l’IA, chargé de soutenir l’application harmonisée du Règlement, de fournir des orientations et de coordonner les investigations transfrontalières. La Proposition de Règlement a en outre pour objectif de renforcer les droits des citoyens, notamment la possibilité de déposer des plaintes contre des systèmes d’IA, et de recevoir des explications sur des décisions automatisées basées sur des systèmes d’IA à haut risque qui ont un impact significatif sur leurs droits ;

 

  • Enfin, la Proposition de Règlement en cours de discussions prévoit que les activités de recherche et le développement de composants d’IA libres et gratuits (« free and open-source AI components ») seraient largement exemptés du respect des règles du Règlement afin de soutenir l’innovation.

 

Au vu de ces quelques exemples de dispositions contenues dans la Proposition de Règlement sur l’Intelligence Artificielle, force est de constater que la priorité du Parlement européen est de s’assurer de la protection des droits et libertés fondamentaux des citoyens de l’UE, tout comme le RGPD, en veillant au déploiement de systèmes d’IA sûrs, transparents et non-discriminatoires.

Nous suivrons donc avec grande attention les prochaines discussions interinstitutionnelles prévues le 6 décembre prochain.

Pour en savoir davantage : cliquez ici.

Mark SURMAN, Avocat

Partager l'article