L’Union européenne a franchi une nouvelle étape majeure dans la régulation de l’intelligence artificielle (IA) avec l’adoption du Règlement (UE) 2024/1689, également appelé Règlement sur l’intelligence artificielle. Ce texte, voté par le Parlement européen et le Conseil, vise à instaurer un cadre juridique harmonisé pour le développement et l’utilisation des systèmes d’IA dans l’Union européenne. Il reflète une volonté claire de l’UE de conjuguer l’innovation technologique avec la protection des droits fondamentaux.
1. Pourquoi un cadre légal pour l’IA :
Les systèmes d’intelligence artificielle constituent un potentiel de développement très important pour les sociétés et peuvent générer d’énormes bénéfices économiques et sociétaux, en optimisant des processus dans divers secteurs tels que la santé, mais ils posent des risques nouveaux, notamment en matière de droits fondamentaux, de santé, et de sécurité, particulièrement lorsqu’ils ne sont pas correctement encadrés.
L’un des principaux objectifs du Règlement (UE) 2024/1689 est donc de garantir que les systèmes d’IA utilisés en Europe soient dignes de confiance, respectueux des droits de chacun, et alignés avec les valeurs démocratiques de l’UE, telles que la protection de la vie privée, la non-discrimination et la sécurité.
L’un des principaux objectifs de ce du Règlement (UE) 2024/1689 est donc de garantir que les systèmes d’IA utilisés en Europe soient dignes de confiance, respectueux des droits de chacun, et alignés avec les valeurs démocratiques de l’UE, telles que la protection de la vie privée, la non-discrimination et la sécurité.
2. Un cadre harmonisé pour une IA de confiance :
Le Règlement 2024/1689 impose donc des règles harmonisées sur l’utilisation des systèmes d’IA au sein du marché intérieur, favorisant ainsi la libre circulation des produits et services tout en empêchant les États membres d’imposer des restrictions locales divergentes. L’objectif est de créer un marché unique de l’IA, où innovation et protection des droits fondamentaux vont de pair.
3. Des mesures phares pour encadrer les risques :
L’un des points clés du règlement est la catégorisation des systèmes d’IA en fonction de leur niveau de risque. Ceux considérés comme « à haut risque » seront soumis à des obligations strictes, notamment :
- Évaluation de la conformité avant leur mise sur le marché.
- Obligations en matière de transparence, avec des exigences claires sur la documentation technique et la communication des risques potentiels.
- Surveillance continue des systèmes après leur mise en service pour s’assurer qu’ils ne représentent pas de danger pour la sécurité ou les droits fondamentaux.
4. Garantir une action et un contrôle humains :
Le règlement met un point d’honneur à garantir que l’intelligence artificielle reste un outil sous le contrôle des humains. L’un des principes fondamentaux du texte est que l’IA doit toujours être utilisée pour renforcer l’autonomie humaine et non pour la restreindre. Cela signifie que les systèmes d’IA ne doivent pas prendre de décisions critiques sans la supervision et l’intervention humaines, garantissant ainsi que les personnes gardent la maîtrise des décisions importantes.
Ce contrôle humain se traduit par des obligations de transparence et d’explicabilité. Les systèmes d’IA doivent être conçus de manière à ce que les utilisateurs soient conscients qu’ils interagissent avec une IA et puissent comprendre son fonctionnement, ses limites et ses effets potentiels.
5. Des pratiques d’IA inacceptables interdites :
Certains usages de l’IA sont jugés inacceptables et interdits par le règlement. Parmi eux :
- La manipulation comportementale via des techniques subliminales qui altèrent le comportement des personnes à leur insu.
- La notation sociale des citoyens par des acteurs publics ou privés, qui pourrait conduire à des discriminations basées sur le comportement social ou des caractéristiques personnelles.
- L’identification biométrique à distance en temps réel dans les espaces publics à des fins répressives, sauf dans des situations très encadrées (comme la recherche de personnes disparues ou la prévention d’attentats).
6. Protection des données personnelles et transparence :
Le règlement renforce également la protection des données personnelles, un enjeu crucial dans l’usage de l’IA, en veillant à ce que les systèmes d’IA respectent le cadre existant (comme le RGPD). De plus, des obligations de transparence sont imposées aux opérateurs pour que les utilisateurs soient toujours informés lorsqu’ils interagissent avec un système d’IA, et pour garantir la traçabilité des décisions prises par ces systèmes.
7. Encourager l’innovation tout en protégeant les citoyens :
Tout en posant des restrictions et des interdictions sur certains usages de l’IA, le règlement met en place des mesures d’encouragement à l’innovation, en particulier pour les petites et moyennes entreprises (PME). Il permet aussi la mise en place de bacs à sable réglementaires, offrant un espace contrôlé pour tester des systèmes d’IA dans des conditions réelles avant leur commercialisation.
Conclusion : une IA à la fois innovante et responsable
Le Règlement (UE) 2024/1689 marque un tournant décisif dans l’encadrement de l’intelligence artificielle au sein de l’Union Européenne, laquelle a fait le choix de garantir à la fois un environnement propice à l’innovation et un cadre strict pour protéger les droits et libertés fondamentaux de ses citoyens. Ce règlement offre aux entreprises, aux citoyens et aux gouvernements une ligne directrice claire pour exploiter tout le potentiel de l’IA tout en limitant les risques associés.
⇒ Mark SURMAN, avocat