COMMUNAUTÉS & EXPERTISES — Expertises

TNP Luxembourg

Vers un encadrement renforcé des pratiques d’IA



Vers un encadrement renforcé des pratiques d’IA. (Photo : TNP Luxembourg)

Vers un encadrement renforcé des pratiques d’IA. (Photo : TNP Luxembourg)

Retour sur les principales propositions de l’Artificial Intelligence Act fixant le cadre européen sur l’intelligence artificielle. La data étant au centre de la stratégie du Luxembourg et un élément fondamental pour les acteurs locaux, ces évolutions réglementaires sont un sujet d’agenda prégnant.

Le Luxembourg place la data au cœur de sa stratégie de développement, en témoignent les investissements consentis pour l’installation de data centres ou l’inauguration du HPC Meluxina. Le développement de l’intelligence artificielle (IA), formalisé dans la stratégie nationale publiée en 2019, fait naturellement partie de cette dynamique. Ce développement technologique doit rester cohérent avec le renforcement du cadre réglementaire européen visant à contrôler les pratiques d’IA tout en maintenant la compétitivité de l’UE.

Pour encadrer la production d’IA de « confiance », la Commission européenne a publié le 21 avril 2021 son projet de Règlement, constituant un premier cadre juridique avec pour objectifs de :

•               Établir des règles harmonisées concernant l’IA ;

•               Interdire certaines pratiques en matière d’IA ;

•               Poser des exigences spécifiques pour les systèmes d’IA à haut risque ainsi que des obligations pour les opérateurs de ces systèmes d’IA ;

•               Établir des règles harmonisées pour les systèmes d’IA amenés à interagir avec des personnes physiques, les systèmes de reconnaissance émotionnelle, les systèmes de catégorisation biométrique et les systèmes d’IA utilisés pour générer ou manipuler images, ou contenus audios et vidéos ;

•               Fixer des règles sur le contrôle et la surveillance du marché.

Ce Règlement s’appliquera à la fois aux fournisseurs de systèmes d’IA sur le marché européen (qu’ils soient établis ou non dans l’UE), aux utilisateurs professionnels localisés dans l’UE et aux fournisseurs et utilisateurs professionnels localisés dans un pays tiers, mais dont les résultats produits par le système d’IA sont exploités dans l’UE.

Les quatre principaux axes du Règlement sont les suivants :

1.         Une approche par les risques

Une distinction est faite entre les systèmes d’IA présentant un risque inacceptable, un risque élevé, et ceux présentant un risque limité, voire minime.

Les systèmes d’IA avec un risque inacceptable, parmi lesquels ceux utilisés à des fins de « surveillance de masse », manipulant le comportement, les opinions, les décisions ou permettant la notation sociale par les États (hors cas de sécurité publique), sont interdits.

Les systèmes d’IA présentant un risque élevé comme les technologies d’IA utilisées dans les composants de sécurité des produits avec un impact potentiel sur l’intégrité et les droits fondamentaux des personnes (e.g. chirurgie assistée par robot) doivent se conformer à une série d’exigences en matière de gestion des risques, de gouvernance de la donnée, de transparence ou d’intervention humaine.

Par ailleurs, de tels systèmes d’IA doivent subir des tests de conformité avant toute mise sur le marché ou déploiement :

•               par une autorité tierce (e.g. pour l’identification biométrique à distance des personnes dans les lieux publics),

•               ou par une auto-évaluation du fournisseur (e.g. pour les systèmes pour prioriser les services d’urgence, les outils utilisés pour recruter ou pour évaluer la solvabilité des personnes).

2.         La création d’un Conseil européen dédié à l’IA

Le projet de Règlement prévoit également la création d’un « Conseil européen de l’intelligence artificielle » :

•               Composé d’un représentant de chacun des 27 pays de l’UE, d’un représentant de la Commission et du Contrôleur européen de la protection des données,

•               Qui fera des recommandations sur la liste des pratiques interdites et établira la liste des systèmes à haut risque.

3.         De nouvelles sanctions

En cas de non-respect des exigences de conformité liées aux systèmes d’IA à haut risque, d’infractions aux pratiques interdites ou de non-respect des exigences en matière de données, les fournisseurs encourent des sanctions définies par des seuils pouvant aller jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel mondial de l’exercice précédent.

4.         Le calendrier relatif à l’issue du projet de Règlement

Proposé en avril 2021, le projet de Règlement a été soumis au Parlement européen et au Conseil. Le 20 avril dernier, le Parlement européen a publié une série d’amendements destinés à modifier le texte initial. De nouveaux amendements pourraient être proposés mais le texte final devrait être achevé dans un futur proche, pour une mise en application prévue en 2024.

Conscient que la data est un enjeu clé, le Luxembourg contribue aux initiatives de normalisation des pratiques liées à l’IA. Ainsi, l’ILNAS travaille en collaboration avec différentes parties prenantes à l’élaboration du cadre normatif dont les normes Ethical AI ou la norme ISO IA. Par son positionnement géographique et stratégique, le Luxembourg est un candidat idéal pour être précurseur dans la conception et le déploiement d’IA conforme. Cette tendance autour du développement des outils ou des solutions d’IA remet la data au centre des réflexions des modèles opérationnels des différents acteurs de la place et va nécessiter de travailler sur la chaine de valeur de la data : de la gouvernance de la donnée jusqu’au développement et à l’utilisation d’algorithmes sophistiqués.

Pour aller plus loin :

-       «Ethics by design» et intelligence artificielle

-       Une IA éthique, sans biais et digne de confiance

Plus d’informations ici