POLITIQUE & INSTITUTIONS — Europe

Nouveau plan européen

La biométrie sous surveillance, un symbole pour l’IA



Les technologies liées à la biométrie apportent des bénéfices à des individus ou des consommateurs… mais elles peuvent aussi poser des problèmes à l’application des droits fondamentaux. D’où l’intérêt d’exercer un contrôle – a priori – des développements des algorithmes et autres jeux de données. (Photo: Shutterstock)

Les technologies liées à la biométrie apportent des bénéfices à des individus ou des consommateurs… mais elles peuvent aussi poser des problèmes à l’application des droits fondamentaux. D’où l’intérêt d’exercer un contrôle – a priori – des développements des algorithmes et autres jeux de données. (Photo: Shutterstock)

La mise sous surveillance, par les autorités européennes, de l’identification par la biométrie à distance est le symbole d’une reprise en main de l’intelligence artificielle. Dans la nouvelle stratégie, dévoilée mercredi soir par la Commission européenne, huit secteurs sont classés à risque.

«J’ai une confession à faire. Je n’aime pas vraiment l’intelligence artificielle.» Le commissaire européen au Marché intérieur, Thierry Breton, a directement replacé le sujet à l’endroit où il devrait être. «Ou plutôt: je n’aime pas vraiment le terme ‘intelligence artificielle’. D’abord parce qu’il n’y a pas une seule IA, mais une multitude d’applications pour l’intelligence artificielle.»

«L’intelligence artificielle est la combinaison de trois éléments sur lesquels nous avons un contrôle total: les données, les algorithmes et la puissance de calcul», a poursuivi le commissaire européen. «Ce sont les points sur lesquels nous pouvons agir – la qualité des données, et la transparence des algorithmes en particulier.»

Après avoir enregistré plus de 1.200 contributions à son livre blanc sur l’intelligence artificielle en février, la Commission européenne avance d’un pas, important, avec la mise en place d’un contrôle des intelligences artificielles, à des degrés différents selon les usages qui en sont faits par les entreprises ou les administrations.

Bruxelles a ainsi développé un plan à partir de quatre niveaux de risque et de huit domaines dans lesquels l’intelligence artificielle est de plus en plus utilisée.

- Les risques néfastes «sont contraires aux valeurs de l’UE, parce qu’ils portent atteinte à des droits fondamentaux (par exemple: notation sociale par les gouvernements, exploitation de la vulnérabilité des enfants, recours à des techniques subliminales et – sous réserve d’exceptions strictement limitées – utilisation par les forces de l’ordre de certains systèmes d’identification biométrique en temps réel et à distance dans les lieux accessibles au public)». La conformité avec les droits fondamentaux devra faire au minimum l’objet d’une évaluation, avec l’intervention d’un organisme extérieur. Les États membres devront désigner une autorité de surveillance, qui sera elle-même représentée dans un Comité européen de l’intelligence artificielle, aux côtés de la Commission européenne et du Contrôleur européen de la protection des données.

- Les risques élevés «ont une incidence négative sur la sécurité des personnes ou sur leurs droits fondamentaux (tels que protégés par la charte des droits fondamentaux de l’UE)».

- Les risques limités seront encadrés par des exigences de transparence minimales. Par exemple, un utilisateur ou un consommateur devra être averti qu’il discute avec un chatbot, et non pas avec une personne physique de son assureur ou de son site d’e-commerce.

- Les risques minimaux… pour tous les autres.

De quels secteurs parle-t-on?

Dans l’annexe des documents publiés par la Commission européenne figurent huit domaines visés par ce nouveau cadre réglementaire – qui devra encore passer par le processus législatif habituel de l’UE:

- les systèmes d’identification biométrique et d’identification des personnes en temps réel et a posteriori;

- les systèmes de gestion et opérationnels des infrastructures critiques (gestion du trafic sur les routes, eau, gaz, électricité, chauffage);

- les systèmes utilisés dans l’accès à l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examen);

- les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main-d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement);

- les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt) ou dans l’évaluation de la possibilité d’avoir accès ou pas à des soutiens publics, ou encore les systèmes qui, dans le secteur médical ou des interventions des pompiers, priorisent les interventions;

- toutes les technologies utilisées par les forces de l’ordre pour détecter l’état émotionnel d’une personne, pour détecter les faux, pour évaluer les preuves dans le cadre d’une enquête ou d’une instruction, les outils de profilage ou de prédiction des risques de comportement déviant, ou encore l’utilisation du big data pour faire émerger des liens entre des personnes dans le cadre d’enquêtes;

- les technologies d’IA utilisées dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières (par exemple, la vérification de l’authenticité des documents de voyage);

- les technologies d’IA utilisées dans les domaines de l’administration de la justice et des processus démocratiques (par exemple, l’application de la loi à un ensemble concret de faits).