Il y a plus d’un milliard de caméras qui enregistrent nos faits et gestes sur la planète. Cela pose de nombreux problèmes, alertent des investisseurs de premier plan et les autorités européennes de protection des données. (Photo: Shutterstock)

Il y a plus d’un milliard de caméras qui enregistrent nos faits et gestes sur la planète. Cela pose de nombreux problèmes, alertent des investisseurs de premier plan et les autorités européennes de protection des données. (Photo: Shutterstock)

Après Candriam et 50 investisseurs à 4.500 milliards de dollars, l’EDPB et l’EDPS ont signé un appel commun, à destination des gouvernants européens, à beaucoup mieux encadrer la reconnaissance faciale dans la directive européenne sur l’intelligence artificielle. Voire à en interdire certaines dimensions.

Brenda Lee Pastrana n’est pas encore reconnue dans la rue. La pétition de cette habitante de Floride sur change.org pour se plaindre d’id.me, la solution retenue par les autorités pour lutter contre la fraude aux allocations de chômage, n’a encore recueilli que 80 signatures. Sur les 400.000 inscrits au régime d’aide de cet État, ils sont, selon elle, des centaines à ne plus avoir accès à aucune indemnité parce que le système de reconnaissance faciale les a «éliminés».

La start-up, qui a levé 110 millions de dollars fin mars et accédé au prestigieux statut de licorne, enregistre 70.000 nouveaux utilisateurs chaque jour, 39 millions au total, et est la solution retenue par les principales agences fédérales américaines, ainsi que les autorités de 22 États américains et 400 marques. Pas le temps de répondre à des polémiques pour savoir si sa solution a ou n’a pas de problème…

Cet exemple de dérives de la technologie de reconnaissance faciale n’est pas un cas anecdotique. Début juin, , qui «pèsent» pour 4.500 milliards de dollars, pour réclamer davantage de transparence et la correction de biais qui pourraient apparaître. Dans cette menace à peine voilée, ces spécialistes invitent les sociétés qui œuvrent dans ce secteur à apporter toute la précision sur leur technologie et à la faire évaluer par un organisme reconnu ou institution d’évaluation scientifique compétente; à divulguer la ou les source(s) de leurs bases de données d’images; à démontrer que leur technologie est surveillée en permanence pour détecter les biais algorithmiques, notamment de race, de sexe ou d’âge; à faire preuve de diligence raisonnable envers les clients avant de rendre la technologie disponible pour eux; à démontrer que des mécanismes de réclamation efficaces sont en place pour permettre aux victimes de signaler les conséquences et accéder aux recours.

Des problèmes largement pris en compte, avait déjà indiqué l’Institut américain pour les normes et la technologie (NIST), . «Les meilleurs algorithmes de reconnaissance faciale au monde sont très précis et présentent des différences infimes dans leurs taux de lectures faussement positives ou faussement négatives selon les groupes démographiques», avait conclu le NIST en début d’année 2020. «Par exemple, 17 des algorithmes de vérification les plus performants avaient des niveaux de précision similaires pour les femmes noires et les hommes blancs: taux de faux négatifs de 0,49% ou moins pour les femmes noires (équivalent à un taux d’erreur inférieur à 1 sur 200) et 0,85% ou moins pour les hommes blancs (équivalent à un taux d’erreur de moins de 1,7 sur 200).»

Les autorités de la protection des données contre toute exception

La semaine dernière, , les deux autorités indépendantes de la protection de la donnée, l’EDPB (European Data Protection Board, ou Comité européen de la protection des données) et l’EDPS (European Data Protection Supervisor, ou Contrôleur européen de la protection des données), ont appelé à l’interdiction de ces technologies.

Sont visés les systèmes de «reconnaissance des visages, de la démarche, des empreintes digitales, de l’ADN, de la voix (…) et d’autres signaux biométriques ou comportementaux, quel que soit le contexte».

La Commission européenne, qui s’est dite opposée à la reconnaissance faciale par principe, avait toutefois un certain nombre de brèches, dans un projet législatif publié le 21 avril, pour faciliter le travail de la police, par exemple dans la recherche d’un enfant disparu, pour prévenir une menace terroriste imminente, ou encore pour retrouver l’auteur d’un crime grave.

Un point de vue balayé par Andrea Jelinek, présidente de l’EDPB, et Wojciech Wiewiórowski, chef de l’EDPS: «Le déploiement de l’identification biométrique à distance dans des espaces accessibles au public signifie la fin de l’anonymat dans ces lieux. Des applications telles que la reconnaissance faciale interfèrent avec les droits et libertés fondamentaux à un point tel qu’elles peuvent remettre en cause l’essence de ces droits et libertés.»

Chercheurs et hackers aux avant-postes de la lutte

De nombreux experts travaillent autour de cette problématique. Comme des chercheurs de Brest, dans l’ouest de la France, qui devraient «publier», d’ici la fin de l’année, un dispositif qui chiffrera les résultats de la reconnaissance faciale par défaut pour ne permettre un déchiffrage que dans certains cas. 

«Notre idée a été de transformer l’image captée par un dispositif de reconnaissance faciale en une information cryptée et d’identifier la personne à partir de ces données chiffrées. Par exemple, dans le cadre d’une enquête, la police va introduire la photo d’un individu qu’elle recherche dans notre base de données. L’image sera d’abord cryptée, et cette signature numérique chiffrée correspondra à celle de la personne dans la rue, si elle passe devant une caméra», explique Ayman Alfalou, chercheur au laboratoire LabISEN et directeur de recherche de l’école d’ingénieurs ISEN Yncréa Ouest, .

«Dans cet exemple, nous distinguons deux cas de figure: soit la personne dispose déjà d’une signature cryptée dans notre base, soit la personne qui passe devant les caméras n’est pas recherchée, et son image, qui apparaît à l’écran de façon illisible, ne permet pas de l’identifier. Ce dispositif peut être employé pour sécuriser l’accès à un bâtiment, mais aussi utilisé pour sécuriser des lieux publics et étudier les comportements de façon totalement anonyme des personnes qui déambulent dans les rues», dit-il encore. «Notre laboratoire LabISEN a passé un contrat avec la Ville de Nice pour déployer ce procédé dans le cadre de son projet Safe City, qui consiste à sécuriser l’agglomération, suite aux attentats de 2015.»

Gares, centrales nucléaires, grands magasins et tous les lieux dits sensibles qui accueillent du public sont susceptibles d’utiliser ce produit très vite. Ce prototype n’est qu’une des nombreuses tentatives lancées sur la planète pour neutraliser des systèmes que les hackers n’espèrent pas voir stoppés par les autorités, .

estime à 8,5 milliards de dollars le marché de la reconnaissance faciale en 2025.