COMMUNAUTÉS & EXPERTISES — Expertises

TRANSFORMATION ET ACCÉLÉRATION DE LA PERFORMANCE

«Ethics by design» et intelligence artificielle



« Ethics by design » et intelligence artificielle ( Crédit : TNP Luxembourg )

« Ethics by design » et intelligence artificielle ( Crédit : TNP Luxembourg )

Les acteurs qui utilisent des intelligences artificielles font face à une pression croissante du public et des autorités de contrôle pour être transparents et responsables. Un cadre «ethics by design» pour les algorithmes exploitant des données personnelles apporterait beaucoup de valeur.

L’intelligence artificielle désigne une nouvelle classe d’algorithmes, paramétrés à partir de techniques d’apprentissage: les instructions à exécuter ne sont plus programmées explicitement par un humain, mais générées par la machine qui «apprend» à partir des données qui lui sont fournies. Ces données pouvant être des données personnelles, voire des données sensibles dans les applications médicales, un débat autour de la fiabilité et des discriminations potentielles a émergé. Plusieurs précédents, notamment outre-Atlantique, ont effectivement montré que le profilage suivi d’une décision automatique dans le domaine de la santé entraînait souvent des biais discriminatoires, générant des refus de services injustifiés ou autres décisions défavorables aux personnes. Un livre de Cathy O’Neil paru il y a quelques années qualifiait ces algorithmes, perçus comme infaillibles, d’armes de destruction mathématiques. En Europe, les autorités de surveillance ont publié des points de vue et des recommandations relatifs au traitement des données personnelles et sensibles dans ces contextes spécifiques.

Le profilage suivi d’une décision automatique prend beaucoup d’ampleur depuis des années, que ce soit dans les domaines du marketing, de l’assurance, du crédit, de la lutte contre la fraude, ou encore de la santé… Dans la lignée des précédentes directives de protection des données, le Règlement Général sur la Protection des Données (RGPD) est intervenu pour encadrer ces traitements en complétant les règles habituelles (bases légales, droits des personnes, mesures de sécurité…) par des dispositions spécifiques:

Disposition de transparence: les personnes doivent être informées de l’existence d’une telle décision, de la logique sous-jacente ainsi que de ses conséquences prévues.

Droit à une intervention humaine: toute personne peut demander qu’une personne humaine intervienne, notamment à des fins de réexamen ou de contestation.

Ce sujet est aujourd’hui au cœur des réflexions de divers groupes de travail internationaux, de gouvernements nationaux et d’entreprises.

Les intelligences artificielles qui font du profilage automatique s’appuient sur un apprentissage par définition incomplet et parfois incorrect (avec des données non exhaustives, mal catégorisées ou échantillonnées) orienté par des annotateurs humains pouvant introduire des biais cognitifs. De plus, si une intelligence artificielle fait appel à l’apprentissage profond (deep learning), devenu très populaire depuis 2015 du fait de résultats impressionnants, elle devient alors une «boîte noire» car elle est basée en partie sur des réseaux neuronaux limitant les possibilités de transparence et d’explication. Comment peut-on dès lors profiter des possibilités de l’intelligence artificielle tout en étant conforme et éthique ?

Afin de traiter ces questions, un cadre «ethics by design» pour les intelligences artificielles utilisant des données personnelles pourrait être envisagé, articulé autour de trois principes complémentaires au respect du RGPD:

• Renforcer les droits des personnes concernées et s’engager à fournir des explications vulgarisées;

Combattre les biais dans la collecte et la classification des données, dans le profilage par apprentissage comme dans le processus de décision automatisée;

Augmenter la traçabilité des usages d’intelligences artificielles pour prévenir les utilisations malveillantes.

Dans la pratique, ce cadre pourrait se traduire par plusieurs approches, outils techniques et dispositifs organisationnels, dont:

• Un «Algorithmic Impact Assessment» effectué lors des premières phases d’un projet pour évaluer les risques inhérents à la mise en œuvre d’une IA exploitant des données personnelles (corrélation de données, analyse biaisée…), agir sur la proportionnalité du traitement, identifier les mesures de contrôle (transparence, responsabilité, auditabilité…) et orienter le choix des algorithmes et de la méthode d’apprentissage et ainsi prévenir les abus;

• Un contrôle permanent et un audit régulier de l’IA sur les phases d’apprentissage et la prise de décision et le suivi de son utilisation afin d’identifier et réduire les risques de discrimination et ainsi garantir des décisions équitables. De même, cette surveillance permettrait de déceler des intrusions ou des injections de biais en remontant des alertes;

• Une gouvernance des données renforcée intégrant les données produites par l’IA pour en assurer la correcte classification, la qualité, la rétention, le contrôle et y associer les mesures de sécurité adéquates;

• Un organe en charge de l’éthique en matière d’IA garant de l’application du cadre et catalyseur de changement.

En attendant une réglementation sur l’IA éthique, la protection des données au sens RGPD, interprétée de façon large et intégrée systématiquement dans un cadre «ethics by design», pourrait être un puissant outil pour réduire les risques inhérents à l’apprentissage et l’utilisation d’intelligences artificielles.