COMMUNAUTÉS & EXPERTISES — Expertises

TRANSFORMATION ET ACCÉLÉRATION DE LA PERFORMANCE

Une IA éthique, sans biais et digne de confiance



Une IA éthique, sans biais et digne de confiance TNP Luxembourg

Une IA éthique, sans biais et digne de confiance TNP Luxembourg

Au-delà de l’effort que nécessitent la construction et le déploiement d’une intelligence artificielle – IA, l’encadrement de son apprentissage et la portée de son utilisation représentent un défi conséquent, que ce soit en termes de pertinence, mais également de biais potentiels.

L’éthique dans l’IA a pour objectif un système solide de valeurs à la conception et l'utilisation de la technologie, afin d’adresser les craintes des parties prenantes vis-à-vis de l’IA. Schématiquement, ces craintes peuvent être classifiées en deux grandes catégories:

1.     La peur d'être remplacé: en raison des progrès de la technologie, et surtout de l’automatisation.

2.     La peur d'être servi par quelque chose qui ne comprend pas la complexité humaine, s’appuyant sur des règles potentiellement déshumanisées, voire biaisées, ou encore faisant alors preuve de «stupidité artificielle» (quand elle agit dans des circonstances «exceptionnelles» pour lesquelles elle n’a pas été entraînée ou ne bénéficie pas de règles édictées par avance).

Ces inquiétudes croissantes font prendre conscience que l’IA n’est plus un concept de science-fiction, mais a atteint un stade de maturité suffisant pour qu’elle soit déployée à grande échelle. Dès lors que l’option de l’interdiction pure et simple est inenvisageable, il s’agit de poser un cadre éthique, assurant l’équilibre optimal entre la libre expérimentation et la limitation prudente. Dans ce contexte, une série de lignes directrices et de lois ont été mises en place depuis 2017, par certains pays (Canada, Japon), des unions supranationales (comme l’UE), diverses organisations (UNESCO, OCDE, OIT…) ou encore des organismes de standardisation (IEEE, ISO, ILNAS…). Dans l’UE, ces huit principes font loi:

·       Le respect de la vie privée et de la sécurité

·       L’équité et la non-discrimination

·       La responsabilisation

·       La transparence, l'ouverture et la divulgation responsable autour de l'IA

·       La robustesse et la fiabilité tout au long du cycle de vie

·       Le bien commun, la durabilité et le bien-être humain

·       La surveillance humaine, le contrôle et l’audit

·       Le respect de l'État de droit et des droits de l'Homme

Le sujet de l’IA éthique est d’une importance telle que le nombre de publications a été multiplié par 5 entre 2017 et 2020! La question pour les entreprises: comment mettre en place une IA éthique qui respecte ces règles?

En examinant de près les principes d’une IA centrée sur l’humain, sécurisée et transparente, on se rend compte que la définition de certaines notions (comme le bien-être humain ou la responsabilité) ne peut pas être faite uniquement avec un prisme juridique ou technologique. Même si une approche de mise en conformité peut déterminer si certaines pratiques sont à proscrire, elle peut difficilement lister les pratiques qui seraient éthiques, dans quel contexte et pourquoi. De fait, il appartient à chaque entreprise de décider de son éthique, dans le cadre d’une discussion ouverte avec toutes les parties prenantes, afin d'aborder les usages qu’elle s’autorise, les règles qui ne doivent pas être enfreintes, et la société que l'entreprise veut contribuer à construire.

À l’instar d’un être humain, une IA est sujette aux biais cognitifs, et une réflexion sur ce travers s’impose. L'IA peut aider à identifier et à réduire l'impact des préjugés humains (en analysant massivement des données et en caractérisant des signaux faibles invisibles à l’œil humain), mais elle peut aussi aggraver le problème en exacerbant des préjugés de façon systématique dans des domaines comme le recrutement, la communication, l’aide à la décision ou tout ce qui peut être lié à l’analyse prédictive (justice prédictive, reconnaissance faciale, capacité de remboursement des individus…). Les biais dans l’IA peuvent être vecteurs de discrimination tout comme produire des résultats faussés potentiellement fortement destructeurs de valeur. Les concepteurs et annotateurs doivent rester vigilants. Ces questions requièrent des perspectives pluridisciplinaires, notamment de la part d'éthiciens, de spécialistes des sciences sociales et humaines. Ainsi, plusieurs innovations récentes ont été introduites:

·       Les combinaisons de mettre «l’humain dans la boucle» (à chaque fois que l'IA prend une décision, une personne doit donner son accord avant toute validation), de mettre «l’humain dans le processus» (à certaines étapes clés du processus), et de mettre «l’humain en contrôle» (pour superviser l'activité globale de l'IA).

·       Un codage technique de l'équité, en exigeant par exemple que les modèles aient une valeur prédictive égale pour tous les groupes ou que les modèles aient des taux de faux positifs et de faux négatifs égaux pour tous les groupes.

·       «L’équité contrefactuelle», qui garantit que les décisions d'un modèle sont les mêmes dans un monde contrefactuel où les attributs jugés sensibles, tels que le sexe ou l’apparence physique, ont été modifiés.

Les défis soulevés par l’intelligence artificielle appellent à une mobilisation, une attention et un questionnement de la part de l’ensemble des parties prenantes. Pour les entreprises, tout comme il est de plus en plus indispensable de passer à l'IA pour rester dans la course, il est vital d’engager une démarche d’éthique dans l’IA.

Pour plus d’informations sur TNP Luxembourg, cliquez ici .