L’utilisation de l’intelligence artificielle dans les RH doit être mieux encadrée. Une dimension éthique by design pourrait naître de la collaboration entre Florian Feltes (Zortify) et le SnT. (Photo: Maison Moderne/Archives)

L’utilisation de l’intelligence artificielle dans les RH doit être mieux encadrée. Une dimension éthique by design pourrait naître de la collaboration entre Florian Feltes (Zortify) et le SnT. (Photo: Maison Moderne/Archives)

En marge du SnT Partnership day, la start-up Zortify et le centre de recherche ont annoncé un partenariat autour du développement d’une intelligence artificielle qui coche toutes les cases de l’éthique.

L’intelligence artificielle peut-elle jouer un rôle positif dans le recrutement? Dans la gestion des ressources humaines? Et comment garantir qu’à diplôme égal, tous les candidats aient les mêmes chances d’accéder au poste auquel ils postulent? L’IA dans les technologies RH est-elle éthique et assure-t-elle un assez bon niveau de confidentialité?

Pour tenter de répondre à toutes ces questions, la start-up Zortify et le Centre interdisciplinaire pour la sécurité, la fiabilité et la confiance (SnT) ont annoncé s’associer pour créer une IA qui est non seulement utilisable mais aussi transparente, explicable et compréhensible pour tout le monde.

Christopher Morse (Zortify), Florian Feltes (Zortify), Björn Ottersten (SnT) et Siwen Guo (Zortify) (Photo: SnT)

Christopher Morse (Zortify), Florian Feltes (Zortify), Björn Ottersten (SnT) et Siwen Guo (Zortify) (Photo: SnT)

«L’avenir de l’IA est humain. À la base, l’IA est un reflet de nous-mêmes, il est donc essentiel que nous créions de manière éthique et responsable afin de refléter le meilleur de nous-mêmes», indique le co-directeur de ZortifyLabs, Christopher Morse.

Le projet sera placé au SnT sous la responsabilité du professeur , qui s’est dit «enthousiasmé par les opportunités de recherche qui accompagnent les défis associés à une IA éthique et responsable. La collaboration avec Zortify apportera des innovations pratiques par rapport aux principaux piliers de l’IA sur lesquels nous avons travaillé, tels que l’explicabilité des modèles.»

Car le projet repose sur trois axes:

– l’apprentissage automatique: l’équipe formera de nouveaux modèles linguistiques basés sur des ensembles de données d’origine éthique pour comprendre les langues européennes à un niveau supérieur, en particulier les langues à faibles ressources comme le luxembourgeois.

– l’explicabilité: l’intention est de rendre les algorithmes plus transparents pour comprendre comment les modèles de langage très complexes prennent des décisions.

– le design d’interaction: le projet vise à comprendre les besoins des utilisateurs non experts pour développer des expériences interactives leur permettant d’utiliser les technologies et d’acquérir des connaissances sans aucune expertise propre.