L’intégrale d’Aristote sous le bras était un message : pour Katja Rausch, il faut revenir aux fondamentaux des «humanités» pour se projeter dans une société de technologies.  (Photo: Nader Ghavami) 

L’intégrale d’Aristote sous le bras était un message : pour Katja Rausch, il faut revenir aux fondamentaux des «humanités» pour se projeter dans une société de technologies.  (Photo: Nader Ghavami) 

Première mondiale fondée en 2019 à Luxem­bourg, The House of Ethics organisera ce printemps un premier cycle de conférences de très haut niveau au Forum Da Vinci. Sa fondatrice, Katja Rausch, appelle à bien comprendre les enjeux de l’éthique appliquée à l’intelligence artificielle. Sous-entendu pour éviter une réglementation déconnectée de la réalité.

Une House of Ethics, à quoi ça sert ?

Katja Rausch. — «Une maison, en général, promet de l’hospitalité, de l’inclusivité, du partage… Toutes ces valeurs, qui font partie d’une éthique individuelle, sont très importantes. Il y a quatre ans, quand j’ai voulu lancer la House of Ethics, j’ai vu qu’il n’y avait que des instituts, des académies, des laboratoires, ça me semblait extrêmement élitiste. L’éthique, c’est ce qui nous fait, ce n’est pas une science qu’il faut apprendre. Nous la vivons, nous la parlons, nous la mangeons. Appliquée à l’intelligence artificielle?

Parce qu’il fallait justement un discours non académique, mais que chacun conserve son propre style, c’est très important en éthique. Il ne faut pas la mettre dans un corsage afin de la rendre régulatrice, ce qu’elle n’est pas du tout. Elle est motivante, elle est invitante, elle est biologique, elle est humaine. Nous étions la première House of Ethics au monde.

Derrière son appellation, on fait quoi dans cette maison?

«Il y a d’abord la démocratisation de l’éthique, une plateforme d’information, de diffusion des articles, des interviews, où on invite des professionnels, des experts, à parler de leurs expériences dans tous les secteurs. Après, nous sommes aussi un think tank, nous réfléchissons, nous faisons des recherches en éthique, en observant ce qui se passe, en décodant et en développant aussi des outils pour permettre aux gens de mettre cette éthique en pratique. Ce ne sont pas seulement des outils.

Dans le contexte actuel, pourrait-on supposer que Donald Trump a une éthique?

«Il a sa propre éthique. L’éthique est un système de valeurs et nous avons tous des valeurs différentes. Son système n’est pas le nôtre. Nous ne le partageons pas. Il se croit très éthique. Lisez ses messages sur ses réseaux sociaux. Il fait ça pour les Américains. «J’ai réussi à faire ce deal», «Nous allons arrêter cette guerre pour vous». Il se sacrifie dans son monde.

C’est son narratif, en tout cas..

«Bien entendu. Mais tout narratif est une rhétorique toujours politique. Il faut faire attention quand on est dans le domaine politique. Justement, ce qui est alarmant, c’est que nous avons des outils technologiques qui sont devenus des armes. La naissance de la politico-technologie est très alarmante. Cela fait des années que nous alertons sur ce grand souci.

Donald Trump a une éthique, le président chinois en a une autre, Vladimir Poutine encore une autre et les Occidentaux — ça dépend de qui on parle — encore une autre. Un peu compliqué de réunir tout le monde, non ?

«Absolument. C’est un autre grand sujet très important : il y a d’autres éthiques. L’éthique est une vérité plurielle. Généraliser, cela ne fonctionnera pas. L’éthique doit être collective, c’est très différent de générale ou universelle. On doit être inclusif, polyculturel, multidisciplinaire et les frictions que cela génère font émerger de nouvelles valeurs.

Le côté positif du comportement du nouveau président américain est justement l’affirmation qu’il faut lui opposer une éthique globale, technologique… C’est réaliste ?

«L’intelligence artificielle existe depuis 1956. Donner des définitions est réducteur et exclusif. Il faut faire ces différences quand on parle de souveraineté, d’indépendance et d’autonomie. Il y a des différences entre toutes ces choses et on a tendance à les mélanger! Ce qui nous mène à une impasse, où on dit que c’est difficile de trouver quelque chose de commun. Pour l’universel, oui.

La seule chose universelle est la Déclaration universelle des droits de l’Homme après la Seconde Guerre mondiale en 1948. Une déclaration universelle de l’éthique me semble vraiment irréaliste et même pas bonne. Il faut des hubs où tout le monde puisse définir, nationalement, géographiquement, culturellement, ce qu’il entend par «éthique». Puis une gouvernance et ensuite une interopérabilité. Parce que là, nous aurions une zone de chalandise beaucoup plus grande pour trouver des consensus.

La création de hubs, on peut l’imaginer. Mais aujourd’hui, la technologie, qu’elle soit américaine, chinoise ou d’ailleurs, est toujours transversale. Il faudrait s’affranchir de toutes ces technologies pour recommencer à discuter de l’éthique ?

«On ne peut pas dire qu’on vient trop tard, sinon, on ne fait plus rien dans la vie. Nous sommes dans un mouvement d’accélération qui nous a fait perdre nos repères. Tout le monde a été surpris depuis le « technoputsch », en novembre 2022, de ChatGPT. Nous n’avons pas lancé un produit ou un logiciel, mais un système opératoire. Un système qui a infiltré jusqu’à l’Homme, jusqu’au «bios» de l’Homme. Je ne crois pas qu’on ait besoin de faire marche arrière. En général, avec ces intérêts nationaux, idéologiques, politiques, du moment qu’on leur présente un win-win, ils sont tout à coup très flexibles, très élastiques. Je ne crois pas qu’il faut réagir dans un cadre rigide.

Les technologies resteront toujours soumises à des biais.
Katja Rausch

Katja RauschThe House of Ethicsfondatrice

Voyons-le dans un cadre fluide. Il est tout à fait possible de créer différents centres, différents hubs, mais de respecter un partage égalitaire. Sans que la Chine ou les États-Unis dominent, ni que seule l’Europe s’affirme. L’Afrique, l’Asie, l’Amérique latine doivent aussi être intégrées. Le Brésil, l’Argentine, ce sont des monstres et on ne les inclut nullement.

Mais comment fait-on cela concrètement? Les technologies sont toutes basées sur une sorte d’extraction de jus moderne. Des machines qui avalent vos données et vous rendent une bouillie… Il faudrait quand même détricoter les modèles.

«Ce que vous abordez, c’est ce que j’appelle le blanchiment des connaissances. On uniformise tout, on nous amène vers une pensée unique. L’éthique seule ne suffit pas face à ce que vous appelez une infiltration systématique. Il faut des alliés, comme le droit humain et la régulation. Cette triade doit opérer. Aujourd’hui, nous sommes dans des silos. Il y a les éthiciens, qui n’aiment pas les porteurs des droits humains qui n’aiment pas les régulateurs. À la House of Ethics, , nous avons invité le docteur Susie Alegre, qui est une des plus grandes avocates des droits de l’Homme appliqués aux technologies. C’est important qu’on réunisse nos intelligences, collectivement, pour faire face à ce siège systémique.

Avant, on ne parlait pas de systémique. L’éthique a toujours été quelque chose de ponctuel, d’individuel et de hard louded. Il faut changer. Il faut qu’on s’active collectivement ensemble. Et pas seulement les gens, mais aussi les pourparleurs de disciplines. L’interdisciplinarité est vraiment très importante. C’est de là que naissent de nouvelles idées qu’on n’a pas vraiment envisagées avant. J’aime bien les jeunes qui me parlent, les vieux qui me donnent leurs impressions. C’est très important d’écouter tout le monde. Il nous faut sortir de ce tunnel où il n’y a que deux issues, oui ou non. Ce n’est pas vrai. Dans un monde complexe et non linéaire, il y a beaucoup plus de solutions.

Katja Rausch : «Il est tout à fait possible de créer différents centres, différents hubs, mais de respecter un partage égalitaire.» (Photo: Nader Ghavami)

Katja Rausch : «Il est tout à fait possible de créer différents centres, différents hubs, mais de respecter un partage égalitaire.» (Photo: Nader Ghavami)

L’éthique, ce n’est pas un produit de luxe ? On peut s’en préoccuper quand on n’a rien de plus important à faire…

«C’est l’approche de l’éthique cognitive qui fait partie de la discipline philosophique, Kant, Aristote, etc. Oui, une éthique de loisir. Si on applique une éthique à quelque chose, comme son nom l’indique, c’est une éthique appliquée, c’est différent.

Pour moi, pour une personne ordinaire, où se manifeste la différence ? Expliquez-moi.

«L’éthique appliquée à l’intelligence artificielle s’intéresse à la manière dont on doit réfléchir au produit que l’on est en train de coder. En codant ceci, est-ce que je vais aider les gens ? Est-ce qu’il y a un risque certain ?

C’est possible à 100 %?

«Rien n’est possible à 100%. Il faut déjà connaître la technologie. J’ai enseigné pendant douze ans les systèmes d’information. Comment un système peut avoir des biais ? Simplement parce qu’il est entraîné sur des données et ces données sont saisies par des personnes. Déjà dans la saisie des données, il y a énormément de biais, ça peut être les commentaires, surtout dans les saisies policières…

Entraînés, ces biais sont amplifiés, c’est clair ! En fin de compte, c’est toujours un système qui fait de la probabilité. Il faut aussi bien le comprendre. Ce sont des systèmes ajustés comme de la musique… Les technologies resteront toujours soumises à des biais. Il faut avoir un humain derrière tout ça! L’automatisation des décisions derrière lesquelles il n’y a plus d’humains, dans les crédits bancaires, dans la conduite…

Pour la conduite, c’est quand même super pour éviter les accidents…

«Si on va dans le mur, oui. Si vous roulez avec votre Tesla, il neige en Norvège et les capteurs ne perçoivent pas les lignes de la route ou ne reconnaissent pas les lumières ou ne peuvent pas lire le panneau “stop”parce qu’il est enneigé, ça ne sert à rien, votre conduite automatique.

La conduite automatisée, vous êtes contre. Mais il y a d’autres technologies qui suscitent le même mouvement de rejet?

«Beaucoup de choses qui dépassent la ligne rouge. Des petites applications stupides, comme DeepNude, qui vous permettait, quand vous marchiez dans la rue, de déshabiller tout le monde… Bien sûr, on a demandé au développeur pourquoi il avait mis cela sur le marché. Cela l’amusait… Pas de réflexion sur les conséquences. À quoi ça sert ? Je ne parle même pas de tout ce qui est vie privée. Depuis le début de la House of Ethics et le lancement de ChatGPT, encore une fois parce que je connaissais la technologie, ce vol à grande échelle des données personnelles, la violation de la propriété intellectuelle, systémique et systématique, pour nourrir un produit commercial, ça, ça ne va pas.

Est-ce que ce n’est pas l’art? L’art, c’est un peu ça aussi, réinventer à partir de l’existant ou s’en éloigner?

«ChatGPT est sur un permafrost éthique. Il n’y a pas d’éthique. Même Sam Altman le reconnaît en disant qu’il va l’ajouter comme une décoration ou un glaçage à la fin.

Tout le monde a été surpris depuis le «technoputsch», en novembre 2022, de ChatGPT. 
Katja Rausch

Katja Rausch

Est-ce qu’on peut s’attendre à ce qu’un entrepreneur de la tech ou un développeur se pose ces questions dès le début?

«Bien sûr! Est-ce que vous iriez acheter une voiture qui n’a pas de frein? Monteriez-vous dans un avion dont on sait qu’il va perdre une aile ? Nous sommes tellement habitués à avoir des mesures de sécurité et de précaution ! Pour tout autre produit, même quand vous mangez, par exemple, nous disons «non» ! Sécurité routière, aviation civile, santé. Heureusement qu’on a des organismes qui font le contrôle de sécurité ! Pourquoi ne pas l’appliquer ici? Ça me dépasse.

L’éthique est d’abord une notion individuelle qui pourrait devenir universelle, mais il est tout à fait concevable qu’une même technologie ne soit pas perçue de manière identique sur le plan éthique selon la population à laquelle elle s’adresse.

«Il n’y a pas d’éthique sans ethos. C’est ce que je suis : quelles sont mes valeurs, ma décence, ma bienveillance, etc., qui définissent comment je développe un produit ou offre un service au monde. Si plusieurs ethos se réunissent, peut-on faire quelque chose de nettement meilleur qu’un seul peut-être malveillant ? Le pire cocktail pour l’éthique est d’avoir une boîte noire, opaque, plus un acteur irresponsable. C’est là que la collectivité peut freiner ! Il y a maintenant des développements sur les small language models, sur lesquels on a davantage de contrôle et sur un périmètre mieux défini. Je crois à l’IA neurosymbolique…

L’IA neurosymbolique?

«C’est un mélange hybride. Nous avons les neurones, mais nous n’avons pas le côté symbolique, jusqu’ici. Pour l’instant, le système marche sur la tokénisation et à chaque fois que vous mettez un mot, il essaie de deviner le suivant. Comme un collage et des probabilités. Mais un LLM ne comprend rien à rien. Ce ne sont que des tokens, de petites entités, qui sont mises ensemble. C’est pour ça qu’ils ont des problèmes en mathématiques : s’il n’y a pas la même séquence dans les données d’entraînement, ils auront beaucoup de mal.

Si on ajoute le côté symbolique, c’est-à-dire sémantique, la compréhension d’un contexte, on arrive dans une tout autre dimension d’un chatbot. L’interaction sera beaucoup plus forte. C’est d’ailleurs la technologie qui est utilisée dans les robots humanoïdes. On ne peut pas mettre ChatGPT dans un robot ! Ce serait dangereux. Ils avaient un contrat avec les Chinois, contrat qui a été rompu.

Mais c’est aussi celle qui nous effraie, non? Capable de réfléchir et de décider toute seule…

«Exactement. Les LLM ne vont rien faire pour l’intelligence artificielle générale. Là, nous aurons une chance de construire l’intelligence qui nous comprend. Quand Deep Blue a gagné contre Kasparov, il ne savait pas qu’il jouait aux échecs. Il faut faire attention aux mots. On dit «la machine pense», «elle réfléchit» : non ! La machine traite les données. Elle les sépare. C’est du 0 et du 1. De nos jours, on utilise trop et souvent de façon trop insouciante ce vocabulaire anthropomorphique pour des sujets technologiques. Ce n’est pas comme ça qu’on va les rendre plus dignes de confiance.

Les annonces se multiplient. Beaucoup d’experts disent qu’on a raté le momentum de freiner le développement technologique pour le remettre sur des rails plus éthiques, au sens que vous employez?

«Tout le monde s’est insurgé contre le chinois DeepSeek. J’ai trouvé que c’était fantastique. DeepSeek a dit à la Silicon Valley, qui injecte des milliards et des milliards là-dedans, qu’on pouvait faire autrement, avec beaucoup moins d’argent et beaucoup plus rapidement. D’un point de vue éthique, ils sont aussi lamentables les uns que les autres, mais cela nous donne de l’espoir à nous, Européens, qui avons des cerveaux et des compétences extraordinaires.

Essayons vraiment de penser “out of the box”, “out of the black box”! C’est ce qu’ils ont fait. Ça a donné un boost aux petits. Aux PME. En Europe, le tissu économique est composé à 80-90% de PME. C’est aussi notre mission, à The House of Ethics, de parler à ceux-là et moins à ceux qui ont le pouvoir de l’argent pour se permettre tout.

Sans parler du RGPD, dans le cadre duquel on a un peu, en Europe, décentralisé les autorités. Mais les régulateurs n’ont pas la même volonté partout…

«C’est un cauchemar, ce cheminement. Il est tellement long. Il y a tellement de barrières que les sanctions sont ridicules.

Peut-être qu’elles sont ridicules parce qu’il n’y a rien à sanctionner.

«Si! Regardez Max Schrems, ils ont des centaines de cas ! Lui-même dit que ça n’avance pas. Le régulateur italien y va fort, lui, il bannit même des technologies ou des applications. De l’autre côté, les Irlandais sont très laxistes.

Ils ont les géants de la tech chez eux…

«C’est très bien de communiquer tout le temps sur la protection des données, mais à un moment, il faut passer à autre chose! Le plus important, justement, de mon point de vue, est l’indépendance de l’éthique. La plupart des laboratoires et des institutions sont subventionnés par Google, par Meta… Ça ne devrait pas être le cas. Nous, nous organisons des rencontres, nous faisons venir des experts de partout, nos conférences sont payantes, oui, mais c’est comme ça qu’il faut le faire.

Sauf si on considère que le financement vient de partout et que cela garantit l’équilibre.

«C’est quelque chose que je me suis demandé au début. J’ai toujours dit non aux partenariats au départ. Aujourd’hui, nous en avons un avec l’Institut de philosophie et de technologie à Athènes. Si on a les géants de la tech et les Big Four, comme PwC qui était intéressé, ça ne va pas. C’est plus difficile. Nous pouvons dire ce que nous voulons.

Dire, c’est bien, mais il faut aussi être entendu… Même ceux qui vont contre le système font en réalité partie du système.

«Comme les rappeurs. Ils viennent souvent de ghettos. Une fois riches, ils acquièrent le même système de valeur que les riches. Ils ont des villas, des voitures de luxe, etc. Ce n’est pas si difficile que cela. J’ai demandé à 30 personnes de venir à nos conférences, les 30 ont dit oui. Nous ne formatons personne. L’éthique est vivante, elle est biologique, évolutive. C’est un organisme qui doit évoluer.»

Trois conférences à ne pas manquer

En 2025, la House of Ethics organisera un cycle de trois conférences, sur l'IA et l'éthique, animées par Katja Rausch, tandis que les tables rondes seront modérées par son directeur de recherche interdiscipli- naire, Daniele Proverbio.

Le 2 avril est invitée l'avocate spécialisée en droits de l'Homme et intelligence artificielle, auteure du best-seller Human Rights, Robot Wrongs, Susie Alegre.

Le 15 mai, ce sera le tour de l'auteure du meilleur livre de l'année, selon The Economist, Privacy is Power, Carissa Véliz, experte en protection des données à l'université d'Oxford.

Le 18 juin, autre sujet qui intéressera le Luxembourg: Ingrid Vasiliu-Feltes, experte en digital twins et deep

tech, viendra aborder ces sujets. Elle a fondé DoUtDes Cyber-Ethics, cyberintelligence à 360 degrés.

Sa bio

Double master de la Sorbonne

Diplômée en marketing, audiovisuel et publishing, Katja Rausch met le cap sur la Louisiane pour un MBA à la Freeman School of Business, avant de revenir à la Sorbonne compléter sa formation par un master en littérature moderne spécialisée, linguistique et rhétorique.

De New York à Paris et au Luxembourg

Elle débute sa carrière à New York, chez Booz Allen & Hamilton, en conseil en management, avant de rentrer en France pour piloter la stratégie digitale d’une société de services en ingénierie informatique, prestataire de clients tels que Nestlé France, Richemont (Cartier), Lafuma ou encore la Banque des États de l’Afrique centrale. Elle opère ensuite un virage marqué vers les enjeux croisés de l’éthique et de la technologie.

La «prof»

Tout au long de sa carrière, elle enseigne les systèmes d’information à l’École de management de la Sorbonne et devient une pionnière de l’éthique appliquée à l’IA. Dès 2016, elle introduit l’un des premiers cours sur l’éthique des données à la Paris School of Business.

 Cet article a été rédigé pour l’édition magazine de , parue le 26 mars. Le contenu du magazine est produit en exclusivité pour le magazine. Il est publié sur le site pour contribuer aux archives complètes de Paperjam. 

 

Votre entreprise est membre du Paperjam Club? Vous pouvez demander un abonnement à votre nom. Dites-le-nous via