«Dans la mythologie nordique, Svalinn est le bouclier qui protège la Terre des rayons du Soleil. La technologie que l’équipe est en train de concevoir aura également comme mission de protéger un large public contre les attaques alimentées par l’IA», explique le principal chercheur du projet, Maxime Cordy.
Manipulations d’informations, piratages, fraudes… De plus en plus souvent menées grâce à l’intelligence artificielle, les attaques sont un véritable danger pour la cybersécurité et particulièrement pour les actifs numériques des sociétés. En moyenne, une violation de données équivaut à quatre millions de dollars de perte, selon une estimation du groupe Serval de la SnT. À une échelle complètement différente, le groupe estime que les fake news sont la cause de 39 milliards de dollars de pertes en bourse.
Pour le Partnership Day, qui s’est tenu le 11 mai à l’ECCL, les chercheurs ont démontré comment Svalinn réagit face à une attaque de deep fake, ou encore comment une fausse nouvelle a l’air encore plus vraie qu’une vraie. Un sujet au plein cœur de l’actualité puisque de nombreuses personnalités politiques importantes ont été victimes de ce genre d’attaque.
Une réalité effrayante
L’expérience est assez traumatisante, car elle expose avec quelles facilités de fausses informations vous concernant peuvent être diffusées. Pour cela, les experts vous prennent en photo dans le salon, puis en effectuant quelques modifications sur leur ordinateur, proposent trois variantes:
– une première dans laquelle vous cultivez du cannabis;
– une deuxième met en scène votre arrestation;
– la dernière dans laquelle vous êtes derrière les barreaux.
En quelques secondes, une photo innocente dans un salon de convention tech peut se transformer en preuve pour vous inculper d’un crime que vous n’avez pas commis.
«En ajoutant une couche invisible (bruit) à une image originale pour l’œil humain, mais suffisamment visible pour l’IA, alors il est possible de provoquer l’échec de ses modèles deep fake», explique Salijona Dyrmishi. «Cette sauce magique (comme il l’appelle) existe grâce à des algorithmes que l’on a développés pendant nos recherches», ajoute-t-elle.
Svalinn peut effectuer:
– une obfuscation: provoque l’échec des modèles d’IA lors du traitement des données;
– un filigrane: prouve l’authenticité des actifs avec une signature unique;
– une surveillance: surveille le Web pour trouver les actifs divulgués.
Un projet en cours de développement
Ce projet n’est que la face cachée de l’iceberg des innombrables travaux de ces doctorants. Le groupe d’experts teste les applications d’IA afin de révéler les failles de sécurité pour pouvoir proposer des défenses efficaces contre elle, travaux utiles pour protéger les données des entreprises, mais également des personnes. Cinq années de recherche sur la sécurité de l’IA ont donné émergence au projet Svalinn.
«L’idée ne nous est pas venue comme cela. Nous avons eu le déclic en lisant un article qui expliquait qu’un fraudeur avait utilisé l’IA pour cloner la voix du directeur d’une entreprise pour gagner 35 millions de dollars. À ce moment-là, nous nous sommes dit que nos travaux pourraient être bénéfiques à d’autres personnes», raconte Luc Stebens.
L’équipe a alors proposé son projet, en septembre 2022, au Fonds national de la recherche qui l’a accepté en janvier 2023 dans le cadre du financement de FNR JUMP. Ils ont deux ans pour améliorer leur technologie le plus possible afin de pouvoir la commercialiser.