À mesure que l’intelligence artificielle (IA) transforme l’ensemble des industries, y compris la cybersécurité, et gagne notre quotidien, elle apporte des solutions pour lutter efficacement contre la cybercriminalité. En revanche, les cybercriminels affinent leurs stratégies, utilisant ces mêmes technologies pour mener des attaques toujours plus sophistiquées.

L’IA, vecteur de cybermenaces?

L’IA peut automatiser la détection des menaces, analyser des quantités massives de données en temps réel, et anticiper les cyberattaques grâce à des modèles prédictifs. Ceci dit, les cybercriminels exploitent également l’IA pour mener des attaques plus élaborées, telles que l’automatisation des logiciels malveillants et la manipulation des algorithmes de détection. Le défi majeur réside dans l’équilibre entre l’amélioration des systèmes de sécurité et la gestion des risques induits par l’utilisation de l’IA à des fins malveillantes.

Les techniques de deepfake sont un parfait exemple de cette dérive. Elles permettent de manipuler l’audio et la vidéo pour créer des contrefaçons extrêmement réalistes. En imitant des personnalités influentes, telles que des dirigeants d’entreprise, ces contrefaçons facilitent les transactions frauduleuses et l’extraction d’informations sensibles.

L’IA peut automatiser la détection des menaces, analyser des quantités massives de données en temps réel, et anticiper les cyberattaques grâce à des modèles prédictifs.
Djamel Khadraoui

Djamel KhadraouiHead of Reliable Distributed Systems UnitLIST

De même, l’IA perfectionne les tactiques de phishing en générant des mails et des sites web particulièrement convaincants et ciblés. En analysant de grandes quantités de données, l’IA peut créer de fausses communications qui imitent étroitement des communications authentiques, rendant difficile pour les individus de faire la distinction entre les interactions réelles et malveillantes.

Propulsées par l’IA, les attaques par déni de service (DDoS) submergent les réseaux, entraînant des interruptions majeures des opérations au sein des entreprises et autres. Capables de s’adapter, elles rendent les mécanismes de défense traditionnels moins efficaces.

Autre menace, les attaques de ransomware optimisé par IA. Les cybercriminels utilisent l’IA pour affiner leurs attaques, cibler certaines victimes et peaufiner les techniques de chiffrement, rendant ces ransomwares non seulement plus dévastateurs, mais également plus difficiles à contrer.

Vers des approches de sécurité protéiformes

Face à ces menaces évolutives, une approche protéiforme est nécessaire pour sécuriser les systèmes informatiques avec le support de d’IA, combinant des solutions techniques, stratégiques et éthiques. Mais cela nécessite une meilleure confiance sur les systèmes IA à utiliser.

Les modèles d’IA reposent sur des ensembles de données vastes et complexes. En cybersécurité comme dans beaucoup de domaines et applications critiques, la sécurisation des pipelines de données est ainsi une étape essentielle. Garantir l’intégrité de ces pipelines exige le cryptage des données, des contrôles d’accès stricts et des audits réguliers pour empêcher l’accès non autorisé et la falsification des informations.

Parallèlement, le renforcement de la robustesse des systèmes en opération (réseaux ou autres) face aux attaques hostiles constitue un enjeu majeur. Ces attaques modifient les données d’entrée du système de protection pour générer des résultats erronés. Pour contrer cette menace, les modèles doivent être exposés à des données modifiées lors de la phase d’entraînement, une méthode qui améliore leur résistance aux manipulations adverses. Des approches de protection sont nécessaires afin de les rendre plus résistants à ce genre d’attaques.

Par ailleurs, si l’IA est susceptible d’être utilisée pour des cyberattaques, elle constitue également une arme redoutable pour renforcer la sécurité des systèmes. Les systèmes de gestion des informations et des événements de sécurité (SIEM) alimentés par l’IA détectent les anomalies et les schémas suspects en temps réel, en vue de réagir rapidement aux menaces.

Les plateformes de renseignement sur les menaces, basées sur l’IA, jouent un rôle important dans l’agrégation de données provenant de diverses sources, telles que les médias sociaux et les forums du dark web. Elles offrent des signaux d’alerte précoce sur les menaces émergentes, afin de donner aux organisations une longueur d’avance sur les cybercriminels.

Enfin, l’automatisation des réponses aux incidents de sécurité, facilitée par l’IA, constitue une solution efficace. Cette technologie peut isoler les systèmes affectés ou bloquer rapidement les adresses IP malveillantes, réduisant ainsi le temps de réponse et minimisant les dommages.

La cybersécurité, gage de confiance des solutions basées sur l’IA

L’usage croissant de l’IA dans des domaines hautement régulés comme la santé exige des niveaux de confiance et de sécurité renforcés, surtout lorsqu’il s’agit du partage de données médicales sensibles.

L’une des principales préoccupations est la cybersécurité. En fédérant les données, chaque participant (un hôpital, par exemple) conserve les siennes localement tout en contribuant à un modèle global centralisé chez un agrégateur. Cependant, l’intégrité de ce modèle peut être compromise si un client injecte des données empoisonnées ou corrompt volontairement les mises à jour du modèle. Dans un environnement médical, cela pourrait fausser les diagnostics ou les prédictions faites par l’IA, affectant directement les patients.

L’usage croissant de l’IA dans des domaines hautement régulés comme la santé exige des niveaux de confiance et de sécurité renforcés, surtout lorsqu’il s’agit du partage de données médicales sensibles.
Djamel Khadraoui

Djamel KhadraouiHead of Reliable Distributed Systems UnitLIST

Le LIST développe des solutions avancées dans le domaine de l’apprentissage fédéré (Trusted Federated Machine Learning, en anglais), offrant des méthodes robustes pour sécuriser les échanges dans les systèmes d’IA décentralisés. Ces innovations visent à garantir aux utilisateurs, comme les hôpitaux, que le modèle global reste fiable et exempt de toute corruption, tout en optimisant l’efficacité du processus de détection d’anomalies.