L’enquête conjointe menée à l’été 2024 par la BCL et la CSSF – qui a recueilli des réponses de 461 institutions, soit un taux de participation de 86% – montre qu’environ 43% des établissements interrogés utilisent désormais des solutions d’IA en cours de développement ou déjà déployées en production, contre seulement 30% lors de la précédente étude. Au total, 36% des répondants ont déclaré au moins un cas d’usage concret de l’IA au sein de leur organisation, ce qui représente 402 cas d’utilisation identifiés, dont plus de la moitié sont d’ores et déjà opérationnels en production. Fait notable, la quasi-totalité (92%) de ces cas d’usage sont destinés à un usage interne (optimisation de processus, outils pour employés, etc.) plutôt qu’à des services directs aux clients – signe que, pour l’instant, l’IA sert avant tout à améliorer l’efficacité derrière les coulisses.
Cette adoption de l’IA est stimulée par les gains d’efficacité et de productivité qu’en attendent les acteurs financiers. Les trois principaux bénéfices mis en avant par les répondants sont l’amélioration des processus internes, l’optimisation des opérations (et la réduction des coûts) ainsi que la capacité à analyser de vastes volumes de données. En miroir, les obstacles majeurs à l’implémentation de l’IA touchent aux données: la qualité des données est citée comme défi numéro un, suivie par la protection des données et la gouvernance des données.
Sur le plan des investissements, l’enquête indique qu’en 2024, près de la moitié des entités ont investi dans l’IA (ou les technologies de registres distribués – DLT) via leur société mère ou groupe (46% des répondants), alors que peu d’entre elles ont conduit des investissements IA spécifiquement au niveau local (4% local uniquement, et 9% combinant efforts locaux et groupe). Encore plus significatif, plus d’un tiers des établissements (36%) n’avaient engagé aucun investissement dans ces technologies innovantes sur l’année 2024 – principalement parmi les gestionnaires de fonds et certaines sociétés d’investissement, tandis que les banques et institutions de paiement étaient plus actives.
Toutefois, ce retard d’investissement local pourrait n’être que temporaire: pour la période 2025-2026, une nette accélération est anticipée, avec une hausse prévue des investissements en IA bien supérieure à celle dans la blockchain, particulièrement au niveau des entités luxembourgeoises locales (le segment de l’IA générative étant annoncé comme le principal moteur de cette croissance). À l’échelle des groupes financiers internationaux, les dépenses IA devraient rester stables, ce qui s’explique par le fait que de nombreux développements ont déjà eu lieu au niveau des maisons-mères; l’enjeu désormais est de diffuser ces avancées vers les entités locales, capitalisant sur l’expérience acquise au niveau groupe.
Une part significative des acteurs sondés expérimentent l’IA sans l’avoir encore déployée à grande échelle, ce qui laisse présager une montée en puissance des projets actuellement pilotes vers des solutions en production dans un futur proche. L’essor récent de certaines technologies grand public accélère d’ailleurs ce phénomène, en démocratisant l’accès à des outils IA sans nécessiter de lourds développements internes.
L’essor de l’IA générative transforme les cas d’usage
Depuis la mise à disposition de modèles conversationnels et créatifs avancés fin 2022 (à l’image de ChatGPT, pour ne citer que le plus connu), l’adoption de l’IA a connu un coup d’accélérateur mondial, et la Place n’échappe pas à la règle. Le rapport BCL-CSSF souligne même que la proportion d’entités financières ayant développé des cas d’usage d’IA générative dépasse désormais celle s’appuyant sur le machine learning classique ou d’autres formes d’IA. Plus concrètement, 61% de l’ensemble des cas d’usage d’IA recensés dans l’enquête intègrent des solutions d’IA générative – qu’il s’agisse de modèles de langage générant du texte, d’outils de création d’images, ou d’autres applications – confirmant l’appétit du secteur pour ces nouvelles technologies capables de générer du contenu de manière autonome.
De nouveaux cas d’utilisation sont apparus ou montent en puissance, tels que la synthèse automatisée de documents (résumés de rapports, d’actualités financières), la génération de contenus (par exemple, rédaction assistée de rapports ou d’analyses), les chatbots conversationnels de nouvelle génération pour le service client, la traduction automatique optimisée par l’IA, ou encore la génération de code pour aider au développement logiciel. Ces catégories, autrefois expérimentales, figurent désormais parmi les plus implémentées par les institutions de la place financière luxembourgeoise.
Pour autant, l’IA «traditionnelle» n’est pas en reste. Les techniques de machine learning (apprentissage automatique) continuent d’occuper une place centrale, notamment dans les fonctions de gestion des risques et de conformité. Des cas d’usage tels que la détection des transactions frauduleuses, la lutte anti-blanchiment (AML) ou la surveillance des opérations suspectes en matière de financement du terrorisme sont largement outillés par des algorithmes de ML éprouvés. Souvent, d’ailleurs, ces algorithmes s’enrichissent à présent des avancées de l’IA générative – on peut penser à des outils de surveillance combinant modèles prédictifs classiques et analyse en langage naturel pour détecter des signaux faibles dans la documentation ou la correspondance. Les usages plus innovants, eux, commencent à émerger dans les fonctions métiers: par exemple, des assistants virtuels internes capables d’aider les employés en synthétisant des informations ou en codant des petits scripts.
Le crédit scoring (évaluation automatisée de la solvabilité), qui fait partie des rares cas d’usage explicitement classés «à haut risque» par la future réglementation européenne, reste relativement limité au Luxembourg pour le moment.
Former, gouverner et sécuriser: l’IA de plus en plus encadrée
D’après le rapport, la vaste majorité (84%) des participants à l’enquête ont déjà mis en place ou prévoient de déployer des programmes de formation à l’IA pour leurs collaborateurs – allant de modules de sensibilisation de base sur les concepts de l’IA jusqu’à des formations techniques avancées pour les spécialistes.
En parallèle, près de la moitié des institutions déclarent avoir formalisé leurs approches en adoptant des politiques IA internes: 43% des répondants disposent d’une politique d’IA approuvée (qu’il s’agisse d’une politique générale intégrant des principes sur l’IA, ou d’une politique dédiée spécifiquement à l’IA). Ce chiffre, encore modeste en valeur absolue, représente néanmoins une augmentation marquée par rapport à l’enquête précédente, reflétant l’attention croissante portée aux enjeux éthiques et organisationnels de l’IA. Davantage d’établissements se dotent de lignes directrices sur l’usage de l’IA, la gestion des biais, ou encore la validation des modèles avant leur mise en service. De fait, comparativement à l’an dernier, un plus grand nombre d’institutions affirment avoir mis en place des politiques éthiques ou des techniques de détection/prévention des biais algorithmiques, signe qu’elles intègrent de plus en plus les dimensions de fiabilité et d’équité de l’IA dans leurs projets.
Plus d’une entreprise financière sur deux (54%) a déjà implémenté des mesures de sécurité informatique spécifiques pour parer aux vulnérabilités propres à l’IA (par exemple, protection contre les attaques adversariales sur les modèles, surveillance des dérives). C’est un bond significatif comparé à l’année précédente, où cette proportion était beaucoup plus faible – une progression qui atteint même 66% si l’on considère uniquement le périmètre des banques, institutions de paiement et de monnaie électronique, c’est-à-dire les acteurs déjà couverts lors de la première enquête.
Une montée en compétences
Près de deux tiers (63%) des entités ayant recours à l’IA disposent d’une équipe dédiée de data science pour développer et suivre ces projets. Le plus souvent, ces équipes spécialisées sont mutualisées au niveau du groupe (dans 55% des cas) plutôt qu’implantées localement, traduisant une stratégie où l’expertise technique est centralisée au siège et ses fruits diffusés aux filiales. Quelques institutions (3%) ont néanmoins constitué des équipes IA directement au Luxembourg, tandis qu’une part non négligeable n’a pas d’équipe interne du tout – notamment parce que les solutions «clé en main» de type GenAI permettent d’expérimenter sans mobiliser de compétences pointues en interne. Là où elles existent, les équipes data science restent de taille modeste (souvent moins de 10 personnes) et sont rattachées majoritairement aux départements IT, même si environ un tiers rapportent directement aux métiers ou de façon mixte IT-métiers. Cette gouvernance de l’IA par la technique, avec un lien de plus en plus étroit aux besoins métier, illustre la volonté d’intégrer l’IA de manière pragmatique et contrôlée dans l’organisation.
Enfin, l’humain reste plus que jamais dans la boucle. Les statistiques du rapport montrent que les dispositifs en place prévoient presque systématiquement une intervention ou une validation humaine à un stade du processus alimenté par l’IA, gage de prudence dans un contexte où la responsabilité finale doit rester maîtrisée. Ce modèle d’«IA augmentée» correspond d’ailleurs aux recommandations des régulateurs pour une IA digne de confiance.