Valérie Kopéra, Litigation Counsel, et à droite Catherine Martougin, Funds & Asset Management Partner – Baker McKenzie. (Photo: Baker McKenzie)

Valérie Kopéra, Litigation Counsel, et à droite Catherine Martougin, Funds & Asset Management Partner – Baker McKenzie. (Photo: Baker McKenzie)

L’intégration croissante de l’intelligence artificielle (IA) dans l’industrie des fonds d’investissement ouvre de nouvelles perspectives, mais soulève également des questions cruciales de responsabilité et de gouvernance. Alors que les gestionnaires d’actifs aspirent à une efficacité accrue et à des solutions d’investissement plus personnalisées, les défis juridiques et éthiques se profilent à l’horizon. Analyse de la situation par Valérie Kopéra et Catherine Martougin (Baker McKenzie).

L’expansion de l’IA dans la gestion des fonds d’investissement

L’intelligence artificielle (IA) suscite un vif intérêt dans de nombreux domaines, notamment celui de l’industrie des fonds d’investissement, car elle est susceptible de permettre une réduction des coûts significative dans le cadre de la gestion opérationnelle des fonds et optimiser la communication avec les investisseurs. À court ou moyen terme, l’intégration de l’IA permettra aux gestionnaires d’actifs d’offrir des solutions d’investissement toujours plus personnalisées, avec pour objectif un meilleur rapport coût-efficacité.

L’Association européenne de gestion de fonds et d’actifs (Efama) a mis en exergue dans son dernier rapport de décembre 2023 les défis croissants auxquels sont confrontés les gestionnaires d’actifs européens, dont notamment l’impact potentiel de l’IA générative, et alerte sur les risques liés à l’utilisation de ces nouveaux outils, telles que les «hallucinations» qui peuvent surgir de l’IA générative (c’est-à-dire des productions manifestement fausses), qui peuvent avoir de graves répercussions si elles ne sont pas détectées par une surveillance humaine, la qualité des résultats générés ou encore le traitement de données sensibles.

Les défis de responsabilité posés par l’IA

Si l’IA est souvent définie comme une science visant à permettre à des machines de penser et agir comme des humains, cette assimilation trouve cependant ses limites. Elle crée un risque majeur dans le domaine de la responsabilité civile entièrement construite autour de la faute humaine, elle-même définie par référence au comportement du «bon père de famille».

Une question se pose inévitablement: qui supportera demain le dommage généré par un système d’IA fonctionnant de manière autonome? Qui répondra des conséquences d’un investissement géré par un système IA sans intervention humaine? Vu le potentiel de complexité, d’autonomie des outils d’IA et l’opacité qui en découle lors de leur utilisation, en plus de la multiplicité des acteurs impliqués, il sera difficile, ou très coûteux, d’identifier les responsables et d’établir les conditions de la responsabilité. Le constat est simple: les règles nationales existant en matière de responsabilité ne sont pas adaptées pour traiter les cas de dommages causés par l’IA.

Ce constat fait craindre une insécurité juridique à terme si les législations européennes ne sont pas rapidement adaptées.

Le 28 septembre 2022, la Commission européenne a publié sa très attendue proposition de directive sur la responsabilité en matière d’IA (COM [2022] 496). L’exposé des motifs explique que «la responsabilité figure parmi les trois principaux obstacles à l’utilisation de l’IA par les entreprises européennes. Elle a été citée comme étant le principal obstacle extérieur (43%) pour les entreprises qui n’ont pas encore adopté l’IA mais prévoient de le faire».

Si l’ambition politique européenne est d’instaurer un socle commun de la responsabilité en matière d’IA, le chemin semble encore long. Les praticiens devront donc pour un temps encore se contenter des outils juridiques à leur disposition pour répondre au mieux aux situations inédites créées par l’IA.

Perspectives d’adaptation juridique et de gouvernance

L’arsenal juridique classique des pays européens, et même outre-Atlantique comme le Canada, présente une certaine souplesse et des ressources qui permettront de faire face aux défis posés par l’IA en attendant une solution européenne, en s’appuyant, par exemple, sur un principe général de vigilance ou de loyauté au même titre que le devoir d’information ou de conseil comme source de responsabilité, ou encore en puisant dans le régime contractuel des vices cachés, ou en matière extracontractuelle, en revisitant la responsabilité du fait des choses. Un outil phare reste le contrat et les aménagements qu’il offre en termes de responsabilité (clause limitative ou élusive de responsabilité, clause de force majeure, etc.). Plus que jamais, le rédacteur de ces contrats devra faire preuve d’originalité et de précision.

Les gestionnaires de fonds d’investissement, comme toute entreprise, doivent définir des règles de gouvernance de nature à anticiper les impacts juridiques et sociaux liés au développement ou à l’exploitation de produits générés par l’IA. Ces règles devront aussi sensibiliser dirigeants et administrateurs aux risques et responsabilités liés, tout comme aux dérives possibles de l’utilisation non contrôlée de l’IA. La supervision humaine reste décidément irremplaçable.

Cet article promotionnel a été rédigé dans le cadre de l’adhésion au Paperjam+Delano Business Club de Baker McKenzie. Si vous souhaitez vous aussi adhérer au Club, contactez-nous à l’adresse .