Après vos années au Département de la défense, vous avez écrit deux ouvrages très remarqués sur la guerre du futur, moins «intensive en capital humain» ou menée en partie par des armes autonomes. Où en est-on aujourd’hui?
Paul Scharre. – «Une des choses que nous voyons est le rôle grandissant que joue l’intelligence artificielle (IA) dans les systèmes d’armement. Ce qui est particulièrement remarquable, c’est que cette évolution est due au secteur commercial. Les militaires ont des années de retard.
Pourquoi?
«Simplement parce que la bureaucratie ralentit beaucoup trop de choses. Du coup, les technologies ont été inventées en dehors du secteur de la défense. De l’IA aux robots, il y a de nombreux exemples, y compris dans des technologies sous-jacentes. Pour beaucoup de pays, cela a créé des retards supplémentaires dans l’adoption de ces technologies, parce que cela venait du secteur privé et que, là encore, la bureaucratie a retardé la signature de contrats avec des acteurs privés.
Dans votre nouveau livre Four Battlegrounds, vous suivez quatre axes interconnectés: les données, la puissance de calcul, la guerre des talents et le rôle des institutions. Comment la situation pourrait-elle changer et favoriser, ou non, l’intégration de ces technologies? Par exemple, est-ce que la compétition que vous décrivez entre les États-Unis et la Chine est de nature à soudainement accélérer l’adoption de ces technologies?
«Nous voyons que ces deux puissances ne sont pas très loin de ces nouvelles technologies, mais il reste une grande incertitude économique. Comment faire le meilleur usage, par exemple, de l’IA? Comment avoir le meilleur retour sur investissement?
L’IA est une gamme de technologies beaucoup plus large qu’on l’imagine habituellement. Avec beaucoup plus d’applications qu’on le pense. Il y a des applications potentielles qui permettent de tirer le meilleur parti des données. Qui vont permettre d’avoir des capteurs plus intelligents. De passer à des réseaux de communication qui vont s’adapter en permanence aux besoins. Et, bien sûr, pour des armes intelligentes!
Les acteurs doivent se conformer à des règles et veiller à ce que leurs technologies se déploient de manière sûre.
Autant de points qui créent à peu près autant d’espoirs que de craintes, à en juger par ces entrepreneurs et experts qui appellent à une pause dans les développements de l’IA, le temps d’essayer d’encadrer certaines dynamiques… Ces modèles linguistiques, comme ChatGPT, présentent une série de problèmes. Ils ne sont pas non plus très sûrs. S’ils ne fonctionnent pas bien et qu’ils ne sont pas très sûrs, il sera difficile de les considérer pour réaliser certaines tâches. Les autorités seraient bien avisées de mettre en place des mesures de protection. Ce qui ne semble pas si simple.
Les acteurs doivent se conformer à des règles et veiller à ce que leurs technologies se déploient de manière sûre. Beaucoup des big techs n’ont aucune responsabilité dans la manière dont leurs technologies sont déployées… Je ne suis pas certain que leur modèle d’IA soit vraiment prêt à être livré au grand public.
Parmi ces technologies, certaines semblent au départ très loin de la guerre que l’on a en tête…
«Tout à fait. Le problème n’est pas seulement la façon dont est développée une technologie, mais la manière dont elle est utilisée. C’est vrai pour l’intelligence artificielle, mais aussi pour les technologies de surveillance.
La Chine dispose d’un demi-milliard de caméras de surveillance. Avec lesquelles elle a imaginé un nouveau modèle de surveillance territoriale de ses citoyens, y compris dans le traçage de leurs comportements à coups de reconnaissance faciale, de reconnaissance vocale, de système de crédit social afin d’influencer leurs comportements.
Imaginer des guerres entre des armées de robots n’est pas réaliste.
Et maintenant, nous voyons qu’elle exporte son modèle un peu partout, qu’elle anime des ateliers sur la manière d’utiliser ces technologies de surveillance ou de prendre le contrôle du cyberespace, ou du monde de l’information. Les États démocratiques ont toute une série d’approches et une volonté de réguler certaines de ces technologies.
Est-ce que l’idée que la Chine doit «gérer» 1,5 milliard de personnes et que ce n’est pas possible de le faire de la même manière qu’un État à 1 million, ou même à 300 millions de personnes, et qu’elle doit donc trouver une autre voie, ne peut vraiment pas s’entendre?
«Le problème n’est pas qu’elle utilise ces technologies. Mais comment elle les utilise. Pour réprimer les droits de l’Homme… La technologie n’est pas seulement utilisée pour attraper des criminels, comme cela devrait être le cas.
Vous croyez que, dans quelques années, nous vivrons une guerre dans laquelle aucun humain ne sera sur le champ de bataille?
«Non, je ne crois pas que ce soit possible. Imaginer des guerres entre des armées de robots n’est pas réaliste. Des humains seront toujours impliqués pour différentes raisons. D’abord parce qu’il faut qu’un humain prenne une décision dans une situation de guerre. Il y a aussi une réalité politique: la guerre a un coût humain. Nous pouvons voir que la guerre en Ukraine a un coût humain très élevé, des deux côtés. Et cela a des implications politiques.
Cette guerre-là illustre aussi une véritable émergence de nouveaux modèles de guerre, où la technologie joue un rôle prépondérant: campagnes de communication, d’information et de désinformation, cyberattaques. Il n’y a même plus vraiment toujours besoin de bombarder… Il n’y a même plus besoin d’être un État. Un groupe pourrait s’en prendre à un État…
«La technologie est tellement distribuée, tellement accessible partout dans le monde, démocratisée… pas dans le sens où elle est utile à la démocratie, mais dans le sens où n’importe qui peut y avoir assez facilement accès.
Regardez les exemples d’une armée de drones, pour harceler l’armée irakienne, pour infliger des blessures et des pertes. Quelques civils ukrainiens utilisent des drones et des capteurs pour surveiller les tanks russes, pour réaliser des vidéos qui seront utilisées dans le cadre de la propagande… Les civils les utilisent. Des groupes non étatiques aussi. Et ça ne s’arrêtera plus.
Vous êtes à Luxembourg pour la première conférence sur les armes autonomes, dont l’objectif est de mettre en œuvre à moyen terme un cadre autour de l’utilisation de ces armes. Quel genre de conseil pourriez-vous donner dans ce contexte?
«Bonne question! Ce qui peut avoir l’air frustrant parfois, ce sont les différences qui existent dans le chemin qui mène au développement d’une technologie. Il y a des enceintes internationales, aux Nations unies depuis 2014, pour aborder ces problématiques. Neuf ans avant ChatGPT, juste pour dire… Évidemment, pour ceux qui veulent voir en place un traité juridiquement contraignant autour de ces armes, ce processus peut apparaître frustrant.
Il y a de très nombreuses manières d’approcher la régulation de technologies. Une en encadrant la technologie elle-même, une autre en réglementant l’accès aux matériaux de base utile à son développement.
Mais nous avons vu quelques progrès dans les discussions aux Nations unies. Le premier est le consensus parmi les États membres autour du fait que les armes autonomes doivent se conformer à la loi, et elles doivent être utilisées dans le même contexte que les autres armes. C’est important. Il y a des discussions très animées autour de la Convention sur certaines armes classiques (à l’ONU, ndlr). Toutes les initiatives qui favorisent une meilleure compréhension sont les bienvenues.
Ce qui complique encore les choses, c’est que beaucoup de ces technologies sont à double emploi… utiles au bien ou au mal. Cela rend le contrôle de l’utilisation finale encore plus compliqué, non?
«Il y a vraiment de très nombreuses manières d’approcher la régulation de technologies. Une en encadrant la technologie elle-même, une autre en réglementant l’accès aux matériaux de base utile à son développement, comme dans l’accès au matériel utilisable dans le domaine nucléaire, par exemple.
Mais il faut aussi remarquer que les États participent eux-mêmes au développement de certaines de ces armes parce qu’ils veulent les avoir dans leur catalogue de solutions à leur disposition.»
Cet article a été rédigé pour l’édition magazine de parue le 26 avril 2023. Le contenu du magazine est produit en exclusivité pour le magazine. Il est publié sur le site pour contribuer aux archives complètes de Paperjam.
.
Votre entreprise est membre du Paperjam + Delano Business Club? Vous pouvez demander un abonnement à votre nom. Dites-le-nous via