Intelligence artificielle et analyse du risque en matière de stabilité stratégique
Observatoire de la dissuasion n°68
Benjamin Hautecouverture,
octobre 2019
La principale question qui anime le débat actuel de l’expertise sur l’intelligence artificielle (IA) en matière nucléaire est celle de la stabilité stratégique, en particulier parce que cette question est relayée au plan politique d’une manière qui peut être préoccupante : l’on se souvient de l’adresse publique du président Poutine le 1er septembre 2017, selon qui « quiconque sera leader en la matière dirigera le monde. »« [L’IA] s'accompagne d'opportunités colossales, mais aussi de menaces difficiles à prévoir. Quiconque devient le leader dans cette sphère deviendra le leader du monde. » Cité par RT, 1er septembre 2017. Cette question se subdivise habituellement en deux types d’enjeux : celui qui consiste à savoir si l’IA exerce ou est en passe d’exercer des effets déstabilisants sur les équilibres stratégiques ; celui qui consiste à affirmer que l’IA pose un risque ou au contraire représente une opportunité en matière de stabilité stratégique. Dans le premier cas, l’on se demande si les risques envisagés sont prématurés, s’il faut les anticiper. Dans le second, l’on se demande dans quelle mesure il est pertinent de les envisager en principe. Dans les deux cas, le sujet est controversé, même si l’IA présente dans la littérature a priori davantage de risques que d’opportunités.
La question relative à la stabilité stratégique peut se poser dans les termes généraux suivants : dans quelle mesure l’équilibre établi entre États possesseurs de l’arme nucléaire pourrait-il être ébranlé par l’adoption de systèmes – conventionnels ou nucléaires – fondés sur l’IA ? Dans un sens plus restrictif, la stabilité stratégique faisant référence à la situation dans laquelle les États dotés sont convaincus que leurs adversaires ne sont pas en mesure de mettre à mal leurs capacités de dissuasion,Voir par exemple Pavel Podvig, « The Myth of Strategic Stability », Bulletin of the Atomic Scientists, 31 octobre 2012. il s’agit d’identifier en quoi les applications de l’IA sont susceptibles ou non d’inciter à un usage en premier ou à l’accroissement/diversification des arsenaux.
En dépit de la mise en avant des possibles applications de l’IA sur le champ de bataille (popularisation des « robots tueurs » par exemple), la plupart des usages de l’IA se déploient et se déploieront dans un avenir prévisible dans les domaines de la reconnaissance d’image, de l’analyse de données et de leurs systèmes connexes.
C’est essentiellement la fiabilité des systèmes de seconde frappe qui est susceptible de dicter la manière dont l’automatisation et les promesses de l’autonomie sont envisagées dans les États dotés de l’arme nucléaire. Ce critère permet utilement de distinguer les effets stabilisants et déstabilisants de l’IA selon les cas d’espèce.
Pour la stabilité
S’agissant des dispositifs de commande et de contrôle, l’automatisation accrue de l’alerte avancée accélère la détection. Le gain de temps réalisé offre ainsi en théorie un bénéfice indirect en donnant aux décideurs davantage de temps au sein d’environnements complexes. C’est un gain potentiel de stabilité. Les concepteurs du système semi-automatisé dit de « la Main morte » en URSS à la fin de la Guerre froide avançaient cet argument par exemple.
En outre, les systèmes automatisés ajoutent aux dispositifs de redondance pour garantir les ordres de lancement le cas échéant. Les erreurs des années 1980 en matière d’alerte avancée aux États-Unis comme en Russie soviétique ont ouvert la voie aux scénarios du pire. En réalité, l’on ne voit pas le remplacement de la responsabilité humaine par un dispositif entièrement automatisé dans ces processus. Ce ne fut envisagé par aucun état-major au cours de la Guerre froide. Ce ne l’est depuis que dans les scénarios de science-fiction. En revanche, la combinaison accrue des opérateurs humains avec les machines est à l’évidence un gage de sûreté et de fiabilité pour les architectures de commande et de contrôle dans de nombreux cas de figure à l’avenir. Par exemple, des systèmes d’alerte avancée plus fiables rendraient plus fiables également l’estimation de la véracité d’une première frappe adverse, ce qui réduirait les risques d'escalade accidentelle en temps de crise.
De plus, l’augmentation potentielle des risques pesant sur la stabilité stratégique du fait de la mise en œuvre grâce à l’IA d’améliorations capacitaires (ciblage, soutien à la décision par exemple) sera circonscrite dans le temps consécutif à cette mise en œuvre. Au contraire, l’installation et l’amélioration continue des progrès technologiques en la matière sont de nature à minimiser les risques à plus long terme (fiabilité accrue des dispositifs, compréhension mutuelle améliorée).
Pour l’instabilité
Schématiquement, la vulnérabilité à des frappes nucléaires ou conventionnelles de décapitation peut disposer au recours à des systèmes permettant de prendre une décision de lancement dans des délais très contraints, d’où la tentation de développer des systèmes d’alerte avancée automatisés ou des plateformes de lancement nucléaires sans pilote.
S’agissant des dispositifs de commande et de contrôle, un risque souvent envisagé n’est pas tant la mise à l’écart de la responsabilité humaine dans la prise de décision, qu’une confiance excessive accordée aux succès répétés des algorithmes par les personnes humaines en charge dans la chaîne de commandement. Les systèmes autonomes sont fragiles. Leur fiabilité peut être altérée par la modification de l’environnement dans lequel ils opèrent. Or, l’habitude de s’en remettre à des dispositifs automatisés risque de s’accroître avec le temps. Il n’est par conséquent pas sûr que les décisionnaires de la future génération (années 2040) agissent avec la prudence qui est de mise dans la génération actuelle.
S’agissant des plates-formes de lancement, certaines annonces russes depuis le début de la décennie ont laissé entendre le développement de systèmes sans pilotes : bombardier stratégique après 2040, ou à plus court terme système océanique polyvalent Status‑6 Poseidon, arme sous-marine à conduite autonome mue par réacteur nucléaire naval (« nuclear-armed unmanned underwater vehicle » – UUV). L’on sait que cette torpille fait partie des armes nouvelles en cours de développement en Russie, qui furent promues publiquement par le président Poutine lors de son discours à l'Assemblée fédérale en mars 2018. Quels que soient les développements avérés des systèmes évoqués, ils se fondent à des degrés divers sur une exploitation de l’IA pour renforcer la crédibilité des capacités de frappe en second russes face aux systèmes stratégiques défensifs et aux capacités de ciblage antiforces américains. Par ailleurs, certains experts Sud-Coréens ont indiqué au début de la décennie le développement par le régime nord-coréen d’UAV (« Unmanned Aerial Vehicle ») pour délivrer des armes de destruction massive, en particulier l’engin Banghyun‑5, d’une autonomie de dix heures, muni d’une charge d’uranium hautement enrichi pour constituer une arme de dispersion radioactive.« Le drone Banghyun-5, selon son nom supposé, est fait de titane et de composites de carbone et possède un réservoir de carburant de 900 litres qui lui permet de voler jusqu'à 10 heures. Ce drone est conçu pour transporter une charge utile d'uranium enrichi, que la Corée du Nord posséderait dans le cadre de son programme d'armes nucléaires. », Kyle Mikozami, « Experts: North Korea May Be Developing a Dirty Bomb Drone », Popular Mechanics, 28 décembre 2016.
Les usages conventionnels de l’IA sont par ailleurs suspectés d’avoir une incidence dans une dynamique d’escalade. En effet, l’avantage conféré sur le champ de bataille au pays qui dispose de systèmes autonomes du fait de leur vitesse d’opération pourrait générer chez un adversaire plus faible l’adoption de postures nucléaires peu stables (pré-délégation d’usage, lancement sur alerte, voire première frappe).
Incertitudes et initiatives
Plus que l’IA, c’est donc souvent davantage l’accroissement de la vitesse dans la conduite des opérations qui est perçu comme générateur d’instabilité. Les applications de l’IA sont ici à comparer à d’autres types de développements, dans le registre des vitesses hautement supersoniques par exemples. En tout état de cause, le risque identifié ici a trait aux accidents dus aux erreurs de calculs liés à la diminution des temps d’alerte.
Les divers risques perçus par l’analyse sont accrus par l’incertitude dans laquelle se trouvent et se trouveront les acteurs des chaînes de commandement face au fonctionnement des systèmes autonomes adverses. La méconnaissance mutuelle des développements technologiques dans les États dotés est bien un facteur de risque en tant que tel.
De manière plus générale, l’accroissement du nombre d’États possesseurs de l’arme nucléaire depuis la fin du siècle dernier ainsi que la fin du fonctionnement essentiellement bipolaire des alliances sous la Guerre froide inscrivent ces risques dans un environnement stratégique moins prévisible (probabilité accrue d’erreurs de perception et de calcul entre des acteurs plus nombreux soumis à des facteurs de décision concurrents et circonstanciés, et qui ne partagent pas la même culture stratégique – entretien de postures d’ambiguïté par exemple).
L’impact perçu de l’IA sur la stabilité stratégique nourrit aujourd’hui l’argumentaire de ceux qui plaident pour la diminution de l’état d’alerte des armes dans les arsenaux. Les mêmes demandent l’adoption de doctrines de non-emploi en premier par tous les États possesseurs de l’arme nucléaire, au nom d’un principe de précaution.Voir par exemple Franck Sauer, « Military applications of artificial intelligence : nuclear risk redux », in The impact of artificial intelligence on strategic stability and nuclear risk, SIPRI, mai 2019. Le sujet est sans surprise devenu l’un des moteurs de la thématique de la « réduction du risque stratégique » portée récemment par plusieurs think tanks anglo-saxons,Voir par exemple Report: Re-emerging risks in Europe, BASIC, mai 2019. ainsi que par le Secrétariat général des Nations unies.Voir l’« Agenda du désarmement » du Secrétaire général des Nations unies, printemps 2018, ou l’étude de l’UNIDIR : Nuclear risk reduction : The state of ideas, 2019, par exemple. À l’évidence, il s’agit là d’un nouveau terrain pour la réflexion en matière de maîtrise des armements. En particulier, si les applications de l’IA peuvent améliorer la stabilité stratégique, ce sera grâce à des formes de coordination entre États permettant d’éviter ou, pour le moins, de minimiser l’émergence de nouveaux phénomènes d’asymétrie dans une dynamique d’action / réaction technologique.
En tout état de cause, l’impact de l’IA sur la stabilité stratégique dépendra des avancées de la discipline qui restent très incertaines aujourd’hui, mais aussi de leur utilité potentielle. En particulier, la question de la vulnérabilité des systèmes aux risques cyber (y compris la manipulation du paysage informatif) pourrait être de nature à déterminer fortement l’application de l’apprentissage machine et de l’autonomie aux architectures de dissuasion. Il est en effet probable que l’environnement très conservateur dans lequel se sont inscrits les arsenaux nucléaires des État dotés depuis la mise en place des doctrines de dissuasion aura tendance à spontanément sur-réagir à cette nouvelle perception de vulnérabilité.
Intelligence artificielle et analyse du risque en matière de stabilité stratégique
Bulletin n°68, septembre 2019