The New Era of Counterforce: Technological Change and the Future of Nuclear Deterrence
Observatoire de la dissuasion n°43
mai 2017
Selon la théorie de la révolution nucléaire, popularisée en particulier par Robert Jervis en 1989, l’invulnérabilité offerte par la dissuasion nucléaire devrait conduire les États qui en bénéficient à abandonner les dynamiques de course aux armements et phénomènes d’hostilité marquée puisque leur sécurité serait garantie. L’histoire de la guerre froide a cependant montré que ce type de comportements apaisés n’était pas prédominant. Pour les deux auteurs de ce papier, ce qui était considéré comme irrationnel est en réalité parfaitement justifié, car il est infondé d’estimer ses forces comme durablement invulnérables et leur capacité de survie assurée qu’elles que soient les circonstances. Ceci est d’autant plus vrai aujourd’hui, alors que les révolutions technologiques offrent des avantages substantiels aux capacités de contre-force. S’ils reconnaissent que la vulnérabilité des arsenaux est encore très variable d’un pays à l’autre, ils jugent que les tendances vont néanmoins nettement en ce sens, et analysent les conséquences de ce changement.
À titre préliminaire, ils rappellent les fondements de la théorie de la révolution nucléaire et montrent que les partisans de l’invulnérabilité se sont longtemps appuyés sur la supériorité de trois tactiques complémentaires : le renforcement des armes dans des silos difficiles à détruire, leur dissimulation notamment sur des missiles mobiles ou à bord de SNLE et la redondance des différents systèmes, y compris au niveau du contrôle et du commandement.
Cependant, ils expliquent que la précision accrue des armes menace ces trois réponses classiques à la question de la survie. Cette précision est notamment due à quelques innovations technologiques observées depuis la fin des années 1980 : l’arrivée des capteurs inertiels, la possibilité pour les systèmes mobiles de se géo-localiser avec précision, ou encore la communication entre avions et bombes intelligentes permettant d’ajuster les trajectoires. Elle a permis de modifier considérablement les performances de l’arsenal américain en particulier. Ainsi, à titre d’exemple, les chercheurs estiment qu’entre 1985 et aujourd’hui, les ICBM ont vu leur capacité d’atteindre leur cible augmenter de 54 % à 74 %, et les SLBM de 9 % à 80 % (estimations qui considèrent de manière stable 20 % de dysfonctionnement et défaillance). Grâce à la quasi-disparition des cas de cible manquée, le problème traditionnel de tirs fratricide est presque entièrement éliminé. Par ailleurs, grâce aux nouvelles têtes développées par la NNSA, les SLBM peuvent être pleinement intégrés à l’arsenal de contre-force. Deuxièmement, les estimations de précision pourront très rapidement être réévaluées à la hausse grâce à la généralisation des nouveaux détonateurs qui ajustent l’explosion en fonction de la trajectoire réelle ainsi que la capacité à réattribuer un autre missile à une cible en cas de défaillance, et ce dans des délais de quelques minutes au maximum.
En cumulant les effets de ces innovations, les chercheurs estiment que l’arsenal américain pourrait réussir l’exploit d’éliminer entièrement une force de 200 silos nucléaires endurcis sans en laisser aucun viable, alors qu’en 1987, une attaque considérée comme réussie aurait laissé une quarantaine de missiles en état de marche. Si ces calculs ne se veulent pas des descriptions fiables de scénarios d’attaque et reconnaissent omettre de nombreux facteurs, ils cherchent à illustrer des tendances et démontrer que pour la première fois, des scénarios d’attaque massive en premier deviennent plausibles.
Ceci est conforté par une autre tendance : l’aptitude d’une puissance nucléaire telle que les Etats-Unis à mener un assaut de contre-force tout en faisant peu de victimes. Avec des armes à précision moindre, et à puissance élevée, il était indispensable pour garantir le succès d’une frappe de procéder à un tir à basse altitude produisant des retombées radioactives importantes sur un vaste territoire. Avec des armes guidées extrêmement précises telles que la B61-12, cette condition n’est plus impérative. Ainsi, les auteurs proposent un modèle de frappe en utilisant la Corée du Nord à titre d’exemple, dans lequel l’utilisation de 20 B61-12 ne ferait que quelques centaines de victimes (soit pas plus que des armes conventionnelles), tout en détruisant les 5 cibles endurcies visées, alors que pour le même résultat, 10 W88 causeraient 2 à 3 millions de victimes sur l’ensemble de la péninsule. Cette capacité à « faire peu de morts » pourrait donc rendre encore plus attractives des stratégies de contre-force et d’emploi en premier.
Un autre facteur est selon eux crucial pour justifier ce type de stratégie ; l’entrée dans une ère de transparence. Cinq évolutions technologiques sont singularisées dans ce domaine : la diversification des capteurs utilisés, l’utilisation de techniques plus variées, l’observation dans la durée, l’amélioration continue de la résolution des capteurs et enfin l’augmentation massive de la vitesse de transmission des données.
Ils confrontent ces innovations avec les deux systèmes historiquement retenus pour préserver une capacité de seconde frappe : les SNLE et les ICBM mobiles. Dans le premier cas, ils montrent que dès la guerre froide, le jeu entre indétectabilité et capacité de lutte anti-sous-marine n’avait pas été à sens unique. Malgré beaucoup d’incertitudes sur les capacités réelles des différents systèmes, les progrès des capteurs acoustiques, des techniques non-acoustiques (détection laser), du traitement des « big data » ou encore la diversification des drones autonomes sous-marins semblent à terme accroître la vulnérabilité des SNLE. Concernant les ICBM mobiles, ils sont menacés par la combinaison entre l’imagerie satellite fournie par les radars à synthèse d’ouverture, qui effectue un traitement des données pour améliorer sa résolution, celle des avions de surveillance (y compris drones) qui opèrent à distance et des avions et drones furtifs qui peuvent rapidement survoler un territoire. En reprenant l’exemple de la Corée du Nord, les deux auteurs montrent que ces trois types de surveillance à eux seuls ne laisseraient que quelques minutes aux opérateurs de TEL pour déplacer discrètement leurs systèmes, et cela uniquement dans quelques zones très réduites du pays. Ils n’en concluent pas que les stratégies de dissimulation sont systématiquement vouées à l’échec, mais qu’elles ne peuvent plus garantir la survie des forces de dissuasion d’un pays.
Devant ce diagnostic, les auteurs anticipent les contre-mesures qui seront prises par les pays désireux de limiter leur vulnérabilité. Néanmoins, ils estiment qu’il sera très difficile de le faire de manière assurée, et que ce type de capacités ne restera l’apanage que des plus grandes puissances technologiques et budgétaires. En effet, les contre-mesures retenues peuvent se nuire l’une à l’autre, de plus, elles ne peuvent que difficilement prendre en compte toutes les technologies évoquées précédemment. Enfin, elles restent intrinsèquement compliquées à mettre en place, comme l’illustre la lenteur de la Chine pour réduire la signature acoustique de ses SNLE.
Cet article estime donc expliquer dans quelle mesure l’âge des capacités de contre-force qui s’ouvre résout le fossé observé entre la théorie de la révolution nucléaire et les pratiques des différents acteurs de la dissuasion. Les auteurs concluent leur analyse par trois observations. Tout d’abord, la difficulté rencontrée par les pays nucléaires pour garantir la survie de leurs forces devrait les inciter à augmenter quantitativement la taille de leurs arsenaux. De même, ils devraient logiquement être plus méfiants vis-à-vis des initiatives de maîtrise des arsenaux. En effet, traditionnellement, on pensait que plus les arsenaux étaient réduits, moins grand était le risque de frappe « surprise » en premier. Aujourd’hui, grâce à la généralisation des armes de contre-force, le diagnostic est tout autre. Enfin, ils s’interrogent sur la pertinence pour les Etats-Unis de poursuivre l’acquisition de ce type d’armes : en effet, elles rendent plus attractives les stratégies de frappe en premier, et, en accroissant la vulnérabilité des adversaires, risquent d’enclencher des phénomènes de course aux armements. Il est donc important de peser correctement les avantages et inconvénients de ces capacités tout en reconnaissant les évolutions durables de l’environnement stratégique.
The New Era of Counterforce: Technological Change and the Future of Nuclear Deterrence
Keir A. Lieber, Daryl G. Press
Bulletin n°43, mai 2017