Applications nucléaires de l’automatisation : rappels historiques

La question de l’automatisation et de la délégation aux machines des fonctions de prise de décision est une facette de l’Histoire nucléaire sous la Guerre froide. Bien qu’incomplète en littérature ouverte, cette Histoire met en lumière des enjeux qui restent pertinents pour la réflexion contemporaine sur l’intelligence artificielle en matière stratégique.

L’automatisation des fonctions militaires est une constante du débat stratégique au cours de la Guerre froide. Les implications des systèmes machines sans contrôle humain direct appliqués aux moyens militaires ont en particulier généré des réflexions qui furent à l’origine de la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (acronyme anglo-saxon CCW) signée en 1980 et en vigueur depuis 1983. Les discussions au sein de la CCW ont alors essentiellement porté sur la robotisation des moyens conventionnels. Au plan nucléaire, la « Doomsday machine » du film de Stanley Kubrick Docteur FolamourDr. Strangelove or: How I Learned to Stop Worrying and Love the Bomb, sorti en 1964, est inspiré du roman de l'écrivain britannique Peter George 120 minutes pour sauver le monde publié (Two Hours to Doom) sorti en 1958, traduit en français en 1959. indique assez que les implications morales des systèmes machines appliqués à l’arme nucléaire animèrent le débat stratégique et public occidental dès les années 1950.

Originellement, c’est la nécessité de garantir la crédibilité et la fiabilité des capacités de frappe en second qui rend compte de l’évolution des systèmes d’armes vers une sophistication accrue de la détection et de l’alerte avancée ainsi que des systèmes de commande et de contrôle des forces. Avec la constitution des arsenaux et la mise en place de triades stratégiques, la nécessité d’une planification minutieuse, la mise en œuvre de postures de lancement sur alerte (« launch-on-warning ») et la contrainte de prises de décision rapides accentuèrent le besoin de s’appuyer sur des systèmes automatisés ou semi-automatisés. En particulier, le développement en 1960 du premier outil de planification stratégique intégré SIOP (« Single Integrated Operational Plan ») aux États-Unis prévoyait des systèmes automatisés de natures diverses, du ravitaillement en vol des bombardiers stratégiques à la mise en place du système de commande et contrôle des fonctions opérationnelles des forces, le « Strategic Automated Command and Control System » (SACCS) à partir de 1968 : l’ITT 465 L SACCS était fondé sur le système évolutif de traitement de données IBM AN/FSQ-31 SAC. Le système américain SAGE (« Semi-Automatic Ground Environment »), originellement développé par le Massachusetts Institute of Technology (MIT) comme simulateur de vol pour l’US Navy, est un autre exemple de système automatisé développé dès les années 1950 et opérationnel de la fin de la décennie jusqu’au début des années 1980. Il s’agissait de produire en temps réel une image de l’espace aérien national destinée à détecter toute intrusion de bombardier ennemi pour en permettre l’interception. SAGE fonctionnait avec l’ordinateur AN/FSQ-7 Combat Direction Central d'IBM inspiré du Whirlwind II et combinait pour la première fois dans l’Histoire numérique des capacités de calcul, des interfaces de saisie et de lecture, une téléphonie, des modems, des téléscripteurs, et une télégraphie. Enfin, en matière de systèmes ABM, les évolutions du Perimeter Acquisition Radar Attack Characterization System (PARCS) à partir des années 1970 aux États-Unis fournissent une bonne illustration de l’automatisation progressive des systèmes d’alerte avancée sur le territoire américain (caractérisation d’attaque, calcul de probabilité des points d’impact).

Du côté soviétique, l’expérience de la main morte (« Mertvaya Ruka », ou « Dead Hand ») à partir du milieu des années 1980 concentre encore aujour­d’hui l’imaginaire de l’automatisation des forces nucléaires sous la Guerre froide. En réalité, les objectifs des planificateurs soviétiques et américains furent à peu près similaires dès les années 1950 et si la couverture, les capacités ou la durabilité des systèmes soviétiques ne furent sans doute pas à la hauteur de celles de leurs compétiteurs, les deux parties élaborèrent des systèmes comparables. Le système de la Main Morte, pour autant que l’on puisse le savoir en sources ouvertes, était opérable en mode semi-automatique afin de lancer une riposte sans ordre de l’autorité de commandement suprême. Il s’appuyait sur tout en étant distinct du système Perimetr, un système automatique de fusées de signalisation destiné à diffuser des messages radio pour déclencher le lancement de missiles en cas de destruction d’autres modes de communication. Les États-Unis disposaient également d’un système analogue au système Perimetr : le AN/DRC-8 Emergency Rocket Communications System (ERCS). La Main Morte fonctionnait semble-t-il de manière déductive : génération d’un commandement préliminaire, détermination de la réalité d’une attaque nucléaire sur le territoire soviétique ; vérification de la non-fonctionnalité du réseau de communication avec l’autorité de commandement ; transfert, le cas échéant, de l’autorité de lancement à un groupe d’officiers dédié en un lieu sécurisé. Alors, la décision de lancement du système Perimetr incombait à ce groupe selon des modalités tenues secrètes. En tout état de cause, la Main Morte n’était ni un système autonome ni une arme « intelligente ».

L’historique des erreurs dans l’automatisation des dispositifs de commande et contrôle nucléaire est assez documenté en sources ouvertes. L’on retrouve fréquemment les trois anecdotes suivan­tesVoir par exemple Lewis P. et al, Too Close for Comfort: Cases of Nuclear Use and options for Policy, Chatham House, avril 2014. : en novembre 1979, un exercice de guerre chargé par erreur sur un ordinateur du NORAD (North American Aerospace Defense Command) fournit des données au système d’alerte avancée sur une attaque nucléaire imminente. En juin 1980, le conseiller à la sécurité nationale du président Carter, Zbigniew Brzezinski, fut appelé deux fois par le commandement du NORAD pour l’avertir que plusieurs centaines, puis plusieurs milliers d’ICBM étaient en approche depuis l’URSS avant qu’un troisième appel ne l’informât qu’il s’agissait d’une fausse alerte (vraisemblablement due à l’erreur d’un ordinateur bon marché au centre de commandement du NORAD). En septembre 1983, le système soviétique d’alerte avancée rapporta également par erreur l’approche de cinq ICBM américains.

Ces exemples étayent en général les argumentaires politiques sur la nécessité de réduire le risque nucléaire dû aux erreurs de calcul ou de perception ou sur l’insuffisance des dispositifs de sécurité nucléaire des États dotés. En réalité, ils illustrent plutôt la valeur accordée à la décision humaine et à la redondance des dispositifs de contrôle dans la mise en place de l’équilibre stratégique au cours de la Guerre froide. En particulier, c’est la capacité du NORAD de vérifier de manière indépendante son système radar qui permit d’éviter l’erreur perceptive de novembre 1979. C’est l’évaluation de la menace par l’officier soviétique en poste qui permit d’éviter celle de 1983. Responsables américains comme soviétiques étaient généralement acquis à l’idée de redondance des dispositifs d’alerte avancée comme aux limites intrinsèques des solutions automatisées.

En définitive, les applications nucléaires de l’automatisation alors que prenait forme la structuration bipolaire de l’ordre stratégique indiquent plusieurs idées utiles pour le débat actuel.

Premièrement, les progrès récents de l’apprentissage-machine et de l’autonomie n’ouvrent pas un champ inédit de la réflexion ni stratégique ni opérationnelle.

Deuxièmement, la volonté de comprendre la place et le rôle de l’automatisation dans les systèmes adverses animait les responsables de l’époque. La question du partage de cette information dans le cadre d’un dialogue soucieux de stabilité se pose aujourd’hui comme il se posait hier. Par exemple, les responsables soviétiques estimaient que le système de la Main Morte offrait un gage de stabilité en permettant aux dirigeants de pas avoir à prendre une décision de lancement en situation de crise, alors que l’opacité du système généra du côté occidental la perception inverse d’un système automatique déstabilisant. Par ailleurs, la question de la place de la décision humaine se pose dans ce type de système, que l’on envisage le responsable en charge comme un être doué de libre arbitre ou comme le rouage surentraîné d’une organisation autonome.

Troisièmement, les réalisations technologiques furent insuffisantes pour s’en remettre à des systèmes d’alerte avancée et de commande et de contrôle automatisés autosuffisants. Au contraire, contrôle humain et redondance installèrent une norme historique de sécurité des procédures.

Quatrièmement, les architectures de forces des États dotés ont jusqu’à présent été très conservatrices s’agissant des nouveaux apports technologiques au regard des critères retenus de sûreté et de sécurité dans les économies développées. L’objectif prioritaire étant de ne pas générer de vulnérabilités ou de ne pas réduire la fiabilité des armes, l’Histoire nucléaire indique plutôt l’entretien d’une culture de la robustesse de systèmes éprouvés. A ce titre, l’une des questions que pose aujourd’hui l’impact des développements de l’IA sur la dissuasion est d’une part celle de la culture de sécurité des nouveaux États possesseurs de l’arme nucléaire depuis la fin de la Guerre froide (Inde, Pakistan, RPDC), d’autre part celle de la place accordée par la Chine à l’apprentissage-machine et à l’autonomie dans ses systèmes d’arme futurs, y compris les dispositifs de commande et de contrôle.

Télécharger le bulletin au format PDF