Intelligence artificielle et réduction du risque nucléaire : données du problème et argument politique
Observatoire de la dissuasion n°66
Benjamin Hautecouverture,
juin 2019
La dégradation de l’environnement stratégique mondial depuis le début de la décennie a donné lieu à des préoccupations variées qui ont trouvé à se concentrer dans la notion de « risque nucléaire ».Cet article est le premier d’une série de trois sur l’intelligence artificielle (IA) et la dissuasion : le deuxième portera sur l’évolution technologique des applications nucléaires de l’automatisation depuis le début de la Guerre froide ; le troisième traitera de l’impact de l’IA sur l’analyse du risque en matière de stabilité stratégique. Accompagnant cette notion, l’ambition de « réduction du risque nucléaire » a pris corps après la Conférence d’examen du TNP de 2015 comme une formule qui peine encore à être définie de façon univoque.Un récent rapport du think tank britannique BASIC indique ainsi : « Il n'y a pas de consensus au sein de l'Europe sur ce que les mesures de réduction des risques pourraient impliquer aujourd'hui. » In Re-emerging Nuclear Risks in Europe, avril 2019, p.1 Elle fut réservée aux dangers liés au terrorisme nucléaire et radiologique impactant le champ de la sécurité nucléaire dans la foulée des quatre sommets multilatéraux appelés de ses vœux par le président Obama en 2009.Discours de Prague, 5 avril 2009. Après 2016,Le dernier des quatre sommets mondiaux sur la sécurité nucléaire s’est tenu à Washington au printemps 2016. la réduction du risque nucléaire s’est déplacée en se recentrant sur la conduite des politiques de dissuasion des États dotés, États-Unis et Russie au premier chef. Selon certains auteurs, praticiens et États, la réduction du risque nucléaire doit répondre à une approche holistique des questions nucléaires qui comprenne la sûreté, la sécurité, la non-prolifération, la dissuasion comme autant de facettes d’un seul enjeu.Il s’agit par exemple de l’approche collective défendue par le centre de recherche suédois SIPRI, ou par la Nuclear Threat Initiative (NTI) américaine. L’approche de la NTI dépasse désormais les seules questions nucléaires en intégrant les risques biosécuritaires (voir par exemple le lancement, en octobre 2018, de la « NTI Biosecurity Innovation and Risk Reduction Initiative » à Cambridge, Massachusetts). Selon d’autres, la réémergence de risques nucléaires propres à la relation stratégique américano-russe doit être traitée en tant que telle et rester circonscrite à la détérioration de cette relation. Il s’agit dans ce cas de la réinstallation d’une défiance mutuelle, de l’entretien de postures d’ambiguïté, du risque d’erreur de calcul et d’escalades, ou encore du phénomène de course à l’armement. Dans cette seconde acception, le risque nucléaire est cantonné à un certain nombre de risques stratégiques, soit connus et ré-émergents, soit inédits et émergents. En toile de fond, la dynamique bloquée du désarmement nucléaire sous ses différents formats anime les arguments qui nourrissent le débat actuel sur la réduction du risque. Ces arguments opposent les tenants d’une reprise des initiatives par étapes à ceux qui défendent une interdiction de production et d’emploi juridiquement contraignante au titre des conséquences humanitaires de l’emploi des armes nucléaires. L’approche dite « humanitaire » anima en 2017 la négociation puis la conclusion entre certains États d’un traité sur l’interdiction des armes nucléaires.TIAN, voté à l’Assemblée générale des Nations unies le 7 juillet 2017 et non entré en vigueur. En définitive, la réduction du risque nucléaire, formule à dessein très ouverte, se veut aujourd’hui un thème dynamique pour l’initiative politique que sous-tend en réalité un ordre du jour plus traditionnel entre défenseurs de l’abolition de l’arme nucléaire d’un côté et « arms controlers » classiques de l’autre. À ce titre, la réduction du risque nucléaire n’est sans doute pas tant un outil durable en sciences sociales qu’un moyen d’instrumentation politique opportun, soit pour relancer le processus de désarmement nucléaire soit pour le maîtriser.
De manière générale, l’intelligence artificielle (IA) en matière militaire est désormais abordée par l’ensemble de la littérature spécialiséeVoir par exemple le numéro que consacre à l’IA la Revue Défense Nationale au mois de mai 2019. alors que sa définition reste elle aussi ouverte.« La définition de l’IA s’avère illusoire : on peut désigner sous ce terme toute solution algorithmique effectuant des tâches sophistiquées, multiparamètres, évolutives, à adapter aux conditions particulières. » Cédric Villani, « Les enjeux de l’IA pour la Défense de demain », Revue Défense Nationale, mai 2019, p. 23. L’IA appliquée au nucléaire militaire réapparait depuis peu dans le débat stratégique comme l’une des modalités de l’émergence technologique. Il n’est pas surprenant que la réduction du risque s’en empare comme nouveau champ d’investigation. Il s’agit ici surtout de l’impact potentiel de l’apprentissage-machineLe concept de « machine learning » en IA se traduit également en français par « apprentissage automatique ». Il s’agit schématiquement d’une approche du développement de logiciels destinée à produire des systèmes capables d’améliorer leurs performances sans être programmés pour la résolution de tâches spécifiques préalablement définies. Pour Page Stoutland, il s’agit d’une « approche de l'ingénierie de l'intelligence artificielle qui permet aux systèmes d'apprendre et de s'améliorer automatiquement à partir de l'expérience sans être explicitement programmés. » In Page Stoutland, « Artificial intelligence and the modernization of U.S. nuclear forces », The impact of artificial intelligence on strategic stability and nuclear risk, vol.I, mai 2019, p. 63. et de l’autonomie sur les systèmes d’arme futurs, les dispositifs de commande et de contrôle en particulier mais pas seulement. Le champ de l’intelligence artificielle s’est accru depuis le début de la décennie du fait d’une percée récente dans le cycle technologique de l’apprentissage-machine, multipliant les applications possibles en matière d’autonomie. Le concept d’autonomie est distinct de celui d’apprentissage automatique même s’il en est une sorte de « produit dérivé »Vincent Boulanin, « Artificial intelligence: A primer », The impact of artificial intelligence on strategic stability and nuclear risk, vol. I, mai 2019, p. 21. dans l’acception récente que l’on en a. Il convient là encore de noter qu’il n’y a pas à ce jour de définition commune de l’autonomie comme des systèmes autonomes : le niveau d’autonomie d’un système peut être analysé selon plusieurs angles. Il convient donc de définir le terme que l’on entend par autonomie avant de l’utiliser.
La polysémie propre à l’IA, réalité technologique et d'ingénierie, rend à la fois possible et délicate son application au risque nucléaire, réalité physique autant que sujette à la perception politique et sociale. Plusieurs travaux récents abordent la question avec prudence, quitte à cantonner leurs conclusions à la formulation d’hypothèses. Par exemple, forte de l’idée selon laquelle l’IA pourrait être porteuse de nouvelles capacités susceptibles de stimuler une course aux armements ou d’accroître la probabilité d'une escalade vers l'utilisation de l’arme nucléaire en cas de crise, la RAND Corporation organisa au cours de l’année 2017 une série d’ateliers de travail conduisant à un rapport intitulé Security 2040. Ce travail explore les scénarios dans lesquels l’IA pourrait être un facteur de stabilité ou d’instabilité nucléaire à l’horizon 2040.Edward Geist, Andrew J. Lohn, Security 2040 – How might artificial intelligence affect the risk of nuclear war, RAND Coroporation, 26 p. 2018. Dans une perspective revendiquée de réduction du risque, le SIPRI a lui aussi lancé en 2018 un projet éditorial en trois volumes dont le premier est sorti au mois de mai 2019, dédié à l’impact de l’IA sur la stabilité stratégique et le risque nucléaire.Vincent Boulanin (ed.) The impact of artificial intelligence on strategic stability and nuclear risk, volume I, Euro-Atlantic Perspectives, mai 2019, 141 p.
D’abord, l’idée d’une rupture technologique qui ouvrirait un nouveau champ et ajouterait au risque nucléaire un enjeu impensé est incorrecte. La question de l’automatisation et de la délégation aux machines des fonctions de prise de décision traverse l’histoire nucléaire depuis les années 1960. À cet égard, les promesses des technologies d’automatisation ne permirent jamais aux décideurs américains comme soviétiques de s’en remettre à des systèmes d’alerte avancée et de commande et de contrôle automatisés qui fussent matures, fiables et auto-suffisants, mais au contraire les obligèrent à instituer la redondance des procédures sous contrôle humain. C’est toujours le cas aujourd’hui. De même, l’enjeu que représente la compréhension du rôle de l’automatisation et de l’autonomie dans les systèmes adverses était déjà familier aux responsables au cours de la Guerre froide.
Ensuite, le rythme des progrès réalisés en IA donne toujours lieu à des évaluations divergentes entre spécialistes : sera-t-il incrémental ou procédera-t-il par sauts discontinus ? Continuera-t-il à s’inscrire dans des cycles, auquel cas une stagnation durable dans les prochaines années (« AI Winter ») repoussera l’examen des considérations de risque ? Faut-il au contraire s’attendre à la constitution de « super-intelligences » ? Ces quatre écoles de pensée se partagent l’analyse prospective de l’IA. Dans tous les cas, l’impact des progrès de l’IA sur les forces nucléaires résultera de choix en matière de doctrines et de capacités. Jusqu’à présent, les architectures de forces des États dotés ont été très conservatrices s’agissant de l’apport des technologies de l’information et de la communication pour des raisons de sûreté et de sécurité, afin de ne pas introduire de nouvelles vulnérabilités ou de réduire la fiabilité des armes. Il s’agit pourtant d’un enjeu contemporain au moins commun aux cinq États dotés au titre du TNP dans le cadre de leurs programmes de mise à niveau et/ou de modernisation des forces.
Par ailleurs, toute technologie potentiellement déstabilisante en IA s’accompagne a priori d’une contre-technologie stabilisante : la mesure du risque doit donc être faite au cas par cas. L’IA dans le champ nucléaire peut être analysée à quatre niveaux : l’alerte avancée, la surveillance et les capacités de renseignement et de discrimination ; les systèmes de commande et de contrôle ; les moyens d’emport ; les applications stratégiques non directement nucléaires (architectures de cyberdéfense, ciblage des systèmes défensifs conventionnels, guerre électronique, sécurité physique des forces et des arsenaux, etc.). En matière d’alerte avancée et de collecte de renseignement, l’apprentissage-machine est d’ores et déjà utilisé avec succès aux États-Unis pour établir des corrélations entre paquets de données hétérogènes dans le contre-terrorisme. Les capacités de traitement de données peuvent également être utilisées pour identifier plus rapidement des déploiements, améliorer la connaissance d’une situation de théâtre et accroître le temps dévolu à la décision. Si la plupart des analyses se concentrent aujourd’hui sur l’impact de l’apprentissage automatique et de l’autonomie sur les dispositifs de commande et de contrôle, il n’y a sans doute pas à attendre de transformations significatives à un horizon prévisible : d’abord parce que l’automatisation est déjà développée dans ce domaine, ensuite parce que la criticité des systèmes ne les dispose pas à l’application d’algorithmes que les ingénieurs maîtrisent mal. En revanche, l’on peut s’attendre à ce que les avancées permettent d’accroître la protection des systèmes contre les cyberattaques et les offensives de brouillage. S’agissant des vecteurs, des progrès dans l’autonomisation et la précision de la navigation vers les cibles sont en cours d’exploration. C’est notamment le cas s’agissant des systèmes de contrôle des vecteurs hypersoniques du fait, précisément, de leur vélocité. Le champ des UCAV et UUV est également impacté par la recherche sur l’autonomie (endurance et récupérabilité, notamment). Enfin, les applications sont nombreuses en matière de ciblage par les systèmes conventionnels défensifs, en matière offensive et défensive cyber (l’automatisation est déjà une clé des architectures de cyberdéfense), comme en matière de guerre électronique. Dans tous les cas néanmoins, aucune des technologies pertinentes n’a atteint un stade tel qu’elle puisse conduire à une rupture stratégique dans un avenir prévisible : d’abord parce que l’immaturité des technologies pose encore des problèmes de sûreté/fiabilité, ensuite parce qu’aucune technologie en développement n’est susceptible de menacer la survivabilité des capacités de seconde frappe d’aucun État doté, ce qui alors modifierait en effet de nombreux fondamentaux de la stratégie nucléaire.
En définitive, l’application de l’IA à la réduction du risque nucléaire est féconde sans que le débat occidental récent n’emprunte une voie privilégiée ou n’indique une voix majoritaire. Le traitement du sujet n’indique pas non plus de captation politique ou idéologique significative.