Dissuasion nucléaire et intelligence artificielle

Emmanuelle Maitre, bulletin n°60, décembre 2018

Le développement de l’intelligence artificielle dans le domaine militaire est une réalité particulièrement prise en compte aux Etats-Unis, en Russie et en Chine. Ces trois Etats investissent en effet fortement dans des programmes de R&D consacrés à ce secteur. Grâce à ces efforts et à certaines innovations technologiques réalisées dans les années récentes, le secteur de l’IA semble appelé à prendre une place considérable dans les stratégies militaires des Etats qui s’y intéressent. Aussi, il est très utile de s’interroger sur les conséquences que pourrait avoir le développement de l’IA en matière de dissuasion nucléaire.

L’idée d’une intelligence artificielle contrôlant le destin ultime de l’humanité n’a rien de nouveau. L’intrigue de Dr Folamour repose sur l’idée d’une machine pouvant automatiquement prendre la décision d’une riposte nucléaire massive. Par ailleurs, des ingénieurs russes ont laissé entendre qu’il existait bien en Russie un mécanisme de représailles automatique connecté au système d’alerte avancée, surnommé « Dead Hand »Nicholas Thompson, « Inside the Apocalyptic Soviet Doomsday Machine », Wired, 21 septembre 2009.. La différence entre ces programmes, fictifs ou réels, et l’IA pouvant se développer dans les décennies qui viennent est majeure. En effet, les progrès réalisés dans ce domaine permettent des opérations et calculs extrêmement complexes, la prise en compte de facteurs multiples, et l’observation et l’analyse de données toujours plus nombreuses. Il ne s’agit donc pas de se lier les mains en supprimant le facteur humain de la prise de décision, comme dans le mécanisme « Dead Hand », afin d’améliorer la crédibilité de la dissuasion. Il s’agit d’envisager l’exécution de tâches qui dépassent largement les compétences humaines, et de permettre l’intégration dans la prise de décision de davantage de données et/ou de calculs réputés être plus objectifs.

Les capacités des IA en développement peuvent de toute évidence trouver des applications en matière de dissuasion. Pour autant, peu de travaux de recherche y ont été consacrés. La RAND a pallié à ce manque au printemps 2017 avec la convocation de trois groupes de recherche ayant donné lieu à la publication d’un rapport en avril 2018Edward Geist, Andrew Lohn, « How Might Artificial Intelligence Affect the Risk of Nuclear War ? », RAND Corporation, avril 2018.. Ce travail fait aujourd’hui figure de première référence et devrait faire l’objet de travaux ultérieurs pour approfondir ses conclusions.

Il s’interroge sur la capacité de l’IA à influencer la stabilité stratégique, positivement ou négativement. Pour ce faire, il adopte une posture prospective en proposant quatre scénarios d’évolution en matière d’IA d’ici à 2040. Dans le premier cas, il suppose que la situation actuelle représente un palier technologique. Selon cette hypothèse, dans le futur, l’IA aurait donc logiquement peu d’incidence sur la dissuasion. Le dernier cas suppose l’émergence de super-intelligence échappant complètement à la maîtrise humaine. Il serait impossible de prédire des impacts en matière de stabilité stratégique, une telle intelligence ayant par son ampleur le pouvoir de « sauver ou détruire l’humanité ». Les deux scénarios intermédiaires sont les plus étudiés. Dans un cas, les technologies de l’IA progressent sensiblement et par pallier, dans l’autre, les progrès sont beaucoup plus graduels. Dans ces deux cas, il est admis que l’IA reste potentiellement faillible. La RAND mêle à ces scénarios des variables stratégiques, en imaginant par exemple le cas d’une Russie revendicatrice, d’une Chine prenant un rôle de leader sur la scène internationale ou encore en étudiant la situation d’une guerre régionale sur la péninsule coréenne.

Enfin, les groupes de travail mis en place par la RAND ont principalement étudié deux fonctions de l’IA dans le domaine de la dissuasion stratégique : la capacité de repérer et suivre des systèmes de types ICBM mobiles, et l’aide à la prise de décision dans une situation d’escalade.

Ceci étant posé, le rapport se singularise par l’absence de consensus entre les experts, avec des visions très pessimistes, d’autres plus optimistes, et un certain scepticisme chez une partie d’entre eux. Ainsi, certains doutent de la capacité d’une IA à collecter d’ici à 2040 suffisamment d’informations utiles pour échapper aux possibles leurres. Ces doutes se retrouvent exprimés chez d’autres chercheursVincent Boulanin, « The Promise and Perils of Artificial Intelligence for Nuclear Stability », Our World, United Nations University, 7 décembre 2018.. D’autres insistent sur leur vulnérabilité, en particulier au risque cyber, qui en fait des instruments peu fiables pour ce type de mission. Les machines pourraient en effet voir leur fonctionnement corrompu par l’insertion de fausses informations au moment de leur conception ou plus tard. Enfin, certains insistent sur le risque existant à confier à une intelligence sans émotion des décisions aussi vitales.

Néanmoins, la plupart des experts réunis par la RAND se sont accordés sur un point : même s’il est difficile de savoir si une IA serait à même d’identifier correctement des données, son existence même pourrait être perçue comme déstabilisante pour un adversaire.

Concernant l’utilisation de l’IA pour détecter des capacités nucléaires mobiles adverses et les frapper, plusieurs cas de figure pourraient se présenter. Dans un cas extrême, cette ressource pourrait être performante au point de saper la confiance d’un acteur dans sa capacité à riposter à une attaque nucléaire. Cette circonstance pourrait être particulièrement déstabilisatrice et encourager un scénario de première frappe. Dans un cas plus modéré, l’IA pourrait être utile pour repérer des forces modestes, notamment d’un Etat proliférant comme la Corée du Nord. Mais son développement par Washington serait perçu d’un mauvais œil à Pékin et Moscou et pourrait engendrer une logique de développement des arsenaux, dans un schéma relativement similaire à ce qui s’observe aujourd’hui en matière de défense antimissile.

Utilisée pour analyser des données issues du renseignement et de l’observation, pour contrôler des plateformes d’observation autonomes ou pour reconnaître des objets de manière automatique, l’IA serait une menace à des stratégies de dissuasion minimale. Elle pourrait également favoriser l’utilisation d’armes de précision conventionnelles pour cibler des systèmes stratégiques, accentuant des craintes déjà particulièrement prégnantes en Russie. Dans un contexte de crise, l’existence de telles capacités pourraient inciter un adversaire inquiet sur la capacité de survie de ses armes à franchir en premier le seuil nucléaire dans une logique préemptive. En temps de paix, il pourrait à tout le moins encourager un acteur s’estimant menacé à moderniser et étendre son arsenal, renoncer à une posture de non-emploi en premier, ou augmenter les niveaux d’alerte. L’automatisation des procédures d’alerte avancée et de riposte pourraient également être envisagéesIdem.. Le caractère déstabilisant de l’IA employée dans une telle fonction pourrait être partiellement compensé par la négociation de mesures de maîtrise des armements. Néanmoins, une majorité des experts interrogés par la RAND ont semblé indiquer un bilan plutôt négatif en termes de stabilité stratégique pour ces nouvelles technologies.

Ils ont aussi travaillé sur l’apport de l’IA pour ce qui est de l’aide à la décision. Sur ce champ, les avis étaient très partagés sur la volonté des humains en 2040 à confier à une machine des décisions aussi essentielles, en particulier au vu des risques de piratage. Il serait en effet difficile d’être absolument certain qu’un système n’a pas été victime d’une intrusion cyber. Pour une majorité d’entre eux néanmoins, il semble que la période initiale d’introduction de ces systèmes puisse être la plus dangereuse avec le plus grand risque d’erreur et d’escalade incontrôlée. Certains ont évoqué des retombées possibles positives : une intelligence artificielle pourrait être plus raisonnable et limiter les risques d’erreur dans l’analyse des données issues des systèmes d’alerte avancée. Elle pourrait également introduire de la confiance en multipliant les informations disponibles. D’autres avaient suggéré l’intérêt de telles intelligences pour disposer de moyens de vérification plus fiables en matière de maîtrise des armements voire de non-proliférationVincent Boulanin, op. cit.. Néanmoins, le rapport pointe dans ce cadre le danger d’un tel mécanisme : en pensant pouvoir maîtriser l’escalade, un acteur pourrait se montrer trop confiant et justement précipiter une crise.

Ce rapport permet de lancer utilement les réflexions sur les conséquences du développement de l’IA en matière nucléaire. Celles-ci doivent prendre en compte plusieurs paramètres. Tout d’abord, il n’est pas certain d’emblée que les conséquences soient négatives, ainsi, si on prend en compte l’utilisation de l’IA pour assister les forces offensives, il faut également penser au rôle qu’elle pourrait avoir pour protéger des systèmesCorentin Brustlein, « Intelligence artificielle et armes nucléaires : quels risques ? », Atlantico, 27 avril 2018.. Par ailleurs, une question centrale reste la propension à céder le contrôle d’une arme aussi sensible que l’arme nucléaire à une intelligence non-humaine. De telles observations ont été réalisées par un groupe de travail mis en place sur le même thème par Lawrence Livermore National Laboratory en septembre 2018. Les experts convoqués avaient émis des interrogations similaires sur la capacité à jouer un rôle majeur en matière d’aide à la décision. En revanche, ils exprimaient des inquiétudes sur les effets en matière de stabilité stratégique, potentiellement menacée pour eux aussi par la vulnérabilité accrue des systèmes« Assessing the Strategic Effects of Artificial Intelligence », Worskhop Summary, Center for Global Security Research, Lawrence Livermore National Laboratory, septembre 2018.. Dans ce contexte, un enjeu principal pour les puissances nucléaires demeure la cyber-protection. En effet, la vulnérabilité à court et moyen terme des capacités stratégiques au risque cyber semble établie. Avec l’utilisation accrue d’IA pour la mise en œuvre des systèmes, cette menace ne peut que s’accroître. Il est donc essentiel d’intégrer cette question dès la conception de l’architecture et de poursuivre les réflexions sur leur éventuelle prise en compte dans des efforts de maîtrise des armements. Bien que très difficile en pratique, l’intégration du cyber et de l’IA dans des traités internationaux restent une recommandation régulièrement émise dans l’optique de ne pas dégrader la stabilité stratégique actuelleGreg Allen et Taniel Chan, « Artificial Intelligence and National Security », Belfer Center Study, Belfer Center for Science and International Affairs, juillet 2017..

Télécharger le bulletin au format PDF

Partager


Sommaire du bulletin n°60

Télécharger le bulletin


Archives du bulletin

Retour à l'accueil du programme