AI and the Bomb

Alors que les questions portant autour de l’intelligence artificielle et l’automatisation prennent de plus en plus d’importance dans le débat général, il en est de même au sujet de l’application de ces deux sujets au domaine de la défense. Comme remarqué par B. HautecouvertureBenjamin Hautecouverture, « Intelligence artificielle et analyse du risque en matière de stabilité stratégique », Bulletin n°68, Observatoire de la Dissuasion, septembre 2019., l’éventuelle irruption de l’intelligence artificielle dans le domaine du nucléaire pose deux questions majeures : peut-elle entraîner des effets déstabilisants sur l’équilibre stratégique ? Plus largement, l’intelligence artificielle représente-t-elle un risque ou une opportunité stratégique ? Ces questions, posées en 2019, continuent d’infuser le débat actuel. D’autant que les progrès technologiques dans le domaine continuent d’évoluer à une vitesse telle que leurs effets en viennent à être qualifiés de disruptifsJames Johnson, AI and the Bomb. Oxford University Press, février 2023.. C’est ce sujet complexe que traite James Johnson dans un ouvrage récent consacré à l’intelligence artificielle et l’arme nucléaire.

L’intelligence artificielle peut être définie comme un terme général utilisé pour qualifier l’amélioration de la performance des systèmes automatisés, dans le but de résoudre un certain nombre de tâches complexes. Après une émergence du domaine de recherche dans les années 1950, les avancées exponentielles réalisées grâce à l’amélioration des technologies et l’augmentation de l’intérêt commercial et les investissements dans le secteur en font un sujet qui continue de se développer rapidement. Parmi les champs les plus dynamiques, on retrouve notamment celui de l’apprentissage autonome (machine learning) permettant aux systèmes informatiques d'« apprendre » par eux-mêmes (c’est-à-dire sans l’aide d’un ingénieur codant un algorithme visant à effectuer une action). Ces dernières années, une sous-catégorie de ce domaine prénommée apprentissage profond (deep learning) a émergé comme un domaine particulièrement disruptif. De fait, ce dernier repousse les limites de l’apprentissage autonome afin de transformer des données brutes en représentations abstraites, en vue d’effectuer lui aussi une série de tâches complexes. En d’autres termes, les logiciels utilisant l’apprentissage profond peuvent ainsi produire des concepts complexes à partir de représentations simples. Toutefois, malgré leur potentiel immense, James Jonhson montre que les systèmes d’apprentissage autonome et d’apprentissage profond comportent un certain nombre de faiblesses. Les algorithmes peuvent ainsi être incapables de s’adapter ou de généraliser les conditions au-delà d'un ensemble étroit d'hypothèses (brittleness problem) ou avoir des difficultés à déduire des expériences ou utiliser un raisonnement abstrait (« faire preuve de bon sens » selon la formule de James Johnson), ce qui pose problème lorsque la prise de décision se fait dans un environnement marqué par la confusion et des informations imparfaites. Un autre facteur limitant réside dans le fait que la qualité des algorithmes utilisés par les systèmes d’apprentissage est déterminée dans les faits par la qualité des données qui lui sont mises à disposition. Enfin, et plus contraignant pour la gouvernance des systèmes d’intelligence artificielle, ces algorithmes sont par nature opaques, du fait que les humains ne codent pas lors de chaque étape du processus. Cette opacité implique pour l’auteur un certain niveau d’imprévisibilité, avec potentiellement d’importantes conséquences au niveau stratégique et légal lorsqu'il s’agit d’attribuer la responsabilité en cas d'accident.

Du fait du caractère à double usage de l’intelligence artificielle, l’expansion de ce domaine comporte d’importants enjeux stratégiques : ceux-ci se font déjà sentir, que ce soit à Gaza ou sur le front en UkraineOn peut citer par exemple les systèmes israéliens Lavender, qui permet à l’armée d’identifier des combattants ennemis, et Hasbora (Évangile), qui permet à l’armée d’identifier des bâtiments et installations à cibler. Voir ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza (972mag.com) pour Lavender, et ‘The Gospel’: how Israel uses AI to select bombing targets in Gaza | Israel | The Guardian pour Évangile. Du côté ukrainien, le pays utiliserait un système de reconnaissance faciale pour identifier les victimes tuées au front. Voir How Facial Recognition Is Being Used in the Ukraine War – The New York Times (nytimes.com). La Russie et l’Ukraine utiliseraient aussi des systèmes de reconnaissance faciale au sein des drones envoyés en missions de reconnaissance. Voir Eric Schmidt: Ukraine Is Losing the Drone War (foreignaffairs.com).. De même, les préoccupations liées aux écueils de cette technologie dans le domaine civil se transposent dans la sphère militaire. D’autre part, l’intégration de l’intelligence artificielle dans l’architecture de dissuasion nucléaire fait craindre un risque d’escaladeSaveleva Dovgal, L., « Escalation Signaling in Ukraine and its implication for the Strategic Russia-US Relationship », Russian International Affairs Council, février 2024. ou de voir un État recourir aux armes nucléaires, que ce soit à titre défensif ou offensif et comme l’illustre James Johnson dans son ouvrage. De fait, il est possible selon lui d’envisager l’intégration des systèmes d’apprentissage autonomes au sein des systèmes d’alerte précoce, de renseignement ou de surveillance, permettant ainsi de traiter un nombre important d’informations rapidement et de manière automatiqueFayet, H., « French thinking on AI integration and interaction with nuclear command and control, force structure, and decision-making », European Leadership Network, novembre 2023.. Les systèmes de lancement de missiles pourraient voir leur précision, navigation et autonomie améliorées par l’intelligence artificielle. De même, les opérations conventionnelles pourraient bénéficier des mêmes évolutions quant à la qualité du renseignement.

Un domaine paraît toutefois moins perméable à cette évolution. Au sein du commandement et contrôle, il semble pour l’instant difficile de voir l’intelligence artificielle avoir un impact important, mais il reste possible de l’imaginer intégrée dans une certaine mesure. De nombreux rapports soulignent ainsi que pour de nombreux États, la prise de décision restera sous contrôle humain (keeping humans in the loop)Saltini, A, « AI and nuclear command, control and communications: P5 perspectives », European Leadership Network, novembre 2023.. James Johnson s’interroge néanmoins sur la capacité de ce consensus de s’inscrire dans la durée.

Recension composée par Ines K. T. Grange, assistante de recherche, Fondation pour la recherche stratégique.

Télécharger le bulletin au format PDF