Positionnement des acteurs américains sur les questions éthiques liées à l’intelligence artificielle de défense

Résumé 

Dès la publication des premiers documents généraux d’orientation par l’Exécutif américain (2016), les questions éthiques que soulèvent les utilisations de l’intelligence artificielle (IA) ont été abordées. Leur étude a été intégrée aux politiques de soutien conçues par la Maison blanche. Les parlementaires ont accompagné cet effort, tout comme certains États fédérés. Surtout, au sein de l’écosystème de l’IA américain, de nombreux acteurs, très différents (fédérations professionnelles, grands groupes industriels, think tanks…), ont décidé de produire leurs propres analyses ou de participer à des initiatives collectives. Cette « effervescence » a notamment abouti à la publication de nombreux textes, en particulier des codes, principes et lignes directrices. 

La prise en compte des questions éthiques liées au développement de l’IA concerne aussi les applications en matière de défense. Elle a commencé relativement tôt. Dès 2012, le DoD a posé un cadre particulier pour la conception et l’emploi des systèmes d’armes létaux autonomes (SALA), la Directive 3000.09. Cette dernière a permis de présenter les définitions que le Département retient pour les différents types d’autonomie et de systèmes armés autonomes, mais également de préciser les règles particulières devant s’appliquer à la création et aux utilisations de ces dispositifs. Les réflexions ont ensuite été élargies, dépassant la seule notion d’autonomie. L’une des 5 composantes de la Department of Defense Artificial Intelligence Strategy, adoptée fin 2018, est ainsi de produire les efforts nécessaires à la réflexion en matière éthique et sur les questions de sécurité d’emploi. Ce travail a abouti à la publication d’un jeu de principes éthiques en février 2020. La réflexion sur les outils pour mettre en oeuvre ces principes a été confiée au Joint Artificial Intelligence Center (JAIC), qui a engagé plusieurs chantiers. 

Dans une certaine mesure, la position américaine vis-à-vis de l’IA de défense est caractérisée par des ambitions contradictoires. L’objectif d’intégrer rapidement l’IA au sein du DoD est affirmé. Il s’agit d’accélérer un mouvement engagé : certaines technologies étant assez matures, il faut le plus rapidement possible achever le développement d’applications, les tester et les intégrer aux systèmes et organisations existants (et plus seulement renforcer la R&D). La nécessité de traiter les questions éthiques est en parallèle énoncée. Or, si l’identification des interrogations éthiques que soulève l’IA de défense est déjà un travail complexe, la mise au point de réponses l’est encore plus, demandant du temps et des itérations. 

En dehors de la publication des principes, garde-fous communs à tous les services concernés par l’IA, plusieurs réponses sont apportées aux problèmes éthiques. Dans les documents institutionnels, apparaît tout d’abord l’idée que l’Intelligence artificielle doit être « au service des personnels », devant permettre de les autonomiser et non de les remplacer. Elle doit les décharger des tâches fastidieuses. De même, est affirmé le besoin de rendre les dispositifs compréhensibles par les opérateurs. Enfin, ces mêmes documents précisent que les personnels, notamment militaires, du DoD doivent être acteurs des débats sur les questions éthiques. 

L’étude des questions juridiques a par ailleurs été érigée en priorité institutionnelle. Les textes de référence du Département indiquent que leur traitement doit impliquer la conformité à des ensembles de droit, nationaux et internationaux, et même l’éventuelle création de nouvelles références juridiques. 

Dans les textes institutionnels, un lien est clairement fait entre questions éthiques et techniques de test et d’évaluation des systèmes dotés d’IA. Il est affirmé qu’une partie des problèmes éthiques peut être gérée grâce à une parfaite connaissance des domaines d’emploi des systèmes et si leur prévisibilité est assurée. Disposer de systèmes robustes, fiables et sécurisés est en soi une réponse à nombre de questions éthiques, qui justifie les efforts pour se doter de méthodes et outils de test, évaluation, vérification et certification. Les autorités militaires américaines ont répété que le pays devait être leader mondial dans ce domaine. 

Enfin, le traitement des questions éthiques est très clairement mis en rapport avec la protection des valeurs (notamment démocratiques) du pays. 

Au niveau international, de nombreuses enceintes ont décidé de mettre à leurs agendas le traitement des problèmes éthiques liés au développement de l’IA (UNESCO, OCDE, G7, G20, Union européenne…). Quelques-unes ont même traité spécifiquement des applications militaires (en particulier de la thématique des SALA). Au sein de l’OTAN, de nombreuses actions ont également été lancées. Les États-Unis ont investi la plupart des initiatives internationales qui servent à créer des cadres globaux pour le développement de l’IA. Ils cherchent également, pour les applications militaires, à mettre en place des partenariats, bilatéraux et multilatéraux, avec certains de leurs alliés et partenaires. Ces partenariats, qui concernent souvent des actions communes de R&D, permettent aux représentants américains de présenter leurs réflexions et textes en matière éthique. 

Au sein des organisations internationales, les délégations américaines réaffirment leur volonté d’une IA respectueuse des valeurs démocratiques. La dimension axiologique du discours sert à polariser les positionnements. La montée en puissance chinoise en matière d’IA est décrite comme dangereuse du fait des applications militaires investiguées et du renforcement de la compétitivité économique du pays. Plus fondamentalement, les dirigeants américains dénoncent le fait que Pékin veut utiliser l’Intelligence artificielle pour asseoir son régime autoritaire, en particulier pour assurer un contrôle social et géographique des populations et réprimer les mouvements de contestation. Dans les documents institutionnels et les positions officielles, il est affirmé que les États-Unis doivent mobiliser leurs alliés et partenaires pour parvenir à créer des cadres internationaux pour l’IA protecteurs des valeurs démocratiques. 

La vivacité des efforts généraux de réflexion dans le pays, la pression créée par la campagne internationale « Stop Robots Killer », le développement des discussions sur les SALA au sein de la UN Convention on Certain Conventional Weapons (CCW), les efforts de montée en puissance de la Chine dans le domaine de l’IA et la volonté de rassurer en interne les personnels du DoD constituent, entre autres facteurs, de puissants éléments favorisant l’organisation de réflexions sur les questions éthiques par le Département ou la participation à celles qui se sont développées au niveau international. Un sentiment d’urgence face à un risque de « déclassement stratégique » transparaît dans les discours américains. Le traitement des problématiques éthiques semble donc répondre, dans une certaine mesure, à la nécessité d’empêcher que l’intégration de l’IA dans l’appareil de défense ne soit entravée par ces questions, qui s’expriment déjà depuis de nombreuses années. 

Au niveau international, la volonté de traiter les questions éthiques répond à plusieurs objectifs généraux. Comme l’American AI Initiative, stratégie nationale globale, l’indique clairement, ces efforts doivent permettre de façonner l’environnement international pour qu’il soit favorable aux intérêts américains. Il s’agit de mettre en place des cadres au niveau mondial qui aident notamment à la montée en puissance de la recherche nationale, accompagnent les performances des entreprises et groupes domestiques (notamment en laissant les marchés à l’exportation ouverts) et respectent les valeurs américaines. C’est en particulier dans la production des standards techniques internationaux que ces objectifs doivent être recherchés : ceux-ci doivent être favorables aux acteurs américains. 

Le narrative fondé sur l’opposition entre pays démocratiques et nations qui utiliseraient l’IA de manière autoritaire et sans respect des droits de l’Homme peut ainsi être perçu, dans une certaine mesure, comme un médium permettant de faire du développement d’une IA éthique un intérêt et un objectif partagés par une communauté d’États globalement respectueux de certains corpus de droits et désireux de les protéger. Mais il sert également à justifier la mise en place de coopérations scientifiques et technologiques bilatérales ou multilatérales et d’une action commune pour l’édification des standards internationaux qui sont conçus – de manière assez explicite – comme des méthodes permettant aux entreprises américaines de dominer les marchés de l’IA1

Les mêmes logiques se retrouvent concernant l’IA de défense. Au niveau international, les États-Unis créent des partenariats et investissent les enceintes multilatérales en affirmant vouloir la mise en place de cadres pour s’assurer d’une IA militaire « responsable » – en opposition notamment à la Chine. Leur ambition est ainsi de stimuler, en particulier sur le plan de la R&D, les alliés et les partenaires. Les représentants américains présentent les lignes directrices éthiques produites par le pays et militent pour des procédures de sécurité partagées. Mais ces éléments permettraient également aux entreprises et aux armées américaines, déjà avancées dans ces domaines, d’imposer certaines normes à leurs partenaires, mais aussi concurrentes, et ainsi de disposer d’un avantage sur elles. 

[...]

La version intégrale de cette publication n'est disponible qu'au format PDF.
Afin de lire cette version, merci de télécharger le fichier ci-dessous.

Télécharger au format PDF