Intelligence artificielle (IA) et Défense
Par Christine Dugoin-Clément, chercheur associé de la chaire “Risques” de l’IAE Business School Paris 1 – La Sorbonne, à l’Observatoire de l’Intelligence Artificielle Paris 1 et au Centre de recherche de la Gendarmerie Nationale (CRGN). Ancien auditeur de l’Institut des hautes études de la défense nationale, ses travaux sont spécialisés sur l’Ukraine, la défense, les stratégies d’influence et le cyber. Elle est l’auteur de Influence et manipulations : Des conflits armés modernes aux guerres économiques (VA Éditions).
L’IA est un sujet majeur pour les sociétés et le secteur de la défense n’échappe pas à ce constat. Si le ministère des Armées peut être intéressé par des développements touchant au soutien et à la gestion administrative comparables à ce que l’on trouvera dans des organisations de tailles similaires, il est en outre intéressé par les évolutions permettant d’optimiser les missions particulières qui sont les siennes et qui demandent capacités d’adaptation et innovation pour s’adapter au milieu et à la concurrence tout en préservant la souveraineté de la technologie. Ce besoin de développement et de technologie devra compter avec un contexte particulièrement évolutif et, depuis novembre 2024, avec la présidence Trump qui risque de permettre une dérégulation du secteur américain de l’IA accroissant encore la concurrence.
Du soutien aux besoins opérationnels
La numérisation est une préoccupation de longue date pour la défense. En effet, depuis la Revolution in Military Affairs (RMA) des années 90 qui annonçait la numérisation du champ de bataille, l’innovation en matière opérationnelle a été une préoccupation majeure des armées. Concernant l’IA, dès septembre 2019, le ministère diffusait un rapport intitulé l’IA à l’appui de la défense [1] où les sujets d’intérêt étaient mis en avant tout en soulignant que le développement de l’IA n’était pas exempt de menaces et de risques et devait être pensé dans un contexte international aux prises avec de grandes tensions mondiales. Des sujets tels que l’autonomie des systèmes d’armes létaux [2] faisaient notamment l’objet d’une attentions particulières et d’un rapport du comité d’éthique quant à leurs développements et limites [3].
Concernant les armées, on trouve un intérêt en matière de développement d’IA dans plusieurs champs, dont certains se retrouve dans des secteurs plus classiques, comme les bénéfices offerts par l’IA en matière d’aide à la décision et à la planification, d’aide dans les services d’appui ou encore de logistique et préparation opérationnelle. Quelques champs seront transverses et intéresseront particulièrement d’autres structures gouvernementales comme l’IA mise au service de la cybersécurité et de la compréhension et de la prévention de l’influence numérique, d’autant plus que l’influence a été consacrée priorité stratégique dans la Revue Nationale Stratégique de 2022 [4]. D’autres sujets seront par nature bien plus spécifiques, on pensera à l’usage de systèmes d’IA pour le combat collaboratif, pour le renseignement ou encore pour de la robotique et de l’autonomie dédiées aux enjeux militaires. Ces besoins en matière de systèmes d’IA ont augmenté avec l’approche multi-domaines multi-champs (MDMC), inhérente à la conflictualité moderne, et avec le retour de la guerre de haute intensité illustrée par l’invasion de l’Ukraine opérée par la Russie, avec la guerre au Moyen-Orient. Autre acteur de l’augmentation du besoin, les montées de tensions globales qui se jouent du silotage des lectures traditionnelles pour au contraire traverser les différents champs de conflictualité, que ce soit en passant du monde physique au numérique dans des actions d’influence et de déstabilisations, en activant des tensions et disputes dans diverses aires géographiques, ou en mobilisant et perturbant divers champs mobilisables, comme les aspects industriels et financiers ou encore le volet social et sociétal [5].
De plus, l’approche MDMC demande de capter une masse d’information de plus en plus importante. Dès lors, elle fait office de centre de commande et de contrôle (C2C) le point névralgique de la gestion des conflits. Dans ce cadre, l’IA pourrait être un ressort important notamment dans le traitement efficace de données massives venant irriguer ces centres de commandements. Mais encore faut-il capter ces données, ce qui, là encore, supposera de disposer de systèmes reposant sur des IA performantes, que l’on pense à des capteurs traditionnels, à l’intégration dans des systèmes d’information préexistant, ou à la gestion des constellations satellites et des données qu’elles captent [6] qui permettent une forme de transparence tactique du champ de bataille. Or, dans ce champ spécifique particulièrement coûteux et technologique, les armées doivent travailler en collaboration avec d’autres agences mais aussi avec des sociétés privées, qui détiennent une partie non négligeable des constellations : on pensera alors notamment à des structures comme OneWeb, Intelsat ou encore Starshield, la branche militaire de Starlink, société d’Elon Musk, nouvellement promu à la tête du ministère de l’efficacité gouvernementale” aux USA. Enfin, un nouvel entrant est apparu sur le champ de bataille avec l’Ukraine mais aussi avec le Haut Karabakh : les drones. Qu’ils soient terrestres, marins ou aériens, ils sont aujourd’hui incontournables sur le champ de bataille et peuvent parfois reposer sur des IAs demandant robustesse et innovation. En nous projetant dans un futurs proche on pensera aux ailiers loyaux, drones aériens massifs devant, à terme, collaborer avec les pilotes de chasses [7], ou encore aux drones en essaims qui ont recours à des IA permettant de calculer et d’organiser les mouvements de l’ensemble.
Innovation, dérégulation et défense
Enfin, l’élection de Donald Trump qui sera le 47e président des USA risque de modifier fondamentalement les réglementations préalablement en cours en matière d’IA. Donald Trump aspire à libérer les capacités d’innovation qu’il estime être bridées par les réglementations de l’administration Biden [8]. Si le manifeste du candidat Trump plaidait pour abroger ce qu’il estimait nuire à la liberté d’expression et à « l’épanouissement de l’être humain », faisant craindre une dérégulation de la modération en ligne à l’heure ou la désinformation et l’influence sont des pièces maîtresses de la guerre cognitive et informationnelle, un autre volet touchait aux principes de précaution, voire d’éthique. Cela prend un sens particulier quand on se souvient que l’on retrouve parmi les partisans et financiers de Trump des investisseurs en capital-risque de la Silicon Valley comme Marc Andreessen, qui se décrit comme un « techno-optimiste, un « accélérateur d’IA » souhaitant transformer l’humanité en une race de « surhommes technologiques » [9]. Cependant, les déclarations visant à abroger le décret de Biden sur l’IA restent floues, les agences fédérales continuant à exercer une surveillance sur de plusieurs aspects du déploiement de l’IA. Même si ces poussées pourront être limitées par les agences, il est probable que les projets de dérégulations de Trump ne donnent un coup d’accélérateur à l’industrie américaine en permettant de tester de nouvelles applications d’IA avec plus de liberté. A ce titre, abandonner des règles comme celle de l’AISI relative à la transparence accélérerait le développement, pour autant, mais le fait qu’il n’y ai plus de d’approche fédérale unifiée sur le sujet participera à augmenter les différences entre états et pourra être facteur de complexité pour le secteur de l’IA.
Concernant l’écosystème de la Défense, que pourrait donner la 47e présidence alors qu’en octobre 2024, la secrétaire adjointe à la défense, Kathleen Hicks, parlait de l’engagement du ministère de la défense (DoD) à devenir un leader mondial dans l’élaboration de politiques éthiques saines pour l’utilisation militaire de l’IA [10]? Donald Trump, notamment encouragé par Elon Musk [11], vise à créer un environnement plus libre pour le développement de l’IA pour garantir aux USA de conserver leur avance sur des concurrents mondiaux comme la Chine. Pour autant en matière de défense on risque d’assister à un premier moment d’hésitation dû au flou entre réglementations précédentes comme le Responsible AI Strategy and Implementation Pathway [12], ou le mémo d’octobre dernier relatif aux cas d’utilisation de l’IA à des fins de sécurité nationale [13]. Cependant, les révisions de décrets envisagées vont probablement alléger les obligations de souscrire aux normes éthiques au bénéfice de l’innovation et vont probablement encourager les contributions du secteur privé, sujet au cœur du programme de Donald Trump axé sur l’innovation.
Dans ce cadre, il ne serait pas surprenant d’observer une montée en puissance de l’IA, potentiellement particulièrement prononcée dans des domaines où secteur public et privé doivent collaborer comme c’est le cas en matière de gestion de constellation satellitaire et de traitement de données issus de ces capteurs spécifiques.
Dans ce cadre, l’UE, devra probablement faire face à une concurrence agressive tout en restant alignée avec l’AI ACT [14], parfois perçu comme étant une approche risquée pour le maintien de la compétitivité du secteur à cause de son cadre stricte. S’il n’est pas question ici de prôner une dérégulation, il faut néanmoins intégrer que le souci européen du respect des règles d’éthiques dans un contexte de dérégulation massive risque de poser un dilemme en matière de développement technologique sur lequel entreprises et commanditaires doivent d’ores et déjà se pencher.
Sources
[1]https://www.defense.gouv.fr/sites/default/files/aid/Report%20of%20the%20AI%20Task%20Force%20September%202019.pdf
[2]https://theconversation.com/armes-autonomes-et-soldats-augmentes-quel-impact-sur-les-valeurs-des-armees-168295
[3]https://archives.defense.gouv.fr/actualites/la-vie-du-ministere/communique_le-comite-d-ethique-de-la-defense-publie-son-rapport-sur-l-integration-de-l-autonomie-des-systemes-d-armes-letaux.html
[4]https://www.defnat.com/e-RDN/vue-article.php?carticle=23071
[5]https://www.defnat.com/e-RDN/vue-article.php?carticle=23532
[6]Dugoin-Clément, C. 2024. Le spatial, entre transparence tactique et développement technologique, Def tech décembre 2024
[7]https://revistacugc.es/article/view/5764
[8]https://rncplatform.donaldjtrump.com/?_gl=1*1dhufmh*_gcl_au*NDMyMDY5MTguMTcyOTU4NzI2Nw..&_ga=2.255281992.1180040526.1729587267-1531562902.1729587267
[9]https://a16z.com/the-techno-optimist-manifesto/
[10]https://www.defense.gov/News/News-Stories/Article/Article/3949441/hicks-highlights-dods-commitment-to-responsible-ai-use/
[11] [12]https://media.defense.gov/2022/Jun/22/2003022604/-1/-1/0/Department-of-Defense-Responsible-Artificial-Intelligence-Strategy-and-Implementation-Pathway.PDF
[13]https://www.whitehouse.gov/briefing-room/presidential-actions/2024/10/24/memorandum-on-advancing-the-united-states-leadership-in-artificial-intelligence-harnessing-artificial-intelligence-to-fulfill-national-security-objectives-and-fostering-the-safety-security/
[14]https://www.euaiact.com/