Vers une IA soutenable dans les Armées ?

demand-image-5 v2

Photo : NATO ENSEC COE Support Field Test of Hybrid Generation System © OTAN (https://www.enseccoe.org/publications/securing-allied-power-demand/)

Depuis déjà quelques années, l’essor de l’intelligence artificielle (IA) transforme en profondeur les forces armées : traitement massif d’images satellites, fusion de données de renseignement, gestion de flottes de drones, simulation de scénarios tactiques, maintenance prédictive, etc.

Mais cette révolution technologique, en s’accélérant de façon exponentielle, a un coût énergétique croissant.

Si l’intelligence artificielle ne cesse d’apporter un avantage opérationnel décisif, elle s’accompagne ainsi d’une dépendance nouvelle à l’électricité. Facteur de victoire décisif sur le champ de bataille en tant qu’élément indissociable de la composante logistique, l’énergie, qualifiée à juste titre d’« opérationnelle » dans nombre de forces armées, apparaît comme un élément toujours plus déterminant de la supériorité militaire. La bataille de demain ne se gagnera donc pas seulement avec des algorithmes, mais aussi – et toujours – avec des kilowatts.


Une demande énergétique liée à l’IA exponentielle


Un rapport de l’Agence internationale pour l’energie (AIE) en date d’avril dernier résume très bien le dilemme caractéristique du lien inextricable entre IA et politique énergétique, tel qu’il affecte l’ensemble de nos sociétés contemporaines : « Sans énergie, pas d’intelligence artificielle, et, plus spécifiquement, pas d’électricité, pas de centres de données. Pourtant, si elle est déployée à grande échelle, l’IA pourrait en retour révolutionner la gestion même de l’énergie » (1).

Quelques faits et chiffres cités dans ce rapport suffisent à illustrer la problématique actuelle, laquelle pourra devenir cercle vicieux ou vertueux selon la façon dont elle va être appréhendée et que l’on peut résumer selon les deux tendances de fond suivante caractéristiques du développement de l’IA de façon générale :


– Une croissance exponentielle :

l’an dernier, en 2024, les centres de données représentaient environ 1,5 % de la consommation mondiale d’électricité, soit 415 TWh (Térawattheure), l’IA étant le principal moteur de cette demande devant les autres services numériques. Ce chiffre indique un quadruplement de la croissance de consommation dans ce secteur, estimée à 12% depuis 2017, par rapport à celle de la demande électrique totale. Selon les prévisions, la consommation électrique des « data centers» devrait plus que doubler d’ici 2030, pour atteindre 945 TWh – soit, à titre comparatif, l’équivalent de la consommation actuelle du Japon, tandis que la consommation mondiale pourrait atteindre 1 200 TWh en 2035.


– Un développement géographiquement concentré :

la répartition régionale place les Etats-Unis en tête avec 45% de cette consommation, suivis de la Chine avec 25%, puis de l’Europe avec 15%. Fers de lance de cette révolution, les Etats-Unis enregistrent de fait un développement des centres de données susceptibles de représenter près de la moitié de la croissance de la demande électrique américaine d’ici 2030, soit plus que l’ensemble des industries lourdes (aluminium, acier, ciment, chimie). Cette concentration géographique est également un phénomène saillant au niveau national, puisque si l’on reprend l’exemple des Etats-Unis, près de la moitié de la capacité américaine est regroupée dans cinq clusters régionaux (2).


L’autonomie énergétique, facteur toujours plus central des opérations militaires modernes


L’autonomie d’approvisionnement en matière énergétique a toujours été considérée comme un facteur essentiel pour la réussite des opérations militaires : acheminement, soutien, soutenabilité des hommes et de leur matériel ont toujours été une préoccupation centrale pour toutes les armées et toutes les armes, mais ont parfois été relégués au rang de variable d’ajustement.

Deux facteurs d’évolution de certaines forces armées ont cependant joué un rôle moteur dans la recherche d’innovation dans ce domaine, notamment en termes d’autonomie, de souveraineté et de frugalité.


Le premier facteur a concerné la nécessité pendant des décennies de couvrir les besoins énergétiques d’opérations extérieures dites expéditionnaires supposant une projection lointaine et de longues élongations, puis un soutien de plus ou moins longue durée loin des bases nationales.


Le second facteur, constant au sein de la plupart des Armées, mais qui s’est renforcé avec la politique de lutte contre le réchauffement climatique, concerne les impératifs d’allègement de l’empreinte carbone et de l’empreinte logistique en général.


Ces deux facteurs ont conduit à nombre de recherches et de pistes novatrices aujourd’hui directement utiles face à une IA gourmande en énergie, dont il devient de plus en plus difficile de se passer en base arrière, mais aussi directement sur les lignes de front. L’exemple ukrainien est bien connu avec une substitution en deux ans de l’utilisation de l’artillerie au profit des drones pour une grande majorité des frappes : en 2023, les drones comptaient pour seulement 10% des frappes contre 70% à l’heure actuelle. L’artillerie n’est employée que pour 10 à 15% des frappes, ce qui est un atout au regard du manque de munitions (3).


Il ne faut cependant pas oublier l’adaptation énergétique nécessaire au bon fonctionnement de drones dépendants de batteries et de générateurs à entretenir de façon continue sur les théâtres d’opérations.


En base arrière, l’utilisation de l’IA se démultiplie sous de nombreuses formes de plus en plus énergivores. Les centres de calcul militaires consomment par exemple plusieurs dizaines de mégawatts chacun : l’entraînement d’un modèle de grande taille peut requérir plus de 50 GWh, soit l’équivalent de la consommation annuelle de milliers de foyers (4). Un modèle IA de grande taille se caractérise en effet par la mise en relation par un très grand nombre de paramètres (pouvant se chiffrer en milliers de milliards), l’utilisation de vastes jeux de données d’entraînement pour apprendre des représentations complexes (langage, images, multimodalité), une infrastructure de calcul distribuée (de nombreux GPU/TPU en parallèle), souvent sur plusieurs serveurs et réseaux à haute bande passante, des phases d’entraînement extrêmement gourmandes en calculs et durée — plusieurs jours, semaines, voire mois — et donc en énergie, et des besoins intensifs de communication inter-GPU, de synchronisation, de transfert de données, ce qui accroît la charge énergétique liée aux interconnexions et au refroidissement.


Les axes de recherche qui se développent actuellement pour conserver la viabilité d’une IA la plus frugale possible s’orientent ainsi en conséquence sur trois aspects majeurs :


1. L’amélioration du rendement

L’objectif est de réduire la consommation d’énergie de chaque calcul d’IA. Les innovations structurelles des process, mais aussi la recherche de nouveaux matériaux font partie des pistes prometteuses. On trouve ainsi la conception de GPU et accélérateurs plus performants par watt, le développement d’algorithmes « frugaux » capables de fonctionner sous contrainte énergétique, ou encore la mise au point de modèles permettant une meilleure connaissance des besoins énergétiques lors de l’utilisation de l’IA. Les programmes de la DARPA américaine incluent par exemple OPTIMA (pour « Optimum Processing Technology Inside Memory Arrays ») ou encore ML2P pour « Mapping Machine Learning to Physics » (5).

 En matière de recherche de nouveaux matériaux et de nouvelles architectures, de nombreuses sociétés européennes travaillent sur le refroidissement par immersion, telles par exemple la société néerlandaise Asperitas. Cette société déploie des solutions d’immersion pour les data centers de périphérie (edge), leur technologie permettant d’augmenter la densité de puissance (5 à 10 fois plus que celle des systèmes traditionnels) tout en améliorant l’efficacité énergétique (6). De même, en France, le futur centre de données AI Green Bytes met en avant un fluide d’immersion biodégradable Qloe (fabriqué par Oleon) pour immerger ses serveurs, lequel pourrait entraîner jusqu’à 90 % de gain énergétique par rapport aux systèmes refroidis par air (7).


La réduction du nombre de paramètres en maintenant la même efficacité est aussi explorée au travers de nouvelles solutions et techniques (élagage des réseaux de neurones appelé en anglais « AI pruning », quantization, distillation de modèles). De façon générale, le déploiement de ce que l’on appelle une IA edge-optimisée – c’est-à-dire au plus près du terrain et des capteurs – vise à permettre un fonctionnement dans l’environnement contraint du champ de bataille : faible puissance, mémoire limitée, autonomie énergétique réduite, résilience doivent être prises en compte pour répondre aux besoins de l’IA embarquée et à l’emploi croissant des drones.


2. La décentralisation des centres de calcul

La concentration n’est pas une bonne stratégie dans le domaine militaire, et l’IA ne fait pas exception. C’est pourquoi de nombreux pays explorent le développement de micro-réseaux et de centres distribués, capables d’opérer de manière autonome en cas de crise.

Aux États-Unis, le programme SPIDERS pour « Smart Power Infrastructure Demonstration for Energy Reliability and Security » a été lancé en 2011 en collaboration avec l’armée de Terre : le déploiement de « microgrids » sur ses bases se fait progressivement avec un objectif de complétion à l’horizon 2035. Autre exemple : la base japonaise de Yokota, qui accueille l’armée de l’Air américaine, s’est dotée en 2013 d’un microgrid de 10,7 MW pour sécuriser l’alimentation de ses installations critiques (9).


La tendance est la même dans d’autres régions du monde : en Europe, l’Espagne expérimente des centrales photovoltaïques militaires intégrées, telle celle de la base de Gando de Las Palmas aux Canaries en 2024 (10).


3. La diversification des sources d’approvisionnement énergétique

En matière énergétique, la résilience passe traditionnellement par la redondance et donc par l’hybridité. Les armées combinent désormais plusieurs sources d’énergie afin de réduire la vulnérabilité des installations et innovent dans leurs processus de stockage de ces dernières autant que faire se peut.
L’Agence européenne de défense (EDA promeut également l’intégration d’installations hybrides et bas carbone dans les infrastructures de défense : « Le Consultation Forum for Sustainable Energy in the Defence and Security Sector (CF SEDSS) est une initiative de la Commission européenne, pilotée par l’Agence européenne de défense (AED), qui traite au niveau européen des questions énergétiques communes au secteur de la défense et de la sécurité. En s’appuyant sur les acquis des phases précédentes (CF SEDSS phases I, II et III), l’AED, avec le soutien de la Commission européenne (Direction générale de l’énergie – DG ENER), continuera d’accompagner les ministères de la Défense européens et les acteurs concernés de la défense pour progresser vers des modèles énergétiques plus abordables, plus verts, plus durables et plus sûrs.


Le projet est cofinancé par le programme LIFE de l’Union européenne et se poursuivra jusqu’au 30 septembre 2028 », peut-on lire sur son forum CF SEDSS (11).


Les exemples abondent, mais on notera pour terminer la solution de micro-réacteurs nucléaires (tels le projet américain Pele de micro-réacteur nucléaire transportable (1,5 MW) lancé en 2019 et dont la construction a commencé cet été (12)), considérées par beaucoup comme une voie d’avenir devant permettre de disposer d’une source autonome et fiable même pour les bases les plus isolées.


En conclusion, la généralisation de l’intelligence artificielle dans les armées se double d’un paradoxe : elle est à la fois facteur de supériorité opérationnelle et nouvelle source de vulnérabilités. L’augmentation soudaine de la demande en électricité met en lumière trois défis majeurs : la vulnérabilité opérationnelle, car un centre de calcul sur une base peut devenir un point critique en cas de coupure ou d’attaque ; les contraintes logistiques, car sur les théâtres extérieurs il faut désormais alimenter non seulement les véhicules, radars et systèmes d’armes, mais aussi des serveurs d’IA embarqués, ce qui multiplie les besoins en batteries, carburant et groupes électrogènes — comme le montrent les retours d’expérience en Ukraine ; et enfin les pressions environnementales et sociétales, qui obligent nombre de pays à concilier performance militaire et neutralité carbone.

Face à ces tensions, la viabilité d’une IA militaire « soutenable » repose sur trois axes stratégiques : améliorer le rendement des algorithmes et du matériel pour optimiser la consommation, décentraliser les capacités à travers des micro-réseaux résilients plutôt que de concentrer la puissance de calcul dans quelques hubs vulnérables, et diversifier les sources énergétiques, en adoptant des solutions hybrides. Des pistes qui convergent vers un même objectif : faire de l’énergie non plus un simple outil de soutien des forces, mais un pilier central de la supériorité militaire à l’ère de l’IA.


(Par Murielle Delaporte)


Notes & références

(1) La citation exacte en anglais est la suivante : « There is no AI without energy – specifically electricity for data centres. At the same time, AI could transform how the energy industry operates if it is adopted at scale. »
Elle est issue du rapport suivant >>> https://iea.blob.core.windows.net/assets/601eaec9-ba91-4623-819b-4ded331ec9e8/EnergyandAI.pdf (accessible via le site : https://www.iea.org/reports/energy-and-ai)

(2) Ces chiffres sont issus du passage suivant dans le rapport précité, page 14 de sa version électronique :
« Data centres accounted for around 1.5% of the world’s electricity consumption in 2024, or 415 terawatt-hours (TWh). The United States accounted for the largest share of global data centre electricity consumption in 2024 (45%), followed by China (25%) and Europe (15%). Globally, data centre electricity consumption has grown by around 12% per year since 2017, more than four times faster than the rate of total electricity consumption. AI-focused data centres can draw as much electricity as power-intensive factories such as aluminium smelters, but they are much more geographically concentrated. Nearly half of data centre capacity in the United States is in five regional clusters. The sector accounts for substantial shares of electricity consumption in local markets.
Electricity demand for data centres more than doubles by 2030
Data centre electricity consumption is set to more than double to around 945 TWh by 2030. This is slightly more than Japan’s total electricity consumption today. AI is the most important driver of this growth, alongside growing demand for other digital services. The United States accounts for by far the largest share of this projected increase, followed by China. In the United States, data centres account for nearly half of electricity demand growth between now and 2030. By the end of the decade, the country is set to consume more electricity for data centres than for the production of aluminium, steel, cement, chemicals and all other energy-intensive goods combined. Uncertainties widen further after 2030, but our Base Case sees global data centre electricity consumption rising to around 1 200 TWh by 2035. »

(3 )Chiffres cites dans : https://cepa.org/article/ukraines-ai-drones-hunt-the-enemy/

(4) Voir par exemple sur ce sujet : https://www.congress.gov/crs_external_products/R/PDF/R48646/R48646.3.pdf

(5) https://www.darpa.mil/research/programs/optimum-processing-technology-inside-memory-arrays

(6) https://www.asperitas.com/post/asperitas-cools-datacentres-at-the-edge

(7) https://www.datacenterdynamics.com/en/news/new-ai-green-bytes-data-center-in-paris-france-will-use-oleons-plant-based-immersion-cooling-fluid/

(8) https://escholarship.org/content/qt4tt794w7/qt4tt794w7.pdf ; https://energy.sandia.gov/app/uploads/sites/273/SPIDERS_Fact_Sheet_2012-1431P.pdf

(9) https://www.pv-magazine.es/2024/11/27/defensa-finaliza-una-planta-fotovoltaica-de-118-mw-172-mwh-en-la-base-aerea-de-gando/

(10) https://www.microgridknowledge.com/military-microgrids/article/33014051/yokota-air-base-celebrates-the-completion-of-its-new-microgrid

(11) « Consultation Forum for Sustainable Energy in the Defence and Security Sector (CF SEDSS) is a European Commission initiative managed by the European Defence Agency addressing, at the European level, common energy considerations in the defence and security sector. Building on the achievements of the previous phases (CF SEDSS phases I, II and III), the European Defence Agency, with the support of the European Commission (Directorate-General for Energy – DG ENER), will continue assisting the European ministries of defence and relevant defence stakeholders to move towards more affordable, greener, sustainable and secure energy models.
The project is co-funded by the European Union’s (EU) LIFE programme and will run until 30 September 2028. », extrait issu de :https://eda.europa.eu/what-we-do/eu-policies/consultation-forum/phase-iv

(12) Voir par exemple sur ce sujet : https://www.energy.gov/ne/articles/department-defense-breaks-ground-project-pele-microreactor ; https://world-nuclear-news.org/articles/work-starts-on-pele-microreactor-core

Twitter
LinkedIn
Email
Print