Par François Rehulka
08/08/2025
Temps de lecture : 15 min
Malgré l’image d’alliée de la transition écologique que véhiculent les acteurs du numérique, l’intelligence artificielle (IA) soulève des questions environnementales de plus en plus pressantes.
Un levier pour la transition... ou un accélérateur de dérives ?

Transcription
Projection de la consommation d’électricité des datacenters d’après l’AIE (cas de base).
Source : Energy and AI, 2025, Agence Internationale de l'Énergie (AIE).

Transcription
Un tour d’horizon de l’empreinte environnementale de l’IA
IA et RSE : le grand écart
Ces données confirment que, malgré les trajectoires affichées de décarbonation, le déploiement rapide de l’IA contribue activement à l’augmentation de l’empreinte environnementale du numérique.
Des leviers pour une IA sobre et transparente
- Des analyses de cycle de vie (ACV) complètes et régulières de chaque service IA, fournies par le prestataire ou des experts spécialisés. Il ne s’agit pas simplement de communiquer des données statiques a posteriori, mais de mettre à disposition des informations dynamiques, reflétant l’évolution des modèles et des infrastructures au fil du temps (montées de version, changements matériels, etc.). Mistral AI, acteur français, a déjà ouvert la voie vers plus de transparence un publiant en juillet 2025 une étude de son impact environnemental.
- Une information en temps réel de l’utilisateur sur l’impact de ses requêtes. Idéalement, chaque appel à une API ou chaque requête sur une plateforme IA devrait s’accompagner d’une estimation instantanée de son coût énergétique, carbone et eau. De tels indicateurs intégrés sensibiliseraient les usagers et guideraient des choix plus sobres (par exemple, sélectionner un modèle moins complexe si l’usage ne le requiert pas).
- Une contribution active à l’élaboration de standards communs de comptabilité carbone pour l’IA. Cela implique de dépasser les approches propriétaires et de collaborer, au sein de coalitions ou d’instances de normalisation, à la définition de méthodologies partagées. Des initiatives émergent en ce sens, et les fournisseurs ont intérêt, pour prouver leur engagement environnemental, à y prendre part pour coconstruire des référentiels adaptés au secteur. Là encore, la récente initiative de Mistral AI en partenariat avec l’ADEME est bienvenue.
- Mesurer l’usage. La Direction des Systèmes d’Information, en lien avec la direction RSE, doit mettre en place un suivi interne des requêtes IA : combien et pour quels types de tâches ? Un tel monitoring permettrait de faire sortir l’impact de l’IA du flou du scope 3 en le rendant visible et quantifiable.
- Questionner le besoin. Développer une véritable culture de la sobriété numérique est essentiel. Cela passe par un réflexe collectif : se demander, avant chaque utilisation, si le recours à l’IA est pertinent et proportionné pour la tâche envisagée. Peut-on s’en passer ? À défaut, peut-on utiliser un modèle plus léger ? En général : oui, si l’échéance fixée en interne sur la production du livrable est raisonnable… bannir le réflexe d’utiliser systématiquement le modèle le plus puissant par défaut, c’est réduire les gâchis de calcul et donc d’énergie.
- Former les équipes. Les collaborateurs doivent être sensibilisés et formés aux bonnes pratiques d’une IA responsable. Par exemple, apprendre la sobriété des prompts : formuler des requêtes précises, bien ciblées, pour éviter des itérations inutiles et coûteuses (en énergie et carbone, mais aussi en temps de travail), et savoir choisir le modèle adapté à la requête, et donc avoir une connaissance des modèles disponibles. De même, diffuser des ordres de grandeur d’impact aide à prendre conscience des conséquences de ses usages.
- Ouvrir un dialogue sur la sobriété et le "droit à ne pas utiliser l’IA". Il s’agit d’encourager une culture où les collaborateurs peuvent légitimement questionner le recours systématique à l'IA, au nom de la sobriété et de la cohérence environnementale. Cela implique pour l'entreprise d'être prête à arbitrer entre un gain de productivité et le respect de ses engagements RSE.
- Préserver le capital humain en protégeant l’apprentissage des juniors. Le débat est déjà très prégnant au sein de l’éducation nationale, mais l’apprentissage ne s’arrête pas au terme des études. Une gouvernance responsable de l'IA doit prévenir les impacts sur le développement des compétences des plus jeunes collaborateurs. En agissant comme une "béquille cognitive", l'IA peut les priver des tâches formatrices (recherche, synthèse, analyse, etc.) et des erreurs nécessaires à l'acquisition d'un savoir-faire pérenne. Ce sont par ailleurs les compétences d’analyse critique, basées sur des compétences métiers spécifiques, qui permettent une utilisation efficiente (et intelligente) de l’IA. Il est donc important d'encadrer les usages : définir les tâches où l'IA est une assistance utile et celles où un travail "IA free" reste indispensable à la montée en compétences, afin de garantir que l'IA augmente les capacités sans se substituer aux compétences en développement.
Des initiatives qui vont dans le bon sens. En parallèle de ces actions volontaires à développer, le contexte réglementaire et industriel commence à évoluer. Quelques signaux encourageants :
- Réglementation. L’AI Act européen, en application depuis 2024 et renforcé en août 2025, introduit de nouvelles exigences de transparence sur la consommation de ressources des modèles d’IA. En France, la loi REEN de 2021 (Réduction de l’Empreinte Environnementale du Numérique) impose aux opérateurs et hébergeurs de publier des données environnementales sur les datacenters. Ces cadres légaux posent les bases d’une responsabilité accrue de la filière.
- Outils de mesure. L’écosystème technologique se mobilise également. Des librairies open source comme Code Carbon ou des plateformes comme Ecologits permettent d’estimer l’empreinte carbone du code et des entraînements de modèles, permettant aux développeurs une traçabilité de l’impact de leur travail. Également, Hugging Face a lancé le projet "AI Energy Score", qui donne aux modèles IA des notes d’efficacité énergétique afin de faciliter les comparaisons entre algorithmes. Ce type d’initiative incite à valoriser les approches techniques plus économes en ressources.
- Standards et coalitions. Des initiatives de normalisation émergent désormais pour cadrer l’IA frugale : le référentiel AFNOR SPEC 2314 propose un ensemble de bonnes pratiques pour une IA plus sobre, tandis que les travaux ISO/IEC, via le JTC 21, préparent les versions normatives internationales. Aux États-Unis, l’IEEE, via l’ITCC, fédère chercheurs et industriels autour de standards techniques de Green AI.
Vers une IA vraiment responsable

L'auteur
François Rehulka
François est Senior Manager Technique chez Urbanomy, où il est responsable du développement de l'expertise technique de la société et de la qualité de ses missions.
Diplômé de l'École des Mines de Nantes, il a 18 ans d'expérience dans le secteur de l'énergie, sur les marchés de l'énergie, la recherche sur la décarbonation, l'optimisation des systèmes énergétiques locaux, la recherche sur la décarbonation, la stratégie de développement et la gestion de projets d'innovation.
Ces articles pourraient vous intéresser
Newsletter
Loi Duplomb, prolongation de PACTE Industrie, logements bouilloires : actualités été 2025

Nos accompagnements
Décarboner votre portefeuille immobilier : cadre, méthode et retour d'expérience
