Innovation absolument révolutionnaire pour certains, source de dangers sans précédent pour d’autres : une chose est sûre, l’IA, ça fait débat. Il faut dire que ses impacts technologiques, sociaux et sociétaux sont colossaux. Et ce dans tous les domaines, du travail à la souveraineté des Etats, en passant par les industries culturelles, la formation, l’éthique ou les neurosciences. Pour ou contre, la vérité se trouve toujours au milieu. On vous aide à démêler le vrai du faux sur cinq grands débats qui animent la planète IA aujourd’hui. Quatrième débat de la semaine : l’IA tue-t-elle la planète ?
Une bonne question à poser à ChatGPT… mais pas une bonne action pour l’environnement ! L’Agence internationale de l’énergie estime en effet que chaque requête formulée sur ChatGPT, consomme 2,9 Wh d’électricité, soit dix fois plus que la même recherche formulée sur Google.
Quel coût pour la planète ?
Quant à GPT-3, il consomme environ un demi-litre d’eau pour générer 10 à 50 réponses, selon une estimation plutôt prudente de chercheurs américains de l’Université Riverside (Californie) et de l’Université du Texas. Sachant qu’Open IA, maison-mère de ChatGPT revendique plus de 300 millions d’utilisateurs hebdomadaires, avec environ un milliard de requêtes envoyées chaque jour : le coût pour la planète est absolument pharaonique ! En 2023 les data centers représentaient près de 1,4 % de la consommation électrique mondiale, selon une étude de Deloitte. Un chiffre qui devrait tripler d’ici 2030, pour atteindre 3 % de la consommation électrique mondiale, soit 1 000 TWh (ou la consommation électrique annuelle combinée de la France et l’Allemagne). Scary ? Attendez la suite : selon une étude du cabinet américain Gartner, à ce rythme, 40 % des data centers dédiés à l’IA seront confrontés à un approvisionnement en électricité insuffisant d’ici 2027. Par ailleurs, la demande accrue pour l’IA travers le monde devrait représenter entre 4,2 et 6,6 milliards de mètres cubes d’eau en 2027. Soit quatre à six fois la consommation annuelle du Danemark. Mais heureusement, des solutions existent pour diminuer l’impact environnemental des usages l’IA.
Réduire de 90 % la conso énergétique de l’IA : c’est possible
Des solutions à l’échelle collective d’abord. Une étude publiée par l’UNESCO et l’UCL en 2025 indique en effet que de simples changements dans la conception et l’utilisation des grands modèles de langage (LLM) peuvent avoir un impact significatif. L’utilisation de petits modèles, conçus pour des tâches spécifiques (traduire ou résumer par exemple), peut ainsi réduire jusqu’à 90 % la consommation énergétique de l’IA, sans perte de performance. Par ailleurs, des requêtes et des réponses plus courtes peuvent réduire de plus de 50 % la consommation d’énergie. Enfin, la compression des modèles permet d’économiser jusqu’à 44 % d’énergie, sans perdre en précision. Autres pistes pour diminuer l’impact environnemental des IA : utiliser du matériel plus économe en énergie (puces spécialisées et systèmes de refroidissement optimisés) et alimenter les centres de données avec des énergies renouvelables. Mais aussi coupler l’IA et l’informatique quantique, sur laquelle les experts misent beaucoup. D’abord parce qu’à performances équivalentes les ordinateurs quantiques consomment beaucoup moins d’énergie que les superordinateurs classiques. Quand on sait qu’un de ces superordinateurs peut avoir besoin de près de 40 MW pour fonctionner (soit l’équivalent de la consommation de 15 000 foyers), toute économie n’est pas négligeable. Ensuite parce que le quantique a une rapidité de traitement inégalée, permettant de trouver plus rapidement des solutions low-tech, des matériaux moins énergivores etc.
Sans oublier que l’intelligence artificielle peut aussi se mettre directement au service de l’environnement. En aidant à développer des solutions innovantes de lutte contre le changement climatique notamment : optimisation de la gestion des énergies renouvelables, développement de nouveaux matériaux plus durables, prédictions des grands phénomènes météorologiques, repérage des zones à risque d’inondations, assistance des secours en cas de de catastrophes naturelles etc.
Posez-vous les bonnes questions… avant de les poser à l’IA !
Mais le meilleur moyen de réduire l’impact écologique de l’IA, c’est d’abord de l’utiliser à bon escient. Trouver des idées de menus avec les restes de votre frigo, traduire les paroles d’une chanson ou checker la météo de vos vacances : vous êtes sûrs qu’une bonne vieille recherche sur Google ne ferait pas l’affaire ? Si vous ne pouvez pas vous passer de l’IA, posez-lui vos questions correctement. Privilégiez un premier prompt complet et complexe à une mitraillettes de requêtes. Etant donné qu’une requête sur ChatGPT émettrait environ 14g d’équivalent CO2 vs 7g pour une requête sur Google : la planète vous dira merci ! Et parce qu’on peut aussi être locavore en matière d’IA, n’hésitez pas à essayer des IA made in France ou made in Europe, comme le désormais célèbre Mistral AI.
>>>> Envie d’en savoir plus sur les débats qui animent la planète IA aujourd’hui ? Lisez nos articles :
L’IA met en danger notre souveraineté ?
L’IA nous manipule ?
L’IA va faire disparaitre mon job ?
L’IA atrophie les neurones ?