Sous la nef du Grand Palais, les longs discours se perdent dans un écho infini. Les formules chocs, elles, claquent sous l’immense verrière. “Plug, baby, plug !” – Branche, bébé, branche ! – a lâché Emmanuel Macron, lundi 10 février, à l’occasion de la clôture de la première journée du Sommet sur l’intelligence artificielle (IA). Une référence à Donald Trump et son slogan “Drill, baby, drill !”, sur le blanc-seing donné au forage de pétrole. Mais brancher quoi au juste ? Des data centers.La France, qui mise beaucoup sur l’IA, a besoin de ces infrastructures numériques afin d’entraîner et exécuter les modèles de langage qui alimentent ChatGPT, ou Le Chat de Mistral. Car ces applications sont particulièrement gourmandes en énergie. Cette trajectoire est-elle soutenable et compatible avec la lutte contre le réchauffement climatique ? Sasha Luccioni, chercheuse en IA pour Hugging Face, une entreprise franco-américaine de pointe dans le domaine, en doute. Non seulement les besoins augmentent énormément, mais les grandes compagnies s’avèrent bien peu transparentes sur leur consommation. Cette scientifique de haut vol, qui figure parmi les 100 personnalités les plus influentes dans l’IA selon le magazine Time, livre elle aussi ses formules chocs. Débranche, bébé ?L’Express : Une grande coalition sur le climat et l’IA a été lancée durant le Sommet. Qu’en attendez-vous ?Sasha Luccioni : Rassembler ceux qui veulent s’impliquer sur le sujet. Une fois la masse critique atteinte, nous pourrons peut-être exiger des chiffres de la part des acteurs majeurs du secteur. Notamment sur leur consommation énergétique. Lors du sommet, je présente justement un projet sur les “Energy Scores”, un standard d’efficacité énergétique pour les modèles d’IA. Nous avons testé des centaines de modèles open source, mais les modèles propriétaires restent inaccessibles. Car depuis ChatGPT, c’est silence radio chez les GAFAM, qui donnent le moins d’informations possibles afin de ne pas s’exposer.Le problème est le suivant : quel est leur intérêt à être transparentes sur leur impact climatique ? Faut-il créer une certification “IA verte” ? La discussion doit porter sur les incitations, car une régulation internationale contraignante serait difficile et longue à mettre en place. Mais la solution peut venir d’une pression sociale, communautaire. Ce qui me rassure, c’est que le sujet prend de l’ampleur. A l’origine, il devait être évoqué de manière “transversale” lors du Sommet sur l’IA. Il a finalement ses propres évènements et annonces. L’Europe, en particulier, commence à se poser des questions. Bien que la réglementation, l’AI Act, ne contienne pas encore de dispositions spécifiques sur l’environnement, il y a un intérêt croissant pour la transparence.Une simple requête sur ChatGPT réclamerait 2,9 wattheures d’électricité, soit dix fois plus qu’une recherche Google, d’après l’Agence internationale de l’énergie (AIE). Ce chiffre est-il fiable ?Non ! Car on ne sait même pas, à un niveau très concret, ce qui se cache derrière l’interface d’un ChatGPT. Y a-t-il un ou plusieurs modèles ? Quelle architecture, quelle taille ? La mode, désormais, est au très énergivore “mixture of experts” (MoE), c’est-à-dire plusieurs modèles qui peuvent tourner en même temps. S’ils sont huit, dans ce cas il faudrait multiplier le chiffre de l’AIE par huit !Est-il envisageable de créer des indicateurs universels pour comparer les différents modèles d’IA ?C’est très complexe, surtout en raison des contextes d’utilisation qui varient. Certains modèles sont optimisés pour les smartphones, d’autres pour les data centers. Apple, par exemple, ne voudra sûrement pas tester ses modèles dans un environnement de serveurs, car ce n’est pas sa manière de les déployer. Et tout le monde n’utilise pas le même matériel. Google recourt ainsi à des processeurs spécifiques.On a pourtant le sentiment que les grandes entreprises technologiques ont conscience du problème. Elles affichent, pour certaines, d’ambitieux objectifs de neutralité carbone.Mais elles les ont toutes ratés ! Google et Microsoft, par exemple, disent ne pas savoir précisément la part de l’IA dans leur consommation énergétique globale. C’est faux. Elles savent combien de GPU (NDLR : les puces électroniques dédiées à l’entraînement et à l’exécution de modèles d’IA) sont utilisés dans leurs data centers, leur taux d’occupation, et les coûts associés. Mais personne ne veut faire le premier pas et divulguer ces chiffres. Encore une fois : où est la carotte ? Même chose pour Nvidia, qui vend nombre de ces puces : l’entreprise sait pertinemment ce qu’elles consomment. A la base, ces GPU ont été développées pour les jeux vidéo. Il fallait donc savoir quand elles surchauffaient pour les optimiser. Selon moi, toutes ces entreprises ont juste peur de ternir leur image de marque.Quelle est votre analyse de l’approche de DeepSeek concernant l’optimisation énergétique de ses modèles d’IA ?Cette approche est intéressante, notamment sur l’entraînement du modèle. Mais le déploiement pose question : DeepSeek “débite” beaucoup de texte. Donc, il consomme en réalité bien plus d’énergie. Plus généralement, l’inférence – la mise en service des modèles – est la plus déterminante. Dans une étude publiée l’an passé, on a calculé qu’il fallait seulement 5 à 20 jours pour qu’un modèle ayant 10 millions d’utilisateurs soit plus énergivore qu’à l’entraînement. Les compagnies ont donc bien compris qu’il n’était pas nécessaire de les réentraîner constamment. Une version peut être ajustée, optimisée, servir à différents applicatifs…On évoque aussi la consommation d’eau des data centers. Ce sujet est-il sous-estimé ?L’eau est la prochaine “bombe” du secteur. Les grandes entreprises ont déjà saturé les zones où l’électricité et l’eau sont assez abondantes – je pense notamment à la Virginie, aux Etats-Unis. Désormais, elles tentent de s’installer ailleurs, au Chili ou en Inde. Mais elles rencontrent des résistances au sein de la population locale. Cela va être de plus en plus tendu. Plutôt que de construire d’immenses data centers centralisés, il serait plus efficace de les répartir, de récupérer la chaleur dégagée et d’utiliser de l’eau de moindre qualité, ou réutilisée. La tendance actuelle va malheureusement dans le sens inverse : les entreprises privilégient la concentration des infrastructures, pour des raisons de coûts.Un argument est largement avancé ces derniers temps : l’IA va nous faire consommer de l’énergie, mais elle peut nous en faire gagner beaucoup ailleurs. Est-ce vrai ?C’est le paradoxe de Jevons ! C’est récurrent, surtout avec des technologies qui ont des usages multiples, comme le charbon, l’électricité ou l’IA : dire que les gains énergétiques vont être effacés avec l’utilisation. Un exemple : chaque année, Nvidia dit que ses puces sont de plus en plus efficaces. En parallèle, l’entreprise en vend toujours plus. Donc oui, à l’unité, les puces sont plus efficaces. Sauf que cette sobriété s’efface puisque bien plus de personnes y ont accès.Quelle est la différence avec l’effet rebond ?C’est est un terme générique. Il y a différents types d’effets rebonds. Economique : c’est le paradoxe de Jevons. Matériel : nos téléphones sont de plus en plus puissants et petits, mais les data centers – où les calculs sont faits – de plus en plus grands. Comportemental : on se dit que l’IA permet de faire le bon choix, mais elle est utilisée dans des publicités, donc elle entraîne finalement l’achat de davantage de produits… Ou, plus simplement, l’utilisation de ChatGPT comme une simple calculatrice.Les entreprises du secteur se battent pour sécuriser toutes les sources d’énergies possibles, notamment bas carbone et renouvelable : contrats d’achat d’électricité sur le long terme (Power Purchase Agreement, PPA), constructions de leurs propres parcs éoliens ou solaires… Est-ce viable ?Depuis dix ans déjà, les compagnies technologiques sont les plus grands acheteurs de PPA. Elles ont donc participé à cette économie avant même que l’IA n’explose en termes d’énergie. C’est assez critiqué car elles prennent la place d’autres acteurs – des usines, des agriculteurs… – qui ne peuvent pas se “brancher” sur telle ou telle éolienne car Google a déjà pris la place.Plus généralement, l’affaire est compliquée pour le solaire et l’éolien, des énergies intermittentes, car les data centers utilisent de l’énergie 24 heures sur 24. Il faut donc trouver un moyen d’emmagasiner l’énergie ou d’en avoir de manière constante. C’est un gros défi. Et c’est pour cela qu’il n’y a pas de 100 % renouvelables à l’heure actuelle. Côté nucléaire, les petits réacteurs sont encore expérimentaux. Il faudra, au mieux, attendre 7 ou 10 ans pour en voir arriver. Au milieu de tout cela, il y a la solution de Microsoft, qui semble la plus réaliste, avec la réouverture de la centrale nucléaire de Three Mile Island. Mais même ici, cela va prendre quelques années.En arrivera-t-on, un jour, à devoir prioriser les usages de l’IA pour des raisons d’accès aux ressources d’énergie et d’eau ?De l’énergie non renouvelable, on peut toujours en avoir. Aux Etats-Unis, par exemple, dans certains cas où on approche la limite, on rajoute du charbon ou du gaz naturel pour “résoudre le problème” et éviter la pénurie. Evidemment, niveau climat, il y a mieux… Il faudra faire des choix le jour où l’on mettra en place des contraintes en termes d’intensité carbone. Pour l’eau, malheureusement, il n’y a pas de bon mécanisme pour surveiller les pratiques. Et on a zéro chiffre. On ne sait même pas de quel ordre de grandeur on parle.L’IA pourra-t-elle quand même servir à mieux prédire le climat de demain ?Qu’il s’agisse d’un modèle pour générer des molécules destinées à des batteries ou d’un autre pour reconnaître des oiseaux, tout est appelé IA. Dans l’ensemble, les modèles les plus coûteux sont les moins utiles, et inversement. Il y a beaucoup de gens qui travaillent depuis longtemps sur l’IA et la lutte contre le changement climatique. Il leur est agaçant d’entendre dire que l’IA nuit au climat ou à la planète. Et puis, maintenant, tout le monde veut utiliser de l’IA générative ou des LLM, les grands modèles de langage. Donc ces pionniers de la cause climatique bénéficient de moins d’attention, et moins d’argent. Ce qui est dommage, car niveau LLM, je n’ai rien vu, à date, qui soit vraiment utile contre le réchauffement de la planète. Les modèles de langage les plus énergivores ne servent strictement à rien pour la prédiction du climat. Certes, il y a des outils comme ClimateGPT, à qui on peut poser des questions sur les rapports du GIEC. C’est sympa, mais cela ne change pas fondamentalement la donne.
Source link : https://www.lexpress.fr/economie/high-tech/sasha-luccioni-les-geants-de-lia-restent-silencieux-sur-leur-consommation-reelle-denergie-IFMGSMER3NAMPGDRRUB3RFPI64/
Author : Maxime Recoquillé, Baptiste Langlois
Publish date : 2025-02-11 11:58:00
Copyright for syndicated content belongs to the linked Source.
Trending
- King Charles ‘exasperated’ by latest questions over Prince Andrew’s business dealings
- Army chiefs launching a fitness crackdown to get our fat soldiers into shape
- It was the day in court Spain had been waiting for – but Luis Rubiales’ case goes beyond a kiss
- The Bachelor contestant Beverly explains her abrupt exit ahead of one-on-one date
- Australia politics live: Marles highlights ‘positive’ US trade talks as government builds case for tariffs exemption
- Church of England rejects fully independent safeguarding
- A reef-reshing way to see paradise! Trying out an incredible submarine sightseeing trip in the Maldives (and there’s always the underwater spa if you’re claustrophobic)
- Champions League: Kompany hofft auf “Schlüsselmomente” für den FC Bayern
Tuesday, February 11