
Un simple “merci”… qui pèse lourd
Dire « bonjour » ou « merci » à une intelligence artificielle, c’est bien vu. Mais d’un point de vue énergétique, ce ne serait pas vraiment une bonne idée. C’est en tout cas ce que laisse entendre Sam Altman, le patron d’OpenAI, dans un message publié sur X. À la question d’un internaute qui s’interrogeait sur le coût électrique des formules de politesse adressées à ChatGPT, le PDG a répondu avec une pointe d’humour : « Des dizaines de millions de dollars bien dépensés – on ne sait jamais ».
Derrière cette boutade, une réalité un peu moins drôle se dessine : les IA génératives comme ChatGPT consomment énormément d’énergie à chaque interaction. Et cette consommation n’est pas sans conséquences sur l’environnement.
Des échanges gourmands en énergie… et en eau
Une simple requête envoyée à GPT-4 – une centaine de mots, pas plus – équivaut à allumer 14 ampoules LED pendant une heure, selon des chercheurs de l’Université de Californie. Et ce n’est que la partie émergée de l’iceberg.
Les datacenters, qui font tourner ces IA en permanence, nécessitent non seulement de l’électricité pour fonctionner, mais aussi de grandes quantités d’eau pour éviter la surchauffe. Un seul échange avec ChatGPT utilise environ 519 millilitres d’eau, soit une petite bouteille. Cela peut sembler négligeable, mais à l’échelle de millions d’utilisateurs, les chiffres explosent.
Les chercheurs estiment qu’une requête par semaine, sur un an, pour 16 millions d’Américains, représente 435 millions de litres d’eau, soit ce que consomment tous les foyers de l’État du Rhode Island en une journée et demie.
L’empreinte carbone de l’IA continue de grimper
En juillet 2024, Google révélait une hausse de 48 % de son empreinte carbone, en grande partie à cause de l’essor des technologies basées sur l’intelligence artificielle. Et ce n’est qu’un exemple parmi d’autres : plus les modèles deviennent puissants, plus leur impact écologique s’alourdit.
Alors bien sûr, ce n’est pas « s’il vous plaît » ou « merci » qui change la donne. Mais l’accumulation de millions de petites requêtes, souvent anodines, contribue à alourdir la facture énergétique de ces technologies. Et c’est précisément là que la question de l’usage raisonné entre en jeu.
Vers une IA plus “frugale” ?
Face à cette prise de conscience, plusieurs chercheurs appellent à un changement de paradigme. Pour Denis Trystram et Thierry Ménissier, de l’Université de Grenoble, il ne suffit plus de créer des IA efficaces. Il faut désormais les concevoir de façon compatible avec les limites écologiques de la planète.
Dans une tribune publiée sur The Conversation, ils plaident pour une intelligence artificielle frugale, c’est-à-dire capable de limiter son empreinte environnementale tout en répondant à des besoins essentiels. Et surtout, ils nous invitent à réfléchir à nos usages, voire à renoncer à certaines pratiques si elles n’ont pas de réelle utilité.
Et si on repensait notre rapport à l’IA ?
Ce que nous dit cette histoire, ce n’est pas qu’il faut arrêter d’être poli avec ChatGPT. Mais qu’il serait peut-être temps de considérer nos interactions avec les IA comme de véritables actes de consommation. Comme on éteint la lumière en sortant d’une pièce, peut-être qu’on pourrait aussi éviter d’envoyer des dizaines de messages inutiles à un robot, aussi fascinant soit-il.
L’enjeu ? Trouver un équilibre entre l’usage de ces technologies incroyables… et le respect des ressources qui nous entourent.