ChatGPT consommerait d’incroyables quantités de ressources, voici pourquoi
Le célèbre chatbot d’OpenAI, ChatGPT, est de plus en plus utilisé à travers le monde. Mais il ne faut pas oublier que ses serveurs consomment d’importantes quantités d’eau et d’électricité…
Le succès mondial rencontré par ChatGPT a fait bien des envieux. De nombreuses entreprises se sont ainsi lancées dans la course, comme Google (Gemini) ou encore xAI, l’entreprise d’Elon Musk et son chatbot Grok-2, capable de générer des images. D’ailleurs, le milliardaire a fait construire un immense centre de formation d’IA, qui serait en train de développer le système d’IA « le plus puissant au monde », selon Elon Musk.
Mais cette technologie a un coût, et non des moindres. En effet, l’ensemble des systèmes d’IA reposent sur de puissants serveurs, qui ont non seulement besoin d’électricité pour fonctionner, mais aussi d’eau afin d’être refroidis. Le Washington Post a donc mené une enquête afin de déterminer la quantité de ressources nécessaire au fonctionnement d’une IA telle que ChatGPT.
Pourquoi les entreprises d’IA refroidissent-elles leurs serveurs à l’eau ?
Concernant la consommation en eau, celle-ci dépend de l’éloignement entre l’utilisateur et l’un des centres d’OpenAI. Plus l’eau est rare dans une région et moins l’électricité est chère, plus le centre de données est susceptible de s’appuyer sur des systèmes de climatisation fonctionnant à l’électricité. Ainsi, au Texas, générer un texte d’une centaine de mots ne consomme « que » 235 millilitres d’eau, tandis que cela nécessite près d’un litre et demi de liquide dans l’État de Washington.
À première vue, on pourrait penser qu’un système de climatisation par air, électrique donc, serait tout aussi efficace qu’un refroidissement par eau. Mais les centres de données d’IA sont devenus si vastes que la plupart des entreprises choisissent d’opter pour un refroidissement par eau afin d’en extraire efficacement l’énergie thermique.
Cependant, même sans utiliser de systèmes de climatisation par air, ChatGPT consomme tout de même des quantités conséquentes d’électricité. Ainsi, selon Le Washington Post, générer un texte de 100 mots via ChatGPT consomme suffisamment de courant pour faire fonctionner plus d’une douzaine d’ampoules LED pendant une heure.
Le journal affirme d’ailleurs que, si un dixième des Américains utilisait ChatGPT pour écrire ce courriel une fois par semaine pendant un an, le processus consommerait la même quantité d’énergie que tous les foyers de Washington, D.C. (soit environ 670 000 habitants) en une vingtaine de jours. Cette affirmation rejoint d’ailleurs une récente étude, qui suggère que l’intelligence artificielle pourrait bientôt consommer autant d’électricité qu’une ville entière.
Source : digitaltrends