Les géants de la tech sont très peu diserts au sujet de l’impact environnemental de leurs créations. Pour fonctionner, les outils d’IA nécessitent la fabrication et l’emploi de très nombreuses cartes graphiques, gourmandes en ressources et en énergie. Idem pour les vastes datacenters, dont l’électricité peut être issue de sources fossiles, comme le charbon, et qui demandent des quantités phénoménales d’eau pour être refroidis.
Une étude en pré-publication menée par des chercheurs de l’Université de Californie a estimé que l’entraînement de ChatGPT 3 dans des datacenters américains pourrait avoir nécessité 5,4 millions de litres d’eau douce, et que chaque conversation pourrait en consommer 50 centilitres de plus.
«Voici une illustration représentant une intelligence artificielle aidant une compagnie pétrolière à extraire plus de pétrole dans un puits de pétrole du bassin Permien», faite par ChatGPT 4.
Aucun commentaire:
Enregistrer un commentaire