H. Go.
Les larges modèles de langage, très énergivores, contribuent à émettre de grandes quantités de gaz à effet de serre. Mais l'impact climatique exact de l'IA n'est pas connu avec certitude.
Les modèles d'intelligence artificielle sont entraînés dans des centres de données, sur des serveurs qui consomment de grandes quantités d'électricité. Puisque cette électricité n'est pas entièrement décarbonée, l'entraînement et l'utilisation de ces modèles émettent du CO2, le principal gaz à effet de serre.
Mais l'impact climatique exact de l'IA n'est pas connu avec certitude. Et pour cause, la publication de ChatGPT fin novembre 2022 a déclenché une course à l'IA, qui conduit les géants de la tech et les start-up du secteur à faire preuve d'une grande discrétion sur leurs modèles. Difficile, dès lors, pour les chercheurs d'évaluer l'impact climatique de l'IA générative.
« C'est très dur de savoir combien de CO2 ces modèles émettent parce qu'il n'y a aucune transparence », explique Sasha Luccioni, chercheuse chez Hugging Face et l'une des rares spécialistes du sujet. « Il y a un an ou deux, on avait encore des chiffres sur les nouveaux modèles qui sortaient. Aujourd'hui, avec l'excitation autour de l'IA générative, on ne connaît pas la taille des modèles, on ne sait pas où, ni quand ils ont été entraînés, ni pour combien de temps. »
Au niveau mondial, les centres de données, où sont entraînés et utilisés la plupart des larges modèles de langage, représentent environ 1 % des émissions de gaz à effet de serre, selon l'Agence internationale de l'énergie. Un chiffre qui pourrait augmenter avec la numérisation croissante de l'économie.
Les rares données disponibles suggèrent que l'IA pourrait avoir un effet considérable sur les émissions de carbone du secteur. « La seule étude qui a regardé tout le cycle de vie d'un modèle d'IA, c'est celle que j'ai menée sur Bloom », poursuit la chercheuse. Ce large modèle de langage, développé par la plateforme Hugging Face, comporte 176 milliards de paramètres.
« Une copie du modèle déployé sur un GPU [les serveurs utilisés pour l'entraînement et l'utilisation des modèles d'IA, NDLR] émettait 19 kilogrammes de CO2 par jour », poursuit l'experte. Mais tout dépend de la fréquence d'utilisation de ces modèles et du nombre de copies existantes. Par exemple, les assistants vocaux « Alexa et Siri sont toujours à l'écoute, donc le modèle est toujours allumé » et consomme de l'énergie en permanence, ajoute-t-elle.
Une empreinte carbone grandissante
L'utilisation au jour le jour de ces modèles d'IA émet sans doute davantage de CO2 que leur entraînement. « Nvidia estime que 80 à 90 % de leurs GPU sont utilisés pour l'inférence. C'est cohérent parce qu'il y a peu d'entreprises qui ont les ressources nécessaires pour entraîner les plus grands modèles d'IA. Mais il y a beaucoup plus de gens qui cherchent à les affiner ou à les déployer », note Sasha Luccioni.
Le secteur de la tech a conscience de son empreinte carbone grandissante. La plupart des entreprises cherchent à « compenser » leurs émissions de gaz à effet de serre en achetant des crédits d'énergies renouvelables. Il s'agit d'inciter les producteurs à investir dans les énergies propres en les rémunérant pour l'énergie produite, en plus du prix de marché. Mais cela ne résout pas tout.
Les progrès réalisés par l'IA ces derniers mois pourraient empirer le problème. « Avant, on utilisait déjà l'IA, mais au moins c'était des réseaux de neurones relativement petits, ajoute Sasha Luccioni. Maintenant, pour la même recherche sur Google, on veut utiliser ChatGPT ou Bard parce que c'est cool. »
On passe d'un modèle d'IA extractive, qui cherchait l'information sur une page et la faisait remonter dans les recherches Google, à une IA générative, qui crée la réponse de toutes pièces. « Cela crée du contenu, donc c'est plus énergivore pour la même information, note la chercheuse. C'est cette transition qui m'inquiète. »
Cela ne signifie pas que l'IA ne présente aucun intérêt pour le climat. Elle peut contribuer à résoudre certains problèmes liés à la transition énergétique. Des modèles d'IA sont spécialisés dans les prédictions météorologiques à très court terme, ce qui permet de prévoir la production d'énergie d'origine éolienne ou solaire. Et donc de maintenir l'équilibre entre l'offre et la demande d'électricité sur le réseau électrique.
Repérer les incendies
Cet été, la Californie a, par ailleurs, entraîné un modèle d'IA à repérer les incendies avant qu'ils ne se transforment en fournaises. « Cela a absolument amélioré notre temps de réponse », affirme Phillip SeLegue, le chef du renseignement de Cal Fire. Dans deux douzaines de cas, l'IA a signalé des débuts d'incendie qui seraient passés inaperçus - ce qui a permis de les éteindre sans dommage.
En revanche, il n'est pas certain que les larges modèles de langage soient très utiles dans la lutte contre le changement climatique. Des start-up, dont la française Ekimetrics, ont certes lancé des chatbots visant à répondre aux
Comments