La chimère de l’IA décarbonante

d'Lëtzebuerger Land du 12.04.2024

Parmi les arguments avancés par les enthousiastes de l’intelligence artificielle figure celui de la contribution décisive que celle-ci serait susceptible d’apporter aux efforts de décarbonation. Après tout, font-ils valoir, répondre à la crise climatique, réduire notre dépendance à l’égard des énergies fossiles tout en préservant le vivant suppose de prendre en permanence des décisions d’une complexité redoutable, pratiquement en temps réel et dans des domaines très variés. Quoi de mieux, donc, que l’IA pour mener à bien ces tâches herculéennes, ces arbitrages minutieux, alors que, sans elle, les humains ont échoué jusqu’ici à s’engager de manière décisive dans cette direction ?

À première vue, l’argument semble convaincant. Dans certains domaines, la complexité des calculs de réduction d’empreinte est tout simplement vertigineuse. Alors que la chair est faible, les machines sont, elles, objectives et infatigables. Mais comment être certain qu’elle n’est pas un mirage du technosolutionnisme, un de plus ? L’expérience de ces dernières années conforte-t-elle vraiment cette notion que les différentes versions de l’IA – grand modèle de langage (LLM), apprentissage automatique (machine learning), robotique… – pourront nous aider à nous sevrer des énergies fossiles ?

Commençons par l’examen détaillé de la question auquel se livre Gilles Babinet, entrepreneur et coprésident du Conseil national du numérique, en France, dans son récent livre Green IA – L’intelligence artificielle au service du climat. Même s’il suggère chercher à adopter une position équidistante entre activistes décroissants et enthousiastes technophiles, son cœur penche nettement, comme le suggère le titre de son livre, du côté de ces derniers. Aussi souligne-t-il que dans le domaine de l’agriculture, l’utilisation de l’intelligence artificielle est idéale pour traiter les données de température, d’hygrométrie, de luminosité et le rayonnement UV, de pluviométrie, sur les intrants, les traitements mécaniques, les semences, les incidences sur la productivité et la qualité des produits de ceux-ci, mais également la capacité du sol à émettre ou au contraire à retenir ou même capter du CO2. Les données sont trop nombreuses, trop difficiles à contextualiser, pour que nos pauvres cerveaux viennent à bout du défi de la décarbonation de ce secteur sans la béquille de l’IA. Sans mentionner le fait que, même dans les cas où ils en disposent, les agriculteurs rechignent à les partager.

Autre exemple : les chaînes d’approvisionnement. Babinet cite l’exemple d’un opérateur télécom qui a réduit son empreinte environnementale en cessant de transporter ses pièces par avion – décision complexe à cause des risques de rupture d’approvisionnement, risques que l’IA serait plus à même de gérer. À vrai dire, la liste des domaines où l’IA est susceptible de contribuer à l’action climatique est très longue. Cela commence par la climatologie, qui est amenée à traiter des quantités de données énormes tant pour analyser l’existant que pour faire tourner ses modèles et établir des prédictions. Cela vaut pour la comptabilisation des émissions (par exemple pour identifier les plus gros émetteurs), mais aussi pour les efforts d’efficience énergétique, l’optimisation des flux de mobilité, le suivi de l’impact des mesures de décarbonation...

Pour autant, à mesure que l’on égrène ces défis de la décarbonation auxquels l’IA semble susceptible d’apporter des contributions pertinentes, les obstacles deviennent évidents. Babinet ne s’en cache pas. Il reconnaît que la forte segmentation de l’économie (ce qu’il appelle le « fonctionnement en silos »), qui va souvent de pair avec une opacité soigneusement entretenue, empêche la circulation des informations auxquelles devrait avoir accès l’IA pour pouvoir remplir ce rôle. Le poids des habitudes en est un autre : l’IA peut contribuer, mais, en tant que telle, elle ne nous fera pas adopter des comportements plus vertueux à l’égard du climat.

Pour décrire l’interaction entre humain et IA, les experts se servent du concept de centaure. La bête mythique, à tête d’humain et corps de cheval, représente la situation idéale, où l’homme définit les tâches et l’IA, symbolisée par le corps équin, intervient, en parfaite complicité avec l’homme, pour l’aider à les effectuer là où elle est plus vigilante, dispose de davantage de puissance de calcul, a accès à davantage de données etc. Ainsi, un assistant personnel interviendra discrètement pour nous éviter d’oublier un anniversaire ou nous suggérer d’emporter un parapluie au moment de sortir. La situation contraire, le « centaure inversé », est celle où l’IA est l’élément déterminant et l’humain se retrouve à son service. Ce n’est pas une dystopie : le journaliste et auteur Cory Doctorow décrit le « cauchemar » d’une automation qui asservit l’homme lorsque, dans les dépôts d’Amazon, les ouvriers sont équipés de bracelets haptiques et sont en permanence observés par des caméras reliés à une IA tandis que « rayons autonomes défilent devant eux et exigent qu’ils prennent et emballent des objets à un rythme qui détruit leurs corps et les rend fous ».

Ce modèle est utile pour explorer certains des écueils liés à un déploiement massif de l’intelligence artificielle. Il permet de comprendre pourquoi certains d’entre eux, présentés comme entraînant des gains de productivité, peuvent en réalité placer l’entreprise censée les mettre en œuvre devant le dilemme de choisir entre une hausse des coûts couplée à une augmentation de la qualité ou une réduction des coûts et une baisse de la qualité.

Doctorow cite l’exemple de l’IA utilisée pour interpréter l’imagerie médicale. Pour que ces opérations en bénéficient, il faut augmenter le nombre d’opérateurs humains. L’IA est certes supposée être mieux à même de détecter des masses cancéreuses que les radiologistes. Mais pour que le modèle du centaure fonctionne dans cette situation, il faut conserver le même nombre de spécialistes humains et prévoir qu’ils passeront du temps supplémentaire pour résoudre les cas où médecins et machines ne sont pas d’accord. Pour que l’utilisation de l’IA aboutisse à de meilleurs diagnostics, l’imagerie médicale reviendra donc plus cher puisqu’il faudra payer à la fois les programmes d’IA et davantage de temps de spécialiste. Pour Doctorow, la seule trajectoire dans laquelle l’IA est profitable est celle du centaure inversé.

Appliqué à la problématique climatique, ce modèle montre que le potentiel décarbonant de l’IA ne fonctionnera que si l’homme et la machine parviennent à établir entre eux une relation de centaure vertueux. Or, jusqu’ici, c’est loin d’être le cas. L’histoire mouvementée d’OpenAI, pionnier du secteur et connu pour sa plateforme ChatGPT, en témoigne. Créée à l’origine, il y a huit ans, comme organisation de recherche à but non-lucratif – même si elle s’était dotée dès le début d’une filiale commerciale –, OpenAI a progressivement évolué vers une entreprise visant le profit. L’épisode le plus visible de cette évolution a été la crise qui a l’a secoué en novembre dernier, lorsqu’elle a remercié son co-fondateur Sam Altman, l’artisan de cette réorientation résolue vers le profit, pour le reprendre quatre jours après. Or, c’est ce même Altman qui a déclaré à Davos cette année : « Je pense que nous ne reconnaissons pas encore les besoins en énergie de cette technologie », ajoutant qu’il ne voyait pas comment ces besoins pourraient être couverts. « Il nous faut la fusion ou il nous faut, ma foi, de l’énergie solaire avec du stockage radicalement meilleur marché, ou quelque chose, à une échelle massive – une échelle que personne n’est vraiment en train de planifier ». Ce que suggère Altman, c’est de foncer tête baissée, en pariant que l’IA elle-même fournira le coup de pouce nécessaire à la résolution de ce casse-tête.

Cet aveu en dit long sur le type de relation que les humains sont en train d’établir avec leur nouveau jouet. Loin d’être mise au service de l’action climatique, loin du modèle du centaure vertueux, l’IA est la nouvelle opportunité d’affaires, qui doit avant toute chose apporter la preuve de sa profitabilité. Altman n’est pas le seul à faire ce genre de prédiction : John Ketchum, patron de NextEra Energy a affirmé que la demande d’électricité des États-Unis, qui a été stable ces cinq dernières années, va augmenter de 81 pour cent au cours des cinq années à venir. Toby Rice, qui dirige une entreprise gazière, s’est référé à une projection selon laquelle l’IA allait engloutir davantage d’électricité aux États-Unis que les ménages d’ici 2030. Elizabeth Kolbert, journaliste au New Yorker, a interrogé le Néerlandais Alex de Vries, qui s’est fait connaître en évaluant l’énorme consommation d’électricité du bitcoin. Si Google devait systématiquement intégrer de l’IA générative à son moteur de recherche, il en résulterait une consommation de 29 milliards de kWh par an, a-t-il conclu, soit davantage qu’un pays comme la Croatie.

Comme le résume l’activiste Bill McKibben, face à la crise climatique, ce n’est pas de davantage d’intelligence dont nous avons besoin, mais de davantage de sagesse. Utilisés à bon escient, les multiples ressorts de l’intelligence artificielle pourraient nous seconder face aux défis immenses auxquels nous sommes confrontés. Ayons la lucidité de reconnaître que ce n’est pas absolument le cas pour le moment.

Jean Lasar
© 2024 d’Lëtzebuerger Land