L'article suivant est extrait de l'étude de cas de l'anthropologue Steven Gonzales Monserrate, "The Cloud Is Material: On the Environmental Impacts of Computation and Data Storage". Il a été initialement publié dans Le lecteur de presse du MIT.
Les écrans s'illuminent au rythme des mots : e-mails hâtivement rédigés sur des appareils intelligents, messages emplis d'emojis échangés entre amis ou famille. Sur ce fleuve numérique, des millions d'utilisateurs affluent pour binge-watcher leurs séries préférées, diffuser de la pornographie, plonger dans les univers vastes des MMORPG, ou simplement chercher la définition d'un mot rare ou le lieu d'un centre de test COVID-19.
Quelle que soit votre requête, Internet répond. Toute la complexité – des vidéos de déballage aux blogs de bricolage – transite sous forme de paquets de bits via des câbles sous-marins à fibre optique plus fins qu'un cheveu humain. Ces flux d'informations, encodés en 0 et 1, se déploient pour créer l'interface numérique que vous contemplez. Les mots que vous lisez ouvrent les portes d'un royaume éthéré : le "Cloud".
Dans le jargon technique, le Cloud désigne le partage de ressources informatiques sur un réseau. Dans l'imaginaire collectif, il englobe l'ensemble des infrastructures soutenant nos activités en ligne, d'Instagram à Google Drive. Comme un cumulus insaisissable, ses mécanismes internes restent opaques au grand public – une "boîte noire", selon le cybernéticien du MIT Norbert Wiener. Pourtant, comme les nuages composés de gouttelettes d'eau, le Cloud numérique est fondamentalement matériel.
Pour le comprendre, dénouons les câbles coaxiaux, fibres optiques, tours cellulaires, climatiseurs, alimentations, serveurs... Traçons ses flux d'électricité, d'eau, d'air, de chaleur, de métaux et de terres rares. Le Cloud est une force écologique : son expansion amplifie son impact, tandis que ses ingénieurs luttent pour concilier rentabilité et durabilité. Ce dilemme s'incarne dans les data centers, ces usines-bibliothèques où s'entassent données et puissance de calcul.
Quatre heures du matin. Accroupi dans une allée de confinement d'un data center, entouré de serveurs alignés comme des rayonnages de bibliothèque, j'écoute à peine Tom, technicien supérieur, au milieu du vacarme des ventilateurs. Avec un outil spécialisé, je soulève une dalle de sol percée pour optimiser le flux d'air frais du plénum sous-pressurisé. Une bouffée glacée monte. Soudain, les alarmes hurlent : un rack vire au jaune, puis au rouge. Les serveurs surchauffent. La chaleur envahit l'air plus vite que les dissipateurs et ventilateurs ne la chassent. Tom panique : chaque minute d'arrêt coûte des milliers de dollars. En deux minutes, les trois unités de climatisation s'activent à pleine puissance, restaurant l'ordre.
Ce récit, tiré de mes notes ethnographiques, illustre un "emballement thermique" : une défaillance en cascade du refroidissement qui menace nos services en ligne. La chaleur, sous-produit du calcul, doit être combattue sans relâche via des climatiseurs CRAC ou CRAH énergivores. En Amérique du Nord, alimentés par des réseaux "sales" – comme en Virginie, hub de 70 % du trafic internet mondial en 2019 –, ces data centers brûlent du carbone pour refroidir. Le refroidissement avale plus de 40 % de leur électricité, une "ironie élémentaire" selon Jeffrey Moro.

Les hyperscalers (Google, Facebook, Amazon) visent la neutralité carbone via renouvelables et offsets. Mais les plus petits, dans des bâtiments obsolètes, peinent à suivre. Selon le Lawrence Berkeley National Laboratory, passer à l'hyperscale pourrait réduire la consommation de 25 %. Autres idées : data centers nordiques pour "free cooling". Mais la latence réseau limite cette option.
Aujourd'hui, le Cloud émet plus de CO2 que l'aviation. Un data center consomme comme 50 000 foyers ; globalement, 200 TWh/an, soit 0,3 % des émissions mondiales (2 % avec les appareils connectés).
Au-delà du refroidissement, la redondance hyper-fiable (générateurs diesel, serveurs de backup) gonfle les besoins : seuls 6-12 % servent au calcul actif.
Fin juillet en Arizona, 47°C. Suivant Jeremy, je répare un système d'évaporation dans un conteneur de serveurs surnommé "The Mouth". L'eau du Colorado s'infiltre dans un média poreux, s'évapore et refroidit les serveurs bourdonnants.
Le Cloud dévore l'eau pour le refroidissement liquide, plus efficace que l'air. Dans l'Ouest américain, en proie à la sécheresse, cela oppose communautés et opérateurs. À Mesa (Arizona), des élus contestent cette "consommation inessentielle". À Bluffdale (Utah), le data center NSA pompe 7 millions de gallons/jour.
Google vise la "water positivity" d'ici 2030 (réapprovisionner 120 %). Boucles fermées recyclent l'eau, mais l'évaporation perdure. Face à une croissance triplant les data centers d'ici 2030, ces engagements peinent, comme les retards passés sur le carbone (liens fossiles).
Le 2021 Emissions Gap Report (PNUE) prévoit +2,7°C, aggravant la pénurie hydrique. Des initiatives comme le Climate Neutral Data Center Pact (Europe, neutre en 2030) montrent la voie.
2019, Chandler (Arizona) : Brenda Hayward entend le bourdonnement incessant du data center CyrusOne, hantant ses nuits. 2020, Chicago : David Gray subit le même fléau en confinement. 2021 : au parc Chuparosa, la symphonie discordante du Cloud domine tout.
Disques durs, refroidisseurs, générateurs : pollution sonore toxique. Hypertension, cortisol, insomnie pour Brenda et David. Coalitions citoyennes (Dobson Noise, Chicago) luttent, mais l'autorégulation des data centers limite les recours. Le drone basse-fréquence (voix humaine) échappe souvent aux seuils en dB. Promesses d'atténuation non tenues.
7 milliards de smartphones depuis 2007, durée de vie <2 ans. Mines toxiques, usines low-cost, décharges comme Agbogbloshie (Ghana). Un PC : 240 kg fossiles, 22 kg chimie, 1 500 L eau.
Serveurs coûteux, remplacés pour fiabilité (Uptime Institute). PCB toxiques. Europe : "passeports matériaux" pour recyclage. Greenpeace : <16 % e-waste recyclé.
Le Cloud est culturel et technologique : modifiable par choix collectifs.
[]