
Véritable colonne vertébrale de nos mondes connectés, portés par la numérisation de nos économies, l’explosion des échanges de données, du cloud et de l’IoT, les centres de données sont absolument partout. On en compte des millions disséminés à travers le monde : 2,8 millions de moins de 500 m2 (salles et armoires), 85 000 considérés comme moyens (> 500 m2 avec entre 50 et 100 serveurs par site) ; 8 000 grands centres de données supérieurs à 500 m2 comprenant entre 1 000 et 1 million de serveurs par site, et enfin 400 hyperscale de plus de 10 000 m2 (source Séverine Hanauer).
Ils impactent non seulement la configuration spatiale des villes mais également jouent un rôle de plus en plus important dans la consommation énergétique. Ces infrastructures numériques seront d’après les projections l’un des plus importants postes de consommation électrique du XXIe siècle.
Sujet passionnant et encore mal connu du grand public, les centres de données sont l’objet de l’étude menée par Fanny Lopez et Cécile Diguet.
Fanny Lopez est historienne de l’architecture et des techniques, maîtresse de conférence à l’ENSA Malaquais et s’intéresse à l’impact spatial, territorial et environnemental des infrastructures énergétiques et numériques. Cécile Diguet est urbaniste et directrice du département Urbanisme, Aménagement et Territoires de l’Institut Paris Région.
Au début des années 2 000, nous avons vu l’émergence du concept de smart city, produit infrastructurel global poussé par les ingénieurs de Cisco et d’IBM puis relayé par les géants de l’informatique. Nouvel eldorado technologique, la smart city promettait aux urbanistes et aux collectivités une planification parfaite pour une société de flux permise par une plateformisation de la gestion urbaine. Plus de vingt ans après, nous sommes bien loin de la vision idéale poussée par la Big Tech, à l’image de la smart city de Sidewalk Labs (conçu par Alphabet, maison-mère de Google), qui a été abandonné par la ville hôte, Toronto. Si Alphabet invoqua l’incertitude économique lié au Covid pour abandonner ce projet, la réalité semble avoir été un manque d’adoption des citoyens au projet ainsi que l’arrogance des porteurs de projets. Une ville gérée par les algorithmes aux mains de quelques grands groupes privés désirant se substituer aux collectivités locales à quelque chose d’effrayant pour ma part, voir de dystopique, et il est fort rassurant d’avoir vu ce projet avorter.
Fred Turner, dans son ouvrage Aux sources de l’utopie numérique relate le rêve d’un internet horizontal et libertaire comme métaphore de l’utopie territoriale des communalistes américains. Le cyberespace serait alors le territoire des communautés réalisé hors des contraintes matérielles du réel, minimisant ainsi la matérialité du numérique. Pourtant, nous avons plutôt assisté au développement d’une infrastructure centralisée, bien loin de l’image d’un web décentralisé cher à Tim Berners-Lee, le « père du web ».
Les auteurs listent trois raisons principales qui pourraient, selon elles, expliquer l’absence architecture des data centers. La première est que les centres de données sont l’extension presque organique des placards de serveurs et salles informatiques inclus, originellement, dans les bâtiments de bureaux, des complexes universitaires ou de recherche. La multiplicité d’acteurs a également favorisé des développements non-coordonnées sans vision globale. La seconde est due à la rapidité du développement d’internet, au moment de la naissance du web commercial. Les centres de données nécessaires à l’interconnexion se présentent à proximité des points d’échange internet, carrefours stratégiques du web. La troisième raison est que les principales entreprises du secteur comme Interxion, Equinix, Digital Reality et CoreSite sont des fonds d’investissement immobilier, prioritairement intéressés par un retour sur investissement rapide et de l’équipement. Pour un ancien de Goldman Sachs, passé chez Digital Reality, « le centre de données, c’est avant tout un produit immobilier de très haute rentabilité financière » .
Lopez et Diguet distinguent trois tendances du secteur des centres de données. La première est la croissance des datacenters dans tous les territoires, notamment ruraux et semi-urbains (terrain et énergie bon marché). Aucune partie du globe ne semble épargnée (ni les océans, ni les pôles). La deuxième tendance est la centralisation (Microsoft est passé de 115 partenaires de centres de données de colocation à une poignée aujourd’hui. De même pour Amazon). La troisième tendance est l’interdépendance croissante des centres de données, avec des hyperscales dans les zones rurales connectées à des micros-lieux de stockage urbains.
En Île-de-France, on compte 165 centres de données pour 110 sites et une consommation électrique qui dépasse 1 GW (1 GW = 1 000 MW, soit l’équivalent de la production de deux réacteurs nucléaires).
Si la majorité des centres de données ont quitté Paris, il y persistent encore quelques localisations historiques intramuros, notamment dans les anciens centraux téléphoniques Beaujon (Paris 8e) et à Montsouris (Paris 14e). On en trouve également autour du quartier de l’Opéra, de la Bourse et du Silicon Santier, historiquement liés aux installations téléphoniques. Ou encore au 137 avenue Boulevard Voltaire (Paris 11e), ou l’opérateur Téléhouse dispose de 7 000 m2 et d’une puissance disponible de 5 MW. Ce point d’échange internet constitue d’ailleurs un noyau central pour 80 % du trafic internet direct en France. On trouve également des centres de données au 19-21 Rue Poissonnière (1250 m2), au 32 rues des Jeuneurs (1 000 m2), et même dans un ancien abri anti-atomique Boulevard Lefebvre que Free a transformé en centre de données de 8 000 m2. Je pensais que les localisations des centres de données étaient tenues secrètes pour des raisons de sécurité et de confidentialité, pourtant et à ma grande surprise, les adresses des centres de données sont mêmes référencées sur les sites internet des opérateurs comme Téléhouse.
Un des points communs de ces data centers intramuros ? Ils sont quasiment tous localisés dans d’anciens immeubles industriels qui ont été adaptés pour l’occasion et dépassent rarement les quelques milliers de mètres carré (au prix du m2 à Paris, ce n’est pas surprenant).
Assurément non, d’après l’essai Sous le feu numérique. Consommation énergétique à-même de déstabiliser l’équilibre local, faiblesse des emplois créés (souvent moins d’une dizaine par datacenters), artificialisation des sols, difficulté à se connecter aux réseaux de chauffage urbain… certaines communautés commencent à se plaindre de l’impact négatif de ces infrastructures géantes. Comme la ville américaine d’Hillsboro, dans l’Oregon, qui s’est spécialisée dans l’accueil d’immenses datacenters grâce notamment à une fiscalité avantageuse. « L’effort fiscal pour les attirer n’est pas à la hauteur des bénéfices économiques sur les territoires, d’autant qu’ils ne créent que très peu d’emplois, souvent une dizaine pour une installation de 20 MW ».
Les mêmes débats sur l’extension des centres de données animent également l’autre côté de l’Atlantique. En Irlande, qui opère depuis plusieurs années des politiques très accommodantes pour les Big Tech (dumping fiscal afin d’attirer les sièges sociaux européennes des boites américaines), les collectivités locales semblent également vouloir ralentir le mouvement. L’agrandissement de Microsoft a fait émerger de longs débats au conseil. Nos interlocuteurs au développement économique, des entreprises et du tourisme au sein du SDCC reconnaissent que 100 hectares dédiés aux centres de données dans la zone Grange Castle « c’est beaucoup de terres, beaucoup d’énergie pour très peu d’emplois, il faut aussi veiller à l’équilibre de notre collectivité ».
Lopez et Diguet soulignent à juste titre que la densité énergétique des centres de données n’a pas d’équivalent dans l’histoire de l’urbanisme. Ils perturbent les systèmes énergétiques locaux, et leur accumulation dans les zones urbaines comme leur extension dans les territoires ruraux représentent une grande préoccupation pour la planification toute échelle confondue. Si certaines villes comme Amsterdam ou Stockholm (avec le Data Park Program) ont été très remarquées pour les associations entre acteurs de planification urbaine et électrique, l’immense majorité des villes semblent encore bien démunies et sans stratégie claire. Comme à Marseille, l’une des villes les plus interconnectées au monde (de nombreux câbles sous-marins y sont reliés), où la ville avait dû arrêter sa flotte de bus électrique car un centre de données avait réservé une importante quantité d’électricité (90 MW) ne laissant plus de réserve à la municipalité.
Je ne m’attendais pas à trouver dans un ouvrage dédié à la spatialité et à l’architecture des centres de données autant de solutions technologiques alternatives aux infrastructures centralisées. Et pourtant, les auteures semblent bien renseignées car nous retrouvons de nombreuses architectures et solutions qui – si bien qu’encore très (trop) marginales – ont le mérite de proposer une autre vision de nos mondes numériques. Des univers où la technologie, les réseaux et les flux n’appartiendraient pas à quelques grandes entreprises monopolistiques mais aux utilisateurs, suivant les principes originaux du world wide web.
Ainsi, on retrouve les FAI associatifs gérés par des passionnés et qui proposent un web neutre et ouvert, respectueux de la vie privée, notamment via la brique internet (pas sûr qu’elle fonctionne encore celle-ci :). Ou encore des centres de données de proximité et associatifs comme les Chatons (Collectif d’Hébergeurs alternatifs, Transparents, Ouverts, Neutres et Solidaires), qui se veulent une alternative aux GAFAM. Le low-tech et la sobriété numérique y sont abordés d’un point de vue énergétique. On découvre également de nombreux programmes et initiatives locales qui promettent un autre internet, asynchrone, dans les zones les plus reculées (Programmes WAC, data mule, sneakernet, Red Hook Initiative RHI, réseaux à tolérance de délai…)
À travers ses différents exemples, les auteures invitent à repenser le réseau et ses infrastructures : Stockage distribué, fonctionnement pair-à-pair, centres de données de proximité, frugalité numérique et impact écologique… le tout qui pourrait être porté par un État (Français) volontaire qui favorise l’éclosion d’initiatives collectives par l’intermédiaire de la commande publique.
L’essai de Fanny Lopez et Cécile Diguet est incroyablement documenté et se lit comme un road trip dans le monde (pas franchement sexy) des data centers. De nombreuses photos de centres de données viennent agrémenter la lecture. Le prisme de l’urbanisme choisi pour mettre en lumière la dynamique d’un secteur stratégique est assez unique et rend le propos d’autant plus singulier et captivant.