CAIRN.INFO : Matières à réflexion
« More appears like less by simply moving it far, far away. »
John Maeda, The Laws of Simplicity (2006)
figure im1

1« Je suis une citoyenne de La Courneuve. La Courneuve est une ville qui compte 37 000 habitants et je vous le dis car, pour moi, c’est un chiffre important. Dans ma rue s’est installé un datacenter qui consomme l’équivalent d’une ville de 50 000 habitants. Comme tout citoyen lambda j’ai cherché à en savoir plus, parce que je ne savais pas ce qu’était un datacenter. Je sais que dans le PLU [Plan Local d’Urbanisme] on avait prévu qu’on allait éviter de faire des villes du 93 qui ne reçoivent que des entrepôts, parce qu’ils n’apportent pas d’emplois de qualité pour la population. Et en fait un datacenter c’est exactement ce qu’on faisait avant, c’est-à-dire un hangar truffé de matériel informatique, numérique, et qui a besoin de climatiseurs dévoreurs d’énergie. Je vous l’ai dit, 50 000 habitants. En plus, cette entreprise stocke du matériel qui risque d’exploser – 280 000 litres [de fuel] à dix mètres de nos maisons – et cela on nous l’a instauré sans aucune concertation. […] Voilà, donc je suis venue avec ma voisine, nous, des citoyennes lambda, des mères de famille, on se préoccupe à notre âge, c’est-à-dire 50 ans passés, de savoir qu’est-ce qu’un datacenter, pourquoi il y en a cinq déjà dans la région Île-de-France, et si chacun consomme autant d’énergie, mais où va-t-on ? »

figure im2
figure im3

2Cette intervention de Joanna [1] lors d’une conférence consacrée à la « ville intelligente », dans un univers où l’on entend généralement parler de cloud, de « dématérialisation », d’open ou de big data, a quelque chose de saisissant. L’internet, les échanges de données informatiques, ont une forme urbaine qui prend le nom de datacenter et que l’on peut localiser, entre autres, à La Courneuve. Ce sentiment diffus d’un internet constitué de réseaux de fibres optiques devient en l’espace d’une minute un problème d’urbanisme, une affaire de risques, il soulève des questions de démocratie locale et de consommation énergétique globale.

3Qu’est-ce qu’un datacenter ? Quelles sont les dimensions politiques et sociales du stockage des données informatiques ? Bien que la thématique de la « matérialité » soit devenue un aspect important des Science and Technology Studies, les centres de stockage de données informatiques sont restés un point relativement ignoré des recherches sur les développements technologiques de nos sociétés. On les trouve parfois mentionnés en passant, souvent pour rappeler qu’internet est bien matériel, que son fonctionnement repose sur des quantités impressionnantes de machines éparpillées aux quatre coins de la planète, mais aussi que les technologies de l’information n’occasionnent pas la disparition des villes comme un certain nombre de prophètes ont pu l’annoncer [2]. Plus récemment ont été abordées les transformations politiques de l’internet liées au cloud computing[3], la consommation d’électricité et d’eau des infrastructures de données [4], ainsi que les espoirs suscités par la réutilisation de la chaleur dans les systèmes urbains [5]. Quelques travaux portent aussi sur les dimensions urbaines et géographiques. Au début des années 2000, généralement sous le nom d’hôtels télécom, les centres de stockage de données interrogent l’organisation des villes. Quelques architectes et urbanistes étudient les politiques d’attractivité et de régulation de l’usage des sols que les villes étasuniennes mènent et devraient mener [6]. En France, l’infrastructure est d’abord envisagée en 2003 sous l’angle d’une géographie des biens immobiliers [7], puis en 2013 d’une géographie des réseaux [8], analysant notamment les facteurs de localisation orientant les choix d’implantation des opérateurs de datacenters.

4Comme on peut le constater par ce rapide tour d’horizon, les études sur ces infrastructures de l’internet sont très peu nombreuses [9]. Pourtant, après quelques années d’une enquête toujours en cours, le sujet nous semble d’une grande richesse mais aussi d’une importance capitale dans la compréhension que nous pouvons avoir des transformations que nos sociétés sont en train de vivre. Les données informatiques et les infrastructures qui assurent leur circulation et leur traitement prennent une place considérable dans les organisations économiques et sociales contemporaines. Les transactions économiques, le trafic aérien, le fonctionnement des usines, la gestion des réseaux d’eau, d’électricité, l’utilisation des smartphones et du Web reposent toujours davantage sur des flux de données qui sont stockés et traités dans équipements éloignés de leur lieu de consommation. Les datacenters sont une des conséquences directes de l’utilisation toujours accrue des technologies de l’information. Si les études présentées auparavant sont dispersées (tant par les aspects étudiés que par les disciplines d’approche), nous proposons ici un état des lieux qui esquisse quelques-unes des problématiques nous semblant, de façon non exhaustive, pouvoir être rattachées à la question des datacenters.

5L’article se divise en trois parties. Un premier temps est consacré aux enjeux de qualification des datacenters. Nous traversons de trois manières, d’abord, en retraçant l’émergence historique de ce qui nous semble être un processus de rationalisation des espaces connectés de stockages de l’information, ensuite en montrant les controverses et enjeux de régulation de ces infrastructures lors de leur implantation en zone urbaine, puis en soulignant que la structuration d’une filière défendant les intérêts des infrastructures de données n’est apparue que récemment. Nous analysons dans une deuxième partie la promesse de sécurité faite par les datacenters à leurs clients, à l’aune des visites d’infrastructure que nous avons pu réaliser. Il en ressort notamment une tension entre les démonstrations d’une sécurité garantie par la prouesse technologique et le travail quotidien des petites mains devant maintenir la continuité de service de l’infrastructure. Un dernier temps permet de discuter les indicateurs au travers desquels les datacenters rendent lisibles les questions de sécurité et de performance énergétique. Nous prêtons alors une attention particulière aux conséquences écologiques des développements de l’informatique.

6Avant d’entrer dans le vif du sujet, il nous faut ajouter une dernière précision : enquêter sur le phénomène des datacenters n’est pas toujours simple, puisque, à l’instar d’autres terrains d’accès difficile, il n’est guère aisé de pénétrer en ces lieux où la sécurité est parfois de niveau militaire. Nous avons donc tenté d’en passer par tous les expédients possibles afin de quadriller au mieux notre sujet : visites d’infrastructures en qualité de chercheurs (mais parfois aussi en tant qu’enseignants accompagnant un groupe d’étudiants ingénieurs voulant perfectionner leur culture technologique – un alibi non dénué de véracité au demeurant), collecte de la documentation disponible in situ et en ligne, ethnographie de salons professionnels, entretiens avec des salariés ou consultants du domaine, dépouillement de quelques revues internes au milieu et participation à des conférences à destination de la profession. Si notre analyse s’enracine souvent dans des situations observées en Île-de-France, l’étude porte sur un secteur d’activité national entretenant des relations fortes avec des institutions internationales.

figure im4

Avènement et qualification d’une industrie émergente

Datacenters : définitions et typologie

7Les datacenters sont des sites physiques dans lesquels sont concentrés des équipements informatiques et les dispositifs technologiques nécessaires à leur fonctionnement en continu (bâti et conduites pour câbles, climatisation, filtration de l’air, distribution de l’énergie, système d’alerte incendie et d’extinction, dispositif de surveillance par caméras et/ou capteurs, entrées et sorties réseau, sécurité physique du site, etc.). La partie « ordinateurs » est généralement appelée IT (pour « information technology », prononcé à l’anglaise : « aïe-ti »), et l’ensemble (IT et hors-IT) est invariablement regroupé sous la nomenclature d’infrastructures (les « infras », dans le jargon du métier). Selon les estimations, il s’agirait de plusieurs centaines de milliers – voire millions – de mètres carrés sur le territoire français, répartis selon différents types d’opérateurs.

8Cependant, si le terme est devenu usuel, les datacenters sont loin d’être une réalité homogène. Les infrastructures regroupées sous ce terme ainsi que les acteurs comme les marchés qui y ont recours sont d’une grande variété, si bien que nous avons pu, à certains moments de l’enquête, nous interroger sur l’extension de la définition d’un tel objet. En effet, le terme peut être utilisé autant pour désigner 30 m2 de salle informatique dans les universités de Jussieu ou de Brest que les 20 000 m2 d’Interxion à La Courneuve ou les 330 000 m2 d’Apple dans l’Oregon aux États-Unis. Sans mentionner les 6,3 millions de m2 du plus grand datacenter du monde en activité à proximité de la ville de Langfang, en Chine [10].

9Le point commun de ces différents espaces nous semble tenir à l’effort permanent de rationalisation des espaces de stockage des données informatiques en vue d’optimiser le fonctionnement des ordinateurs. Un commercial nous explique avec fierté : « On est un peu la cave de l’internet, et si la cave s’effondre, tout s’effondre. » Selon le consultant senior Jérémie, cette rationalisation se situe au croisement de deux histoires. On trouve d’abord l’histoire de l’informatique bancaire. Dans les années 1960, les banques s’équipent d’ordinateurs massifs assistant la gestion des comptes. Ces machines de calcul occupent des espaces de plus en plus importants au fil des années et sont regroupées dans d’immenses Centres de traitement de l’information (CTI). Cependant, les grèves du personnel des années 1970 soulignent la fragilité de ces espaces critiques pour le fonctionnement des banques [11]. C’est pourquoi les banques vont opérer ensuite un double mouvement de dispersion des sites de traitement de l’information, mais aussi de production de copies des bandes informatiques circulant d’un site à l’autre. Certains sites, tels le CTI de Dinand, sont soumis à des mesures de sécurité qui constituent les prémices des datacenters actuels : « alimenté par trois groupes électrogènes en cas de coupure EDF, avec les cuves à mazout et le refroidissement nécessaire par l’eau puisée dans la nappe phréatique, il peut fonctionner en autonomie complète pendant plusieurs semaines » [12]. Au fil des années, les espaces sont de plus en plus standardisés : « on a entrepris de dissocier les opérateurs et les techniciens » [13]. Dans les années 1990, les réseaux intranet sont articulés à l’internet naissant.

10Cette histoire se répète aujourd’hui, par exemple, pour les universités. De plus en plus d’universités voient leur salle informatique croître et rencontrer des questions de sécurité menaçant tant le bon fonctionnement des ordinateurs que la santé des employés. Ainsi, lors de la visite d’un datacenter flambant neuf d’une université de province, le directeur nous explique qu’avec l’ancienne salle des machines, située au premier étage, au-dessus de l’accueil, « fabriquée en 1995, on était au bout du bout » [14]. Non seulement la salle était dangereuse pour les employés qui devaient gérer par eux-mêmes la sécurité incendie en bricolant des capteurs ad hoc et en ouvrant les fenêtres pour refroidir, mais encore la salle était vulnérable aux risques sociaux : « Y’avait des grèves, j’avais toujours peur avec la salle machine. […] Une fois ils sont arrivés avec une masse pour casser la porte. » [15] Face aux universités qui demandent des financements pour rénover leur salle informatique, l’État est lui aussi en train d’envisager de possibles concentrations des infrastructures. Les infrastructures rationalisées des datacenters coûtant des millions, on ne peut en effet imaginer que chaque université transforme sa salle informatique en bâtiment industriel de stockage high-tech. Le CNRS envisage ainsi de comptabiliser les salles de serveurs existant localement dans l’Enseignement Supérieur et la Recherche pour « rationaliser et optimiser leur fonctionnement », c’est-à-dire concentrer les infrastructures. Cette concentration serait un moyen de « séparer la science du béton » : permettre aux chercheurs de poursuivre leur activité sans avoir à se soucier de la climatisation et des conditions d’hébergement des serveurs et calculateurs. Cette transformation actuelle nous semble rejouer en partie les dynamiques économiques, sécuritaires et de division du travail dont a été l’objet le travail de l’information dans les banques dans les années 1970, puis dans les entreprises face au développement de l’internet dans les années 1990 puis 2000.

11Ces mouvements de rationalisation des infrastructures ne rendent cependant pas compte du mouvement de concentration des sites autour des villes. Bien souvent, les grands datacenters privatifs, qu’ils appartiennent aux sociétés de grandes distributions, aux banques, aux grands noms de l’internet (les GAFAM [16]) se situent dans les campagnes, profitant d’hectares de terrains peu chers. Dans les années 1990, avec le développement de l’internet sont apparus de nouveaux acteurs dans l’immobilier urbain. Internet est un réseau de réseaux dont le fonctionnement repose entre autres sur les espaces dans lesquels les réseaux s’interconnectent. Pour faire simple, les réseaux sont détenus par des opérateurs de télécommunication (par exemple, en France, Orange, Altice, Bouygues Télécom et Free, qui appartient au groupe Iliad) dont les partenariats permettent l’échange d’un réseau de données à un autre. Par souci d’économie, plutôt que de développer des compétences internes en développement informatique et gestion des données, de nombreuses entreprises ont recours à des hébergeurs assurant la maintenance des serveurs et la qualité de la connexion informatique. Ces hébergeurs tendent à se situer dans les mêmes locaux que les opérateurs de télécommunication, de sorte à garantir à leur client une circulation de données au plus haut débit possible. Avec la multiplication des serveurs dans les années 1990, ces espaces souvent situés en ville ont pris le nom d’« hôtel télécom ». Pour éviter la dépendance trop forte à un opérateur en particulier, des acteurs tiers ont développé un marché appelé « colocation neutre » garantissant aux clients l’égal accès à l’ensemble des réseaux [17]. Les enjeux d’accès au réseau et de rapidité dans l’échange de données participent à la concentration des infrastructures dans les zones urbaines, les différents acteurs s’installant souvent à proximité les uns des autres.

figure im5

12Le datacenter se situe ainsi à la croisée de ces deux histoires, celle des espaces de stockage d’information au fonctionnement ultra-rationalisé, et celle de la mise en réseau des machines nécessitant d’avoir à disposition une multiplicité d’accès télécom. Aux exigences de sécurité s’ajoutent les attentes en termes de gain économique grâce à la concentration des infrastructures. Le marché des datacenters se divise ainsi selon plusieurs modalités, des services de cloud computing à l’hébergement du système d’information d’entreprises clientes dans un contexte sécurisé. Les acteurs proposent des typologies de datacenters en fonction de leur taille : pico, meso et mega[18] datacenters. Ces différentes superficies d’activité IT et de stockage des données correspondent à des activités économiques différentes. Ainsi, les megadatacenters appartiennent généralement aux géants du Web, et vont concerner le stockage de leurs propres données, des contenus Web tels que les vidéos (très gourmandes en espace et en puissance) ou encore les services de type cloud computing. Les datacenters urbains sont plus généralement dans les catégories meso ou pico, devant s’insérer dans les aménagements existants, et concernent des données ayant davantage besoin de la proximité des nœuds de réseau internet, de sorte à réduire au maximum les temps de latence dans l’échange d’informations avec les places de marché pour les banques et les assurances ou avec les consommateurs de contenu pour les publicités et les jeux vidéo.

13Parmi ces différents marchés autour d’une industrie peu encline à communiquer, nous présentons ici principalement le segment de la « colocation neutre ». Ce sont majoritairement les datacenters proposant les services de colocation qui s’installent dans les métropoles et leurs banlieues mais ce sont aussi eux qui communiquent le plus, par nécessité commerciale, sur leur activité et sur leur localisation.

14Les datacenters sont donc avant tout des bâtiments, carapaces physiques de l’accumulation des données informatiques. Répartis aux quatre coins de la planète, en des lieux plus ou moins exotiques, tels que des fjords finlandais, des barges dans la baie de San Francisco, des grottes dans le Loiret ou d’anciens sites de lancement de missiles, c’est avant tout dans les banlieues des grandes métropoles et en zones urbaines qu’ils se multiplient.

15Si leur présence passe inaperçue, c’est que les bâtiments n’affichent généralement pas de signes distinctifs. Ainsi, en zone urbaine, les datacenters se présentent sous des enveloppes très variées : immeubles haussmanniens dans Paris (comme Zaio, rue Poissonnière, ou Telehouse, boulevard Voltaire), entrepôts réfrigérés dans le sud de Paris (Colt, dans la zone industrielle des Ulis), anciens centres de tri postal (Digital Realty à Saint-Denis, on notera la portée symbolique d’un tel changement d’activité), Henry Bakis note aussi des « usines désaffectées (Google à Hamina, OVH à Roubaix, Gravelines et Beauharnois) [et] des conteneurs aménagés posés sur un parking (OVH à Strasbourg) » [19]. Lorsque les hébergeurs ne réutilisent pas un immeuble ou un entrepôt désaffecté, ils produisent de grands bâtiments, généralement aux façades aveugles tels Telecity Group à Aubervilliers, Interxion à La Courneuve ou le datacenter d’une université qui tient à rester anonyme [20]. « C’est pour ça qu’on s’appelle la boîte noire », nous fait-on remarquer pendant la visite d’un datacenter aux façades sombres et aux rares fenêtres.

16On remarquera que c’est d’abord au travers de questions relatives aux réglementations de l’utilisation des sols [21] et sur des problématiques immobilières [22] que ces infrastructures ont été approchées par les sciences sociales. Le datacenter mentionné en introduction se situe sur la communauté d’agglomération de Plaine Commune, au nord de Paris. Ce territoire se trouve en 2015 dans une situation remarquable, il s’agit de la première concentration européenne de centres de données : « On en recense aujourd’hui une quinzaine, pour une surface totale de l’ordre de 180 000 m² » [23]. La concentration inédite de ces bâtiments sur le territoire n’est cependant pas sans conséquences. En quelques années, cette infrastructure urbaine relativement invisible, dont des architectes ont pu dénoncer « l’occupation furtive du territoire » [24] devient l’objet d’attentions diverses. Riverains, élus et services techniques se saisissent progressivement d’un objet qui leur était auparavant tout à fait inconnu. Les conflits qui s’ensuivent sont si violents que le sujet devient tabou au sein de l’administration.

La territorialisation du numérique

17Les manières de rendre visibles les datacenters sur le territoire de Plaine Commune peuvent être éclairantes à plusieurs égards. Les infrastructures urbaines ont largement été étudiées [25] sous l’angle des effets structurants propres aux phénomènes de privatisation [26] ou des conséquences sociales découlant de pannes et effondrements [27]. En deçà d’un tel niveau de généralité, notre enquête permet cependant d’observer les processus locaux qui accompagnent une implantation [28] et témoignent de l’expérience que font localement les acteurs urbains d’objets mal connus, dont les dimensions politiques s’actualisent au gré des acteurs qui cherchent à les promouvoir, les contester ou les réguler. Ainsi, nous proposons de retracer les grandes lignes de la dynamique qui a conduit à la publicisation de la situation des datacenters sur le territoire de Plaine Commune.

18En 2008, alors que le Parti socialiste prend la tête de la mairie d’Aubervilliers, fief historiquement communiste, Bernard est nommé 3e adjoint au maire en charge de l’urbanisme et aménagement, de la rénovation urbaine, du développement durable et du développement économique. Peu de temps après son accès aux responsabilités, il découvre l’existence des centres de données : « On s’est retrouvé avec cinq six datacenters sur Aubervilliers et personne n’en parlait. […] Je me suis retrouvé à inaugurer un datacenter que je ne connaissais pas, je ne savais pas ce que c’était que les datacenters en 2008 moi, mais par contre ma culture et ma curiosité ont fait que je me suis demandé “c’est quoi un datacenter ?” » [29]

19Cette ignorance au sujet des datacenters est symptomatique de la situation de la grande majorité des élus et des maires. La journaliste de Mediapart Jade Lindgaard, qui a aussi mené une enquête en 2013-2014 sur le sujet [30], confirme que bien des responsables politiques locaux interrogés ne savent pas ce qu’est un datacenter. L’intérêt particulier de l’expérience de Bernard est que l’élu va au-delà de la simple découverte. Rencontrant des consultants en datacenter, il devient vite promoteur de cette infrastructure urbaine qui lui semble être utile à une requalification du territoire : d’une part, les datacenters permettraient selon lui de « pacifier le territoire », de par leur superficie importante (5 000 m2 à 10 000 m2 à Aubervilliers), leurs façades aveugles, ainsi que les grilles et caméras de sécurité qui les entourent ; d’autre part, ils constituent alors une manne financière non négligeable pour les collectivités, ce qui a contribué à entretenir l’ignorance des élus dans les années qui précédaient [31]. La visibilité des datacenters semble ainsi se limiter à leur rentabilité économique.

20Cependant, la démarche proactive de Bernard rencontre très vite des obstacles. D’abord, Enedis (à l’époque encore ERDF) informe l’élu que la présence des datacenters entraîne une saturation énergétique du territoire. En effet, les opérateurs réservent d’importantes quantités de puissance électrique auprès d’Enedis pour anticiper le fonctionnement à plein de leur infrastructure, ce qui requiert de construire d’autres postes sources, coûteux aménagements électriques qui se planifient généralement des années à l’avance à l’échelon national d’Enedis. Pour résoudre ce problème, l’élu fait pression sur la communauté d’agglomération, et commande un article dans Le Parisien[32] afin d’insister sur l’urgence de la situation – qu’il qualifie de « risque de pénurie énergétique » – et de valoriser les enjeux de développement économique relatifs à un territoire sinistré comme Aubervilliers. Si l’élu obtient gain de cause à long terme auprès d’Enedis, l’article suscite plus d’attention qu’il ne l’aurait souhaité.

21En effet, à Aubervilliers et à La Courneuve, des riveraines s’interrogeant sur les projets d’installation de deux datacenters trouvent dans les articles du Parisien, puis du Monde, de nombreux éléments qui alimentent leurs doutes [33]. Elles se tournent alors vers leurs élus, manifestant notamment des inquiétudes concernant la consommation énergétique de ces bâtiments et s’interrogeant sur les emplois locaux qu’ils pourraient créer. Alors que les informations glanées sur internet indiquent que les datacenters ont besoin de peu de personnel in situ (ayant ainsi un très faible ratio emploi/m2 occupés), un journal local annonce que le bâtiment de La Courneuve comprendra 300 ou 400 bureaux [34]. Par ailleurs, ce datacenter est, de par sa superficie et les cuves de fioul qui y sont stockées (nous reviendrons par la suite sur ce point), une installation classée pour la protection de l’environnement (ICPE), ce qui contribue à alimenter les craintes des riveraines. Leurs questions sont cependant repoussées sans ménagement, avec des formules telles que « c’est soit le datacenter, soit votre smartphone » [35]. Ces interrogations sur la consommation énergétique et l’emploi produisent progressivement de l’agitation dans l’administration de Plaine Commune. Suite à l’abrogation de la Taxe Professionnelle en 2009, les revenus des collectivités liés aux datacenters diminuent drastiquement.

22Dans l’objectif de clarifier la situation, des rapports sont commandés la même année par le Service à l’écologie urbaine concernant, d’une part, la fiscalité et l’emploi (le rapport est réalisé par des services internes [36]) ; d’autre part, les enjeux environnementaux (ce deuxième rapport est produit par l’Agence locale énergie climat [ALEC] de Plaine Commune, considérée comme étant une institution indépendante [37]). L’enquête s’avère difficile pour les deux équipes, les datacenters n’ouvrent pas aisément leurs portes et fournissent généralement des informations floues au prétexte de la confidentialité de leur activité et de leurs clients. Les équipes passent par des voies détournées pour constituer les rapports (ainsi Dalkia, EDF, ERDF et GRDF sont sollicités par l’ALEC pour clarifier le fonctionnement et la consommation énergétique). La présentation conjointe des rapports lors d’une session fermée du bureau de Plaine Commune alimente le clivage entre les promoteurs et les opposants. Les représentants politiques ne parviennent à s’accorder pour définir une politique commune. Les datacenters deviennent un tabou dans la Plaine.

23Lors des entretiens réalisés en 2015-2016, les élus comme les services techniques sont réticents à aborder ces dissensions, « les plaies sont encore ouvertes » [38]. Là où certains affirment que la période d’installation des datacenters est révolue, qu’il s’agissait « d’un effet d’aubaine » [39] pour les opérateurs lié à la particularité du territoire (forte disponibilité foncière et énergétique), d’autres maintiennent l’ambition d’une politique susceptible d’accompagner et d’améliorer leurs conditions d’installation. Par exemple, selon Thibaud, directeur du développement économique à Plaine Commune, il conviendrait d’améliorer leur insertion urbaine en les incitant à produire des façades plus esthétiques et en profitant de l’importante chaleur qu’ils génèrent en raison de l’activité des ordinateurs pour les connecter à différents espaces : serre, habitat collectif, piscine [40]. Cependant, les opérateurs ne se montrent pas toujours friands de ce type d’interconnexion. Présent en 2013 lors de la réunion publique de restitution du rapport de l’ALEC qui préconise ce type de solution, Fabrice Coquio, Président d’Interxion[41], manifeste ses réticences : « la mission première d’un datacenter n’est pas de chauffer Madame Michu mais d’assurer une continuité de service aux entreprises » [42]. La « continuité de service » – c’est-à-dire le fait de garantir aux clients le minimum possible d’interruption dans la disponibilité de leur information via internet – est en grande partie la raison d’exister des datacenters. C’est, avec la sécurité des données, le socle de l’offre qui est faite aux clients. Selon F. Coquio, les technologies actuelles de gestion des réseaux de chaleur ne sont pas encore assez stables pour garantir qu’il n’y ait pas de répercussion sur le fonctionnement du datacenter. Enfin, pour Thibaud, un combat serait à mener avec les pouvoirs publics sur la fiscalité : « Ils étaient catégorisés comme entrepôt. Ce qu’ils ne sont pas. Ou alors des entrepôts très particuliers. Et ils sont toujours dans cette catégorie-là. On a croisé le fer avec les services fiscaux sur cet aspect-là, en essayant de faire admettre aux services fiscaux qu’il faut créer une catégorie particulière, spécifique. On peut appeler ça un entrepôt, mais c’est pour moi un entrepôt high-tech. On ne stocke pas des palettes quoi. » [43]

figure im6

24Cette question de la qualification des datacenters nous semble d’un grand intérêt. Historiquement, ces infrastructures sont considérées comme des bâtiments tertiaires. C’est ainsi que les géographes les décrivent encore, par exemple Henry Bakis parle de « l’hébergement : une nouvelle activité de service » [44]. Or, le processus de concentration des serveurs et de rationalisation des espaces de stockage de l’information semble avoir changé la nature même du type d’activité qui y est pratiqué. Jérémie, consultant senior et gérant de Critical Building, bureau d’étude spécialisé dans les datacenters, décrit cette ambiguïté :

25

« Les services fiscaux disposent d’indicateurs pour savoir si un immeuble est plutôt un immeuble industriel ou un immeuble de bureaux : notamment ils disposent de la hauteur des étages, de la résistance des dalles, etc. Évidemment si j’ai six mètres à chaque niveau et que je peux mettre deux tonnes par mètre carré, c’est sûrement pas pour mettre des studios, c’est pour pouvoir mettre du lourd. Donc les services fiscaux ont des instructions. On est une industrie, on utilise des bâtiments à usage industriel, on est soumis à l’ICPE et les mairies nous reconnaissent comme potentiellement perturbateurs par ce caractère industriel. À côté de ça, au sens de la réglementation et fiscalement parlant, on est du tertiaire. Donc on n’est pas reconnu comme une industrie. » [45]

26Cette situation ambivalente a d’importantes conséquences notamment sur l’attribution des espaces fonciers aux opérateurs par les mairies, qui peuvent refuser ou accepter la présence d’un datacenter sur un terrain industriel ou tertiaire. Cette difficulté de qualification fait état d’un phénomène bien connu en histoire industrielle, à savoir le fait qu’une massification modifie l’essence des procédés mis en œuvre [46] : pour le dire autrement, une transformation quantitative aboutit à une rupture qualitative dans la nature même de l’activité.

27La controverse des datacenters à Plaine Commune nous semble agir comme révélateur de l’émergence d’une nouvelle infrastructure industrielle liée à la prolifération des smartphones, de la gestion des données informatiques par les entreprises et administrations, et des services de cloud computing. Sa publicisation à Plaine Commune est liée entre autres choses à la saturation qu’elle provoque dans l’approvisionnement énergétique du territoire, bouleversant l’organisation des réseaux d’approvisionnement électrique établie par Enedis à l’échelle nationale. La confrontation du territoire à cette industrie est l’occasion d’une production inédite de savoir à son égard, notamment par le rapport de l’ALEC, qui est unique en son genre, et sert de source à de nombreux acteurs publics cherchant à comprendre le fonctionnement des datacenters. L’expérience de Plaine Commune a attiré l’attention des agences d’aménagement du territoire, comme l’IAU-IDF, qui interpelle en 2015 les pouvoirs publics pour calibrer l’approvisionnement énergétique du Grand Paris à l’horizon 2030 [47].

28Comme nous allons le voir, les développements économiques récents du marché des datacenters, mais aussi les épreuves que rencontrent les opérateurs vis-à-vis des territoires ou du marché de l’énergie, poussent les opérateurs à s’organiser en filière pour faire valoir leurs intérêts.

Un marché en plein boom

29Ce marché de l’hébergement informatique a connu, au début des années 2000, les affres de la bulle « .com ». Quelques années plus tard, le marché du numérique se porte bien à l’échelle mondiale, mais aussi française [48]. Au sein de cette nébuleuse, les infrastructures du Cloud ont à nouveau le vent en poupe : en 2015 et 2016, la croissance des investissements liée aux datacenters était le seul poste positif envisagé sur les deux années par le cabinet Gartner (170 milliards de dollars soit +1.8% en 2015 et 175 milliards soit +3.0 % en 2016 [49]), là où les autres secteurs (logiciels, appareils, services) se profilaient négatifs sur l’une ou l’autre des années. Comme le résume un commercial interrogé : « On subit pas la crise dans ce secteur. » [50] S’il est difficile d’obtenir des chiffres détaillés lors des entretiens, car le marché étant concurrentiel, ces informations sont stratégiques et généralement non divulguées, quelques éléments corroborent le fait que le domaine est en plein boom : l’une des entreprises visitées est valorisée à 4 milliards de dollars et appartient au patrimoine de la seconde fortune d’Angleterre, « juste après celle de la Reine », insiste notre interlocuteur. Un classement datant du mois de février 2017 [51] fait de la France le quatrième pays au monde du point de vue de son parc de datacenters, avec 244 installations, derrière les États-Unis (2092), le Royaume-Uni (405) et l’Allemagne (342). Les estimations corroborent cette évolution, puisque la tendance serait à l’externalisation de tous les services IT des entreprises vers le cloud[52]. Ce ne sont plus seulement les acteurs du Web ou les institutions financières, militaires et gouvernementales qui se voient largement intégrés aux infrastructures numériques, mais bien l’ensemble de l’économie mondiale, engendrant du même coup l’un de ses secteurs les plus dynamiques. Le modèle économique se révèle au détour des propos d’un commercial : « Notre métier, c’est de transformer un investissement en loyer ». Il s’agit en effet de proposer aux entreprises de reprendre une partie de leurs coûts informatiques – stockage de données et puissance de calcul (jadis intégrés dans des plans d’investissement, et non de fonctionnement, avec achats de machines et embauche d’informaticiens pour les gérer) – pour les transformer en rente locative côté datacenter.

figure im7

30En amont, cela nécessite une certaine assise économique, puisqu’il s’agit d’implanter une infrastructure sur un site avant que celle-ci ne soit en capacité de maximiser son taux d’occupation ; mais en aval, cela assure une manne financière considérable, puisqu’il ne peut guère y avoir de retour arrière (au pire, le client, insatisfait, change d’opérateur de datacenter, mais le modèle perdure). Il y a là l’instauration d’une sorte de cliquet d’irréversibilité, au sens de Régis Debray [53], ou de dépendance du sentier ou lock-in[54], c’est-à-dire que l’univers numérique engendre un macrosystème qui possède une inertie de plus en plus importante, et trace une trajectoire technologique dotée d’un élan considérable (ce que l’historien des techniques Thomas P.Hughes nomme « momentum » [55]). Un directeur le formule à sa façon : « Plus on avance, plus la machine s’emballe. » L’organisation de la toile numérique mondiale aboutit peu à peu à transformer une économie de la propriété en économie de la location – autrement dit de l’accès, ce qu’envisageait Jeremy Rifkin dès 2000 [56].

31L’univers du réseau est souvent présenté comme étant dénué de centre, et du même coup rétif aux tentatives de contrôle autoritaire. Dans les faits, comme l’avait noté dès 2006 Bernard Benhamou, l’inverse se produit [57] : on voit se constituer des nœuds qui deviennent de puissants points de cristallisation du réseau, et sont structurellement indéboulonnables. L’imaginaire du désintéressement et de la collaboration gratuite et collective ne semble d’ailleurs pas constituer l’éthos du métier, comme nous le révèle un gestionnaire de site : « les clients n’aiment pas partager, en général » – alors qu’un de ses confrères nous glisse que «  [les] clients sont paranoïaques ». D’ailleurs, lors d’une conférence au salon Solutions Datacenter Management[58], un expert présente ce qu’il analyse comme étant l’une des raisons du succès des opérateurs de datacenters, à savoir le fait qu’ils permettent d’accroître le rendement des entreprises classiques, dont le cœur de métier consisterait, bien loin du discours lénifiant sur l’innovation comme fondement de la croissance, à « produire, facturer, vendre ».

32Cette logique en vient même à se redoubler, puisque les acteurs publics ayant implanté un datacenter découvrent, une fois leur phase d’installation initiale terminée, qu’ils disposent d’un outil parfaitement adapté aux besoins du marché, et qu’il serait logique d’offrir leurs services non pas seulement aux collectivités ayant rendu possible leur édification (qui ne saturent initialement jamais les infrastructures, systématiquement pensées en fonction d’un développement futur potentiellement exponentiel), mais bien à l’ensemble des entreprises de leur région. Un responsable réseau d’un datacenter public nous confiait ainsi du bout des lèvres qu’il s’interrogeait quant à la possibilité de vendre les services de son datacenter tout en conservant son statut d’établissement public. Il se confronte ainsi à des questions de prix de l’hébergement, de possible concurrence déloyale, qu’il n’avait jamais eu à se poser avant. On voit donc poindre une logique bien connue de l’histoire industrielle : après avoir mutualisé les coûts, on privatise les bénéfices [59].

33Cependant, bien qu’en pleine croissance, l’univers du datacenter d’hébergement est relativement petit et, jusque récemment, peu organisé. Il se résume à une poignée d’opérateurs (Colt, Data4, Equinix, Digital Realty), auxquels s’ajoutent des constructeurs implantés sur ce segment de marché (Schneider, Bouygues), quelques bureaux d’études, cabinets d’architectes et des équipementiers. Les acteurs de ce petit monde se retrouvent lors des salons professionnels : deux d’entre eux sont récurrents en France – le « Solutions Datacenter Management » et le « Datacenter world » que nous avons à plusieurs reprises ethnographiés (2015, 2016 et 2017). Les anecdotes y circulent et les noms reviennent souvent, au point que notre intronisation auprès d’un interlocuteur reconnu a ensuite suffi à nous ouvrir plusieurs portes à la simple mention de son patronyme. Si quelques firmes apparaissent alors que d’autres quittent la scène, les experts des panels sont bien souvent les mêmes d’une édition à l’autre et les principaux exposants ne changent guère. Les employés semblent circuler aisément : on peut quitter un poste de consultant extérieur pour être embauché par un ancien client directement fournisseur de solutions technologiques. Si les cœurs de métiers restent largement identifiables (commercial, responsable IT ou DSI, spécialiste réseau, gestionnaire, etc.), le milieu en général est un élément plus déterminant que l’appartenance à une firme singulière – l’absence de visibilité médiatique de ces entreprises participe d’ailleurs peut-être à une plus grande flexibilité des trajectoires : puisque, à la différence de l’informatique « grand public » (comme lorsqu’on travaille chez Orange, Apple ou Amazon), aucune « aura » spécifique n’éclaire tel ou tel acteur du marché, travailler pour l’un ou pour l’autre serait peut-être avant tout affaire d’opportunité et de progression de carrière.

34Ce secteur d’activité restreint ne s’est structuré que récemment. En témoignent les hésitations relatives à sa catégorisation (tertiaire ou industriel), toujours en discussion, qui ne s’expliquent pas uniquement par le manque de connaissance ou d’attention de la part des élus et des administrations – la « filière » datacenter n’ayant pas de porte-parole institué avec les autorités publiques avant novembre 2016. Cette distance entretenue plus ou moins volontairement prend fin avec le projet de loi pour la croissance et l’activité (loi Macron). Alors que le projet législatif prévoit d’augmenter les taxes d’électricité pour les entreprises, le ministre cherche dans le même temps à intégrer des mesures pour l’industrie électro-intensive, afin que celle-ci reste concurrentielle sur la scène internationale. Selon Jérémie, les datacenters devraient être intégrés à ce régime d’exception :

35

« L’État, dans sa grande mansuétude, a toutefois convenu que les industries pour lesquelles la quote-part de l’énergie dans le produit fabriqué est supérieure (de mémoire) à 50% de la valeur du produit, qu’il fallait exonérer de cette taxe ces entreprises. […] Le datacenter, c’est 98 % du produit fini qui est constitué par de l’électricité, et ce n’est pas dans le régime d’exemption. » [60]

36Le manque de visibilité institutionnelle des datacenters, dont l’activité repose sur la location de puissance électrique (un opérateur se définit ainsi : « on loue du mégawatt »), leur porterait préjudice. Deux associations se font alors porte-parole des datacenters, le CESIT (Comité des exploitants de salles informatiques et techniques) et le GIMELEC (Groupement des industries de l’équipement électrique). En janvier 2016, « les deux associations sont allées [voir le ministre] séparément, n’ont pas délivré le même discours, ne se sont pas concertées bien évidemment, et maintenant se tirent dans les pattes parce qu’elles n’ont rien obtenu en disant si tu m’avais laissé faire, j’aurais fait mieux » [61].

37Suite à cette défaite, en septembre 2016, le CESIT élit un nouveau président (qui dirige aussi le groupe Data4) et change de nom pour devenir France Datacenter[62]. L’ambition de l’association est désormais de représenter le secteur des datacenters en France. Le communiqué de presse est éloquent quant aux objectifs de structuration de l’activité économique dans le pays. L’association a prévu un plan pour « valoriser le secteur du datacenter », annonçant ainsi la « mise en place d’une veille législative », des « actions de lobbying tous azimuts » [63]. La promesse de tels projets témoigne de l’absence de structuration des opérateurs de datacenters jusqu’ici. On peut supposer qu’il n’y avait pas, auparavant, de veille législative, de lobbying organisé, ou du moins pas de façon structurée. Chaque acteur menait sa barque comme il le pouvait. L’échec de la négociation sur la CSPE a ainsi dynamisé l’organisation de la filière. Quelques mois plus tard, en janvier 2017, le GIMELEC se rallie à l’initiative et annonce la signature d’un partenariat avec France Datacenter, témoignant de sa capacité à rassembler les acteurs du champ.

38Au-delà de cette dynamique classique de structuration d’une activité, ce mouvement témoigne aussi d’un rapport renouvelé de l’industrie à sa visibilité. Alors que l’industrie des datacenters en France semble jusque-là briller par sa discrétion, les problèmes de coordination liés au lobbying et les difficultés croissantes rencontrées pour s’installer en territoire urbain semblent mener à une nouvelle stratégie de visibilité reposant sur des instruments de communication classiques.

Travail et sécurité : mythologies du datacenter

39Un opérateur de datacenter vend de la sécurité : sécurité des données éventuellement (s’il offre aussi des espaces serveurs et pas uniquement les espaces pour les héberger), mais aussi et surtout garanties de connectivité et d’opérationnalité. Ainsi une infrastructure est-elle calibrée afin de ne jamais « tomber », c’est-à-dire de ne jamais interrompre l’alimentation du stockage de données et le dialogue avec le réseau. Au fil des visites se donne à voir une tension, entre l’exaltation du pouvoir de protection de l’infrastructure technologique, la promotion incessante de l’automatisation des alertes et le « travail ordinaire de la sécurité » [64].

Une sécurité « infaillible »

40Les visites de datacenters que nous avons pu réaliser sont invariablement organisées autour d’une mise en scène de la sécurité de l’infrastructure, qui met en valeur la situation géographique du datacenter : sont notamment soulignées les études avant installation qui visent à garantir tout à la fois la possibilité d’une bonne couverture énergétique (« le nerf de la guerre »), couplée à des risques environnementaux limités (tremblements de terre, inondations, tempêtes, etc.). Quand ces risques sont malgré tout présents, on les circonscrit au mieux : un datacenter à proximité de la Seine a ainsi eu recours à l’installation d’immenses boudins gonflables d’une dizaine de mètres de haut visant à garantir la pérennité de l’installation en cas de crue centennale du fleuve. Puis, au cours de la visite, la sécurité est incarnée par une multitude de dispositifs technologiques auxquels le visiteur-client potentiel doit se confronter au cours de ses déplacements, ou qui lui sont montrés par son guide lorsqu’ils échappent à son attention : « dans notre métier, on doit toujours prévoir le pire, il faut être un peu parano », entend-on de visite en visite.

41Ainsi, dès son arrivée, le visiteur éprouve la sécurité comme contrôle des personnes, de l’accès : barbelés entourant les terrains d’implantation, sas de contrôle circulaires à panneaux coulissants dignes de films de science-fiction, caméras multiples, badgeuses sur chaque porte, etc. Un datacenter portugais a même poussé le contrôle de l’espace intérieur plus loin encore :

42

« Niveau sécurité, mis à part les douves, Portugal Telecom a placé des agents de sécurité dans tous les coins et recoins du datacenter, épaulés par plus de 200 caméras. D’ailleurs, pour accéder au bâtiment, les visiteurs se font scanner le visage par une caméra qui permet de déterminer en temps réel si une personne a les autorisations nécessaires pour entrer dans le lieu. Même chose si vous pénétrez dans l’enceinte en voiture, sauf qu’en plus de votre visage, on scanne votre plaque d’immatriculation pour vérifier que c’est bien la personne “associée” à cette plaque qui conduit le véhicule. Grâce à ce système de scan facial, les agents de sécurité sont capables de savoir où vous êtes, et cela à n’importe quel moment. » [65]

43Dans l’Ouest parisien, malgré les barbelés, les sas d’identification et les contrôles multiples, un gestionnaire de site avoue clairement avoir pris la décision, motivée économiquement, de ne pas sécuriser le site contre des attaques terroristes armées : « Si un type se pointe avec une kalachnikov, on le laisse entrer, on n’est pas équipé pour gérer ce type de menaces. »

44La sécurité vise surtout à éviter les actes de malveillance ou l’espionnage industriel entre hébergés – parfois concurrents. Ainsi, la segmentation des espaces est très forte, chaque type d’équipement (serveurs, générateurs, tableaux électriques, interconnexion des réseaux, etc.) est localisé dans un espace différent, favorisant la séparation des intervenants techniques. Moins les compétences se mélangent, plus les risques diminuent : les accès sont nominatifs et discriminés en fonction des autorisations préalables. La majorité des datacenters ne fait pas figurer d’étiquettes sur les baies des salles serveurs afin que les clients restent anonymes ; d’autres utilisent un système d’alarmes sonnant sur place et au central de sécurité à chaque ouverture (même autorisée !) d’une porte. En fonction des besoins des clients, les racks d’ordinateurs peuvent être séparés de l’ensemble des serveurs par des grilles. Ainsi, alors que nous visitons, en compagnie d’une cohorte de cadres en costumes avec cravate, une salle IT, un technicien en gris de travail, enfermé dans une cage de métal où il câble et installe de nouveaux serveurs, apostrophe notre groupe et ironise quant à sa situation : « Prière de ne pas nourrir les animaux ».

45La visite se poursuit, et on assiste aux démonstrations concernant le maintien automatisé de la stabilité de l’infrastructure : climatisation, capteurs anti-incendie, arrivées électriques et groupes électrogènes. La climatisation est un enjeu de taille dans l’industrie des datacenters. De par la concentration d’une grande quantité d’ordinateurs dans un même espace, à la moindre panne du système, les machines chauffent tant que la température monte très rapidement (à 80 °C en 10 minutes selon un commercial, d’un degré par minute selon un autre – estimation probablement très approximée dans la mesure où un tel réchauffement n’est a priori pas linéaire), provoquant arrêts informatiques et mises en péril du personnel, sans compter le risque d’incendie et de dégradation du matériel. Il n’est pas rare de voir des dispositifs de climatisation fiabilisés par un double système de détection anti-incendie (deux séries de capteurs répartis sur l’ensemble du lieu, chaque ensemble étant pondéré statistiquement en fonction de la topographie, afin d’éviter les faux positifs), mêlant selon les besoins détection optique, thermostatique, par ultraviolet ou infrarouge, etc.

46Lorsqu’un départ de feu est confirmé, deux dispositifs anti-incendies sont souvent présents, le plus courant consistant en gaz inerte (typiquement un mélange d’argon et d’azote) remplaçant les atomes d’oxygène de l’air, ou d’un gaz inhibiteur (halon) interrompant la combustion. Ces gaz sont émis sous forte pression, à tel point qu’un système de valve est généralement intégré au bâti afin de ne pas déformer les murs – pourtant bien épais. Un commercial nous rassure : « Quand les alarmes se déclenchent, il vaut mieux sortir, sinon on risque de tousser un peu. »

figure im8

47Après les essais et erreurs des dernières décennies du siècle précédent, la stratégie assumée aujourd’hui est celle de la redondance, qu’il s’agisse des installations IT (souvent laissées à la discrétion du client – certaines baies emplies de racks de serveurs pouvant facilement dépasser le million d’euros), de l’alimentation électrique, des détecteurs de panne, des dispositifs anti-incendie ou bien évidemment de la sécurité physique des machines et des personnes. Lorsque tout équipement critique est au moins doublé, il est théoriquement possible d’effectuer maintenance et réparations sans « impacter » un seul instant l’ensemble du système, d’où les technologies dites de hot swap (i.e. « échange à chaud », c’est-à-dire permettant de réaliser un « upgrade » de disque ou de remplacer un composant défectueux – disque RAID, bloc alimentation – sans aucune interruption de service du serveur).

48De la même façon, la majorité des datacenters réservent le double de la puissance nécessaire électrique auprès d’Enedis afin de garantir qu’en cas de rupture d’alimentation sur une des lignes du réseau, une autre source d’approvisionnement soit toujours disponible. Mais comme le pire doit toujours être envisagé, des groupes électrogènes sont aussi préchauffés en permanence afin de pouvoir prendre le relais en cas de coupure inopinée : ces immenses moteurs thermiques qui avoisinent bien souvent la demi-douzaine de mètres sont eux-mêmes redondés et approvisionnés par de gigantesques cuves à essence (la plupart du temps enterrées, car leur volume, facilement supérieur à 10 000 litres, peut dépasser celui d’une petite maison) visant à permettre une autonomie énergétique de 72 heures en cas de pénurie ou de problème majeur dans les dépôts de carburants nationaux (grèves, blocages, etc.), certains datacenters disposent de contrats garantissant leur livraison au même niveau de priorité que les hôpitaux ou les installations militaires.

49Mais un groupe électrogène, aussi puissant soit-il, met au démarrage quelques dizaines de secondes à atteindre un rendement énergétique satisfaisant, d’où la nécessité de batteries et d’onduleurs raccordés à l’ensemble des baies serveurs. Ces machines garantissent la régularité du courant reçu (car en fonction de l’état du réseau électrique, d’infimes variations peuvent avoir lieu), mais permettent surtout de suppléer immédiatement à l’alimentation en cas de coupure, avant que les groupes électrogènes ne prennent la main. Selon les installations, on voit d’une à trois baies alimentées par un même couple onduleur/batterie. Ces batteries sont généralement des modèles au plomb : les seuls, à coût non-prohibitif sur le marché actuel, garantissant une performance de 80 % quatre ans après leur installation. Ce qui signifie qu’au bout de quelques années, le parc entier de ces accumulateurs électriques au plomb est remplacé. Un commercial interrogé sur la destination des rebuts nous a déclaré qu’il ne faut pas s’inquiéter, car ils sont systématiquement transmis au sous-traitant, même s’il a reconnu immédiatement ne pas savoir ce qu’ils deviennent ensuite.

50Il reste, enfin, la cybersécurité, qui articule à la fois la protection contre les attaques et la surveillance de ce qui se passe sur le réseau. Celle-ci prend une tournure particulière dans le cadre des infrastructures publiques. Les échanges avec les Directeurs de Système d’Information (DSI) gérant des datacenters universitaires donnent quelques idées des enjeux. Ceux-ci dialoguent régulièrement avec le ministère de l’Intérieur au sujet des infractions commises via les serveurs présents sur le site. Nous avons ainsi eu l’occasion de visiter une « chambre forte » où un coffre-fort, faisant aussi office d’armoire antifeu, abrite les bandes magnétiques contenant des données devenues preuves à conviction à fournir aux autorités en cas de procès. Le datacenter étant par nature lieu de centralisation, on voit ainsi qu’il est du même coup un nœud de puissance sociale et politique : qu’il s’agisse d’affaires de harcèlement, de pédophilie en ligne, de vols ou d’arnaques numériques massives, de radicalisation terroriste ou de maltraitance, le numérique enregistre et garde la trace de ces exactions, traces dont le pouvoir a un besoin crucial pour exercer son action – d’où une proximité des DSI parfois tangible avec les services de police et de justice qui débarquent afin d’effectuer une saisie [66]. La sécurité des données articule ainsi fortement sécurisation physique et cybersécurité.

51Cette dernière se donne notamment à voir dans les établissements proposant aussi un service IT de type cloud, et devant parer aux attaques réseau (dont les plus organisées sont les dénis de service distribués – DDoS attack – qui visent à incapaciter une application ou un service en ligne en le saturant de requêtes), attaques qui, des dires d’une responsable de site, sont quotidiennes et peuvent parfois se compter par milliers. Depuis 2016, les ransomwares (ou « rançongiciels ») sont venus occuper le devant de la scène criminelle numérique, au point d’inciter à une coopération européenne afin de contrer la menace [67] : ces logiciels cryptent tout ou partie des fichiers d’un système ou d’un réseau interne, puis font parvenir une demande de rançon contre la restitution des données perdues. La cyberattaque mondiale du 12 mai 2017 par le logiciel Wannacry a été assez largement médiatisée [68]. La moyenne des sommes demandées, grand public et entreprises confondus, est passée de 300 à 600 dollars en 2016 [69] – d’où une certaine expertise en matière de surveillance et de protection des données acquise par les opérateurs.

52D’autres garanties de sécurité peuvent aussi être contractualisées : certains sites proposent des clauses de type « disaster recovery » ou « business continuity », principalement à destination de la finance ou des forces armées. Le datacenter offre alors des espaces permettant de recréer en quelques dizaines de minutes, grâce aux données sauvegardées et aux postes pré-installés, l’entièreté d’un environnement de travail préétabli (la salle de gestion boursière d’une grande banque parisienne, par exemple). Ainsi, en cas de sinistre, une équipe du client peut migrer directement vers l’espace sécurisé du centre afin de ne pas mettre en péril la continuité de son activité.

Travail humain et automatisation

53On peut voir les visites de datacenters comme une succession de démonstrations de la solidité de l’infrastructure face à tout type d’événement. Pourtant, malgré tous ces dispositifs, la sécurité vantée auprès des clients n’est pas infaillible : un gestionnaire de site nous fait part de récents déboires : « on a eu de la chance [lors du dernier départ de feu] car un technicien de maintenance était dans les parages ». De la même façon, un test du dispositif anti-incendie aurait fait sauter, lors de son émission, les têtes de lecture de plusieurs serveurs en plein travail [70]. Face aux mises en scène de la sécurité est en effet rappelée, au cours des visites, la fragilité inhérente aux infrastructures numériques [71]. Les datacenters nécessitent un soin quotidien de la part de tout un ensemble de professionnels. Il faut bien sûr compter les agents de sécurité, notamment ceux présents en continu au PC sécurité, mais aussi les divers opérateurs spécialisés dans la maintenance des installations : électriciens, thermiciens, spécialistes des fluides ou de la climatisation, etc. Les immenses couloirs résonnent parfois des pas d’un technicien pressé de rejoindre le poste où sa présence est requise : tenter de l’arrêter pour discuter est peine perdue, car son intervention est bien souvent minutée et monitorée depuis le « central ».

54Comme la plupart des activités de haut niveau technologique [72], un datacenter nécessite des petites mains pour fonctionner, même si, en comparaison de sa rentabilité financière, on y emploie assez peu de personnel. Un directeur tient à nous révéler l’astuce : « ne rien faire, ne rien laisser faire, tout faire faire ». Selon une note de l’IAU-IDF, un datacenter de 10 000 m² crée, en emploi direct, dix équivalents temps plein [73]. À ceux-ci s’ajoutent des sous-traitants, qui passent ou travaillent sur place : « Notre activité, c’est le pilotage de prestataires », nous confie un gestionnaire de site. Au plus bas niveau, les datacenters vendent en effet des services unitaires nommés « mains à distance » (remote hands) et facturent le redémarrage de serveurs pour des clients éloignés. Différents types de qualification sont en effet requis pour le bon fonctionnement quotidien de ces infrastructures.

55Pourtant, malgré le faible nombre de personnes sur site, les principaux opérateurs de datacenters en France déplorent le manque de personnel qualifié. Quelques organismes se sont d’ailleurs lancés sur le créneau de la formation d’opérateurs pour datacenters (Cella Consilium, AFEIR Communications, Institut Datacenter, etc.), question qui n’est pas simple car les profils recherchés nécessitent de multiples compétences. En témoigne cette offre d’emploi pour « Technicien Datacenter H/F », assez typique :

56

Aubervilliers – 93 – CDI
Ittaka recherche pour l’un de ses clients un Technicien(ne) Support Datacenter H/F. Vous intégrerez directement l’équipe de Technicien(ne) s au sein d’un Datacenter.
Vous serez en charge de :
Installation des baies, du câblage. Brassage et rackage des serveurs. Maintenance niveau 1 sur serveurs.
Gestion des incidents sur l’ensemble de l’infrastructure du datacenter.
Administration des outils de monitoring.
Accompagnement des clients dans le datacenter.
Travail collaboratif avec les équipes d’experts réseaux, sécurité, administration systèmes.
Profil recherché :
De formation Bac ou Bac +2 : débutant ou première expérience en maintenance hardware, software, câblage, brassage. Vous avez aussi des connaissances réseaux (routeur, switch).
Salaire : Non précisé.
Publié le 5 mai 2017

57Si l’annonce prend la peine de féminiser l’offre d’emploi, précisons que les femmes sont très largement absentes de l’ensemble des infrastructures d’un datacenter : le seul lieu où elles semblent pouvoir trouver une place est à l’accueil, à l’exception d’une commerciale croisée lors de nos visites et d’une directrice qui nous a accordé un entretien [74].

58Il existe peu de formations dédiées, que ce soit sur le versant IT ou sur la partie infrastructures (climatisation, électricité, maintenance des salles). L’IUT de Reims-Châlons-Charleville [75] est l’un des rares établissements à proposer un véritable cursus préparant à la gestion de datacenters, insistant notamment sur la partie virtualisation [76]. Dans le nord de Paris, à l’IUT de Villetaneuse, Telecity Group a pris part à la mise en place d’un cursus formant des techniciens ayant la triple compétence climatisation, électricité, réseau de télécommunication en 2012. La formation est aujourd’hui soutenue par deux autres opérateurs présents sur le territoire de Plaine Commune. L’objectif est de former des techniciens directement sur le territoire, et donc de témoigner aux autorités publiques de sa bonne volonté en matière d’insertion locale. Un enseignant de la formation interviewé explique que le roulement dans l’embauche des quelques partenaires locaux est suffisamment important pour faire tourner la formation. Assurer la continuité de service des datacenters est présenté comme un travail physique, pour lequel « il faut des gars robustes ». Les horaires décalés, le travail du week-end, « quand ils arrivent à un certain âge et qu’ils se stabilisent familialement, c’est plus forcément hypercompatible avec une vie familiale » [77].

59Comme la majorité des installations high-tech qui vantent les mérites du tout automatique, les datacenters n’échappent pas à la contradiction entre discours promouvant des règles simples et systématiques et la réalité du travail réalisé [78].

60D’un côté, le mythe d’une machinerie autorégulée, totalement efficiente et dont les pannes ne relèveraient jamais de sa nature propre bat son plein [79]. « 67 % des outages [pannes, interruptions] sont dus à des fautes humaines, donc si on peut enlever cette couche-là… » [80], suggère un communiquant en fin de conférence au forum Datacenter World : l’automatisation totale serait la panacée face aux problèmes posés par les humains gérant les infrastructures technologiques actuelles. Un directeur ironise lourdement sur le PFH, acronyme « sociologique » (sic), renvoyant au « putain de facteur humain », source de tous les maux. Le moins d’opérations de maintenance il y a à faire, le moins de risque il y aurait : tout doit donc être réduit au minimum, cloisonné, découplé. À cette réduction drastique du matériel et des opérations répond le doublement de tout : chaque salle doit être autonome, c’est-à-dire que chaque salle doit posséder ses propres batteries, générateurs électriques, systèmes de climatisation, tableaux électriques, etc. L’optimisation est faite en vue de l’autonomie maximale de chaque client, au sens où ses erreurs ne risquent pas d’affecter le matériel des autres.

figure im9

61De l’autre, la réalité du terrain semble peser en faveur d’une action humaine indispensable au bon fonctionnement des dispositifs : « Ça s’entend au son » (ce qui permet de savoir quand il y a besoin d’intervenir), nous signifie un opérateur observant lors d’une visite un cluster de serveurs qui entre en phase de calcul intensif. Même au plus haut niveau de la high-tech, là où les processus électroniques sont censés échapper aux perceptions humaines, les travailleurs développent une habileté, un savoir-faire, typique des métiers techniques [81], qui les rend aptes à comprendre les variations les plus minimes et les causes possibles des dysfonctionnements auxquels ils sont confrontés [82]. Un superviseur nous expose la sécurité drastique qui entoure l’armoire à clefs : en plus du badge, il faut des clefs, mais pour obtenir les clefs, il faut un badge, et un code, qui permettent d’ouvrir et de savoir qui a ouvert (les données sont conservées trente jours) pour enfin libérer magnétiquement les trousseaux que la personne est habilitée à utiliser – « si on essaie de prendre une clef à laquelle on n’a pas droit, un message d’alerte est envoyé ». Dans l’instant qui suit cette déclaration d’inviolabilité du système, le voici qui s’empare sans autorisation d’une clef dont il a besoin pour la poursuite de la visite, et sourit en disant qu’une alerte a probablement été émise, mais qu’il n’a ni son portable ni son ordinateur sur lui… Dans une veine similaire, un directeur de centre nous confiait, au détour d’un couloir : « Si j’applique les consignes du Ministère, plus personne ne bosse. » Dans les faits, c’est l’écart entre la règle et la réalisation effective de la tâche qui rend possible la maintenance de ces infrastructures : là où le discours commercial vante une fiabilité et une sécurité totale passant par des dispositifs indépendants de toute action humaine, la réalité de l’activité est plus nuancée.

62La mythologie de l’efficacité et de la sécurité totales engendrée par la procéduralisation et l’automatisation existe depuis deux siècles au moins [83], et elle se porte étonnamment bien [84] alors même qu’elle entre en contradiction permanente avec les faits. Courant novembre 2017, les infrastructures d’OVH à Strasbourg et Roubaix sont victimes d’incidents critiques provoqués par les automates en charge des protocoles de redondance : « Ce matin, le système de bascule motorisée [d’un datacenter de Strasbourg] n’a pas fonctionné. L’ordre de démarrage des groupes n’a pas été donné par l’automate. Il s’agit d’un automate NSM (Normal Secours Motorisé), fournit par l’équipementier des cellules haute tension 20 kV. Nous sommes en contact avec lui, afin de comprendre l’origine de ce dysfonctionnement. » [85] Et de poursuivre : « La base de données avec la configuration est enregistrée 3 fois et copiée sur 2 cartes de supervision. Malgré toutes ces sécurités, la base a disparu. Nous allons travailler avec l’équipementier pour trouver l’origine du problème et les aider à fixer le bug. […] Les bugs ça peut exister, les incidents qui impactent nos clients non. Il y a forcément une erreur chez OVH puisque malgré tous les investissements dans le réseau, dans les fibres, dans les technologies, nous venons d’avoir 2 heures [33 minutes] de downtime sur l’ensemble de nos infrastructures à Roubaix. » [86]

63Selon une même logique, le génial (et prétendument automatique) algorithme de Google permettant de classer les résultats des requêtes effectuées est en réalité largement informé par l’activité de travailleurs payés à l’heure, dont la compétence linguistique est mobilisée afin de noter la pertinence des résultats proposés dans le but d’améliorer leur ordonnancement [87]. De la même manière, Amazon emploie 500 000 « turkers » (contraction de worker et de Turk, en référence à leur plateforme de télétravail Mechanical Turk, clin d’œil ironique envers le pseudo-automate du siècle des Lumières, censé jouer aux échecs, mais cachant en réalité un humain manipulant les mécanismes), de véritables ouvriers du clic, payés chichement pour des tâches rébarbatives : « Transcrire une vidéo de 35 secondes, 5 cents. Écrire la description commerciale d’un produit, 12 cents. Noter des photos d’hommes pour un site de rencontres, 3 cents. Répondre à une étude scientifique, 10 cents. » [88] Il faut ainsi ajouter, à l’ensemble des petites mains qui travaillent en coulisse pour faire fonctionner la société de l’information [89], c’est-à-dire « électroniser » des documents, collecter et nettoyer les données informatiques, celles des techniciens de la climatisation et qui parcourent inlassablement les couloirs des datacenters pour vérifier les faux positifs, ajuster, débrancher et rebrancher des serveurs à la demande de clients lointains.

64Les discours laudatifs – tout autant que les opinions critiques – quant à l’automatisation partagent presque toujours le fait de présenter son advenue non seulement comme réaliste, mais tout bonnement comme inéluctable. Or, une telle mythologie, aussi abstraite soit-elle, a des conséquences réelles : d’une part, le dressage des populations à une prétendue infériorité humaine face à l’efficacité supérieure des technologies – c’est-à-dire l’apprentissage progressif de la honte prométhéenne, au sens de Günther Anders (l’être humain, honteux de ses imperfections, en vient à se sentir inférieur aux machines censément parfaites [90]) – ; d’autre part, la transformation bien réelle du travail qui, loin de faire disparaître totalement l’être humain, le réduit en bout de chaîne à des tâches de plus en plus répétitives et dénuées de sens [91] (mobiliser à distance un opérateur in situ pour appuyer sur un bouton est facturé à l’unité dans certains datacenters). Il se pourrait d’ailleurs bien que ces recompositions du salariat ne soient pas étrangères à la rentabilité économique des infrastructures numériques.

Des indicateurs pour se rendre visible : sécurité et écologie

65En plus des démonstrations de la solidité protectrice de l’infrastructure, les visiteurs de datacenters se voient immanquablement présenter deux informations, répondant à deux « labels », visant à rendre compte des performances du bâtiment qu’ils visitent. Ces labels concernent la sécurité et l’écologie, c’est par eux que l’univers des datacenters rend son activité lisible aux clients, mais aussi aux organisations pouvant s’inquiéter de la consommation des infrastructures.

Rendre lisible la sécurité aux yeux des clients

66L’ensemble des contraintes et préoccupations liées à la sécurité se voit normalisé et explicité par un classement en différents tiers (« couches », en anglais) : le Tier I renvoie à une simple salle des machines avec ou sans climatiseur, là où le Tier IV correspond au nec plus ultra en matière de sécurité et de redondance des installations. Un datacenter Tier III est censé offrir contractuellement une continuité de service annuelle de l’ordre de 99.984 %. Dans cette configuration, on doit pouvoir gérer des périodes de maintenance sans impact sur la disponibilité des serveurs, bien qu’il soit théoriquement possible qu’adviennent des coupures en cas d’incidents importants (pas de redondance garantie sur la totalité de la chaîne). Le Tier IV est le plus haut niveau de garantie qu’un datacenter puisse offrir avec une disponibilité de 99.995 % (soit environ vingt-six minutes d’arrêt dans l’année : ce qui serait, aux yeux d’un commercial, « inadmissible pour [s]es clients »), et une redondance intégrale au niveau des circuits électriques, de refroidissement et du réseau. Cette architecture doit permettre de pallier les pires scénarios d’incidents techniques sans jamais interrompre la disponibilité des serveurs en place. Dans la pratique, le Tier IV implique des contraintes si coûteuses et élevées qu’elles ne sont nécessaires qu’en cas de besoins spécifiques, essentiellement dans le monde de la finance et des établissements bancaires. Officiellement, l’organisme en charge de la certification Tier est l’Institut Uptime[92], un consortium d’entreprises créé en 1993 dont l’objectif revendiqué est de maximiser l’efficacité des datacenters.

figure im10

Environnement et pollutions

67« Il faut que les gens le sachent, on est l’une des activités les plus polluantes au monde », nous apostrophe un commercial au téléphone à la veille de l’une de nos premières visites. Dès les prémices de la médiatisation du phénomène datacenter, la question environnementale a été dans la ligne de mire des opérateurs, conscients de leur vulnérabilité manifeste sur ce point.

68Le 17 juin 2014 à 21 h 35, la chaîne France 5 diffusait un documentaire intitulé Internet, la pollution cachée, contenant quelques séquences apocalyptiques de paysages quasi lunaires, désertifiés et ravagés par les besoins énergétiques des datacenters : plusieurs hébergeurs étasuniens, appartenant notamment aux GAFAM, se seraient installés en Virginie Occidentale afin de bénéficier du faible coût de l’électricité générée dans des centrales à charbon, puisant dans les ressources des Appalaches toutes proches via la technique dite du mountain-top removal mining – mines à déplacement de sommet en français. Cette stratégie d’exploitation consiste à écrêter (à l’acide ou à l’explosif) le sommet d’une montagne au niveau d’un gisement et à utiliser le foisonnement rocheux qui en est issu pour combler la vallée attenante, afin de pouvoir directement extraire le matériau convoité (ici le charbon) et le transporter à moindres frais vers son site d’exploitation [93].

69Malgré des chiffres qui montrent obstinément que la consommation de charbon n’a jamais cessé de croître des débuts de la révolution industrielle à nos jours [94], l’image d’internet reste trop souvent celle d’un réseau quasi éthéré (le « cloud », l’informatique dans les nuages), a priori peu associé à des centrales thermiques participant à la carbonification de l’atmosphère. La consommation énergétique mondiale – dont le charbon – (voir graphique p. 57) n’a cessé de croître au cours de l’ère industrielle.

70Quelles que soient les estimations, la pollution engendrée par le réseau des réseaux est considérée comme massive : une recherche sur Google générerait autant de dioxyde de carbone qu’une bouilloire électrique [95] ; si le Web était un pays, il serait le sixième pollueur au monde, affirme une étude menée par la Global e-Sustainability Initiative en 2015 [96] ; une intervenante lors d’une journée du groupe CNRS Eco-Info consacrée aux bonnes pratiques écologiques des « Edge datacenters » [97] affirme en introduction que ces infrastructures rejettent autant de dioxyde de carbone dans l’atmosphère que la flotte aérienne mondiale, c’est-à-dire l’équivalent d’environ trente centrales nucléaires.

Consommation énergétique mondiale (Mtep)

figure im11

Consommation énergétique mondiale (Mtep)

71Les problèmes de pollution et de consommation énergétique engendrés par les datacenters ont été rapidement identifiés par différents acteurs : en 2008, l’Union Européenne publie un Code de conduite européen relatif à l’efficacité énergétique des datacenters, qui présente les bonnes pratiques à mettre en œuvre pour diminuer la consommation électrique des infrastructures et propose aux signataires différentes modalités d’engagement, sur la base du volontariat. Les opérateurs et propriétaires peuvent donc s’engager à suivre partiellement ou totalement les pratiques mises en avant par le Code, ainsi qu’à rendre régulièrement des comptes quant aux démarches entreprises pour réduire leur consommation.

72Ce Code de bonne conduite est articulé à une initiative prise par les industriels du secteur eux-mêmes, dans l’objectif de communiquer sur leurs efforts écologiques. Cette initiative prend la forme d’un indicateur, le Power Usage Effectiveness (indicateur d’efficacité énergétique – souvent abrégé en PUE) créé en 2007 par The Green Grid[98]. C’est principalement cet indicateur que les signataires du Code de conduite européen utilisent lorsqu’ils doivent rendre des comptes sur leurs engagements. En 2010, un accord a été signé entre les membres du consortium et les autorités américaines, japonaises et européennes afin de normaliser le calcul de l’indicateur et d’en faire un outil de référence internationale [99]. La valeur numérique de l’indicateur correspond au ratio entre l’énergie totale consommée par le centre et l’énergie spécifiquement employée pour alimenter la partie IT, c’est-à-dire les ordinateurs. Autrement dit, un PUE égal à 1 signifie que la totalité de l’énergie du datacenter est utilisée par les systèmes informatiques, là où une valeur de 1.5 renvoie au fait qu’un tiers de l’énergie utilisée l’est pour les infrastructures non-IT. L’objectif avéré d’un gestionnaire est donc de diminuer le PUE, censé être l’indice d’un meilleur respect environnemental.

73D’emblée, ce qui frappe avec le calcul de cet indicateur est qu’il ne s’agit que d’une mesure relative, et non absolue : il ne renvoie pas directement aux conséquences écosystémiques réelles, mais au rapport entre deux consommations. On peut ainsi imaginer une situation fictive où des serveurs ne nécessitant ni climatisation ni système de sécurité recouvriraient la surface de la forêt amazonienne : le PUE serait égal à 1, sans pour autant qu’il ne soit l’indice d’un faible impact écologique [100].

74Ensuite, cet indicateur, comme toute mesure de ce type, est la résultante de choix et de compromis qui tendent à disparaître sous l’apparence d’objectivité du résultat numérique final. Si l’on observe le détail des préconisations en matière de calcul du PUE dans le rapport de référence réalisé par The Green Grid, il est conseillé de pondérer les différentes sources énergétiques de la façon suivante : électricité x 1, gaz naturel x 0.35, fioul x 0.35, eau courante chauffée x 0.4, eau courante refroidie x 0.4 – ces coefficients renvoient au taux de conversion moyen (indexé sur les pratiques courantes sur le sol étasunien) dans la production de ces différentes sources énergétiques par rapport à l’étalon qu’est l’électricité dans le secteur IT, et ne sont donc pas des moyennes absolues mais simplement des outils de comparaison estimés réalistes. Les coordinateurs du rapport – respectivement issus de Schneider Electric, Disney et Emerson Network Power – admettent d’ailleurs volontiers la part de commodité utilisée dans leurs tables de coefficients [101].

75Dans les faits, l’objectif d’un datacenter est d’afficher un PUE le plus proche possible de 1. Même s’il est à nouveau difficile d’obtenir des informations précises, puisque ces données sont elles aussi concurrentielles, des chiffres circulent néanmoins : 1.3 serait un « bon score », 1.7 une « marge acceptable », et un PUE de 2.1 est avoué du bout des lèvres, généralement suivi par une déclaration assurant que les innovations de l’année à venir devraient y remédier.

76Il faut d’ailleurs noter que la diminution du PUE n’est absolument pas incompatible avec une réduction des coûts de fonctionnement d’un datacenter, car bien souvent, les industriels eux-mêmes s’étaient déjà interrogés sur les moyens de réduire la facture de climatisation, habituellement pharaonique. D’où les nouveaux systèmes de refroidissement dits de « free cooling », qui mobilisent l’air extérieur, plus froid (si ce n’est durant d’éventuels épisodes caniculaires) afin de diminuer la température des salles IT. Une salle machine est bien souvent organisée en allées froides (où les serveurs puisent en entrée de l’air réfrigéré) et allées chaudes (où les machines rejettent en face arrière de la chaleur), afin de rassembler la climatisation en un minimum de points.

77Si ces améliorations permettent à la fois une réduction de la consommation énergétique en valeur absolue et une diminution du PUE, d’autres stratégies existent pour faire baisser la valeur de l’indicateur en « économisant » de l’énergie de façon relative. La plus courante consiste à récupérer la chaleur produite et à la revendre (ou la donner) à une tierce partie (serres agricoles, piscines municipales, etc.). Un ingénieur nous glisse néanmoins au cours d’un exposé que « souvent, le plus simple, c’est de jeter la chaleur », car le transport calorifique est loin d’être une affaire simple, ni nécessairement écologique. On voit désormais fleurir des entreprises sur le modèle de la reconversion calorifique de serveurs, comme Qarnot computing[102] qui propose d’installer des radiateurs « intelligents » chez des particuliers, ou Stimergy[103] qui passe contrat avec des copropriétés afin d’installer un système de préchauffage pour l’eau courante dans la cave d’un immeuble, grâce à des racks serveurs immergés dans une huile industrielle.

figure im12

78Les professionnels que nous avons rencontrés ne sont cependant pas tous convaincus de la réelle efficacité d’une amélioration du PUE par ce biais. Après nous avoir fait état d’une économie de 5 % dans la facture de chauffage d’un bâtiment public attenant, un ingénieur explique : « C’est ce qui nous permet d’afficher l’étiquette green. » Nous avons même assisté, au cours d’une journée d’étude consacrée aux bonnes pratiques à mettre en place dans les petits datacenters, à une controverse, cordiale mais ferme, entre plusieurs professionnels (« Y’a des gens qui mettent dans leur PUE la chaleur donnée aux autres, c’est de la triche »), révélant du même coup l’arbitraire de la construction et le « bricolage » nécessaire à la constitution d’un marqueur « scientifique », qui s’avère être avant tout un outil politique de gestion et de communication. Un salarié d’ATOS (entreprise du CAC40, leader européen du cloud, de la cybersécurité et du supercalcul) conclut la discussion en ces termes désabusés : « Le calcul, il est pas complètement objectif ».

Conclusion

79« On ne sait pas s’il est plus efficace de mutualiser ou de disperser », affirment certains professionnels. Pourtant, les datacenters sont un secteur industriel en pleine croissance. Le développement des applications sur smartphone, et notamment des jeux, nécessite des temps de réponse réseau très courts, et donc implique une proximité forte des lieux de stockage des données.

80Contrairement à une idée reçue, le numérique, même à la vitesse de l’électron, a un besoin crucial d’ancrage sur ses territoires d’implantation. Si certains sites jouent avec l’aspect « boîte noire », il n’en reste pas moins qu’il existe un hiatus réel entre nos appareils dotés d’applications conviviales et ces lieux fermés qui rendent possible leur exécution. On peut donc penser que la conséquence de ce cloisonnement entre ces deux univers, pourtant structurellement intriqués, est de purifier l’image du numérique contemporain. Pour le dire autrement, les datacenters rendent internet propre, en tenant à distance ce qui pourrait ternir son image. Réaction à chaud anecdotique et bien peu académique, mais qui témoigne néanmoins de cet impensé contemporain : une étudiante venue à l’une des visites de datacenters organisée par nos soins raconte qu’à sa sortie du lieu, elle n’a pas pu s’empêcher d’avoir mauvaise conscience en allumant son ordinateur – les images de cette titanesque production industrielle de puissance technologique, et son coût environnemental réel, la hantaient.

81Selon nous, cette dichotomie fondatrice radicalise l’un des phénomènes majeurs de l’histoire industrielle : la séparation entre espaces de production et de consommation. Comme le notaient les sociologues Matthieu Amiech et Julien Mattern lors du mouvement des retraites de mai-juin 2003 contre la loi dite Fillon [104], plus le fossé se creuse entre production et consommation, moins les populations sont en mesure d’influer sur leur devenir politique et économique. À mesure que les prothèses informatiques deviennent une extension constitutive de notre corps et de notre esprit, c’est-à-dire de notre rapport au monde, les structures matérielles conditionnant leur fonctionnement sont de moins en moins susceptibles d’être questionnées. Nous défendons le fait que la compréhension des réels rapports de force politiques contemporains doit dépasser les discours lénifiants sur internet-qui-favorise-la-communication-et-le-partage pour observer la constitution matérielle des structures sociales. De ce point de vue, les datacenters apparaissent davantage comme des lieux d’accumulation de puissance, calculatoire bien sûr, mais aussi économique, industrielle, et in fine politique. Si l’on définit la technologie comme accumulation de puissance sociale [105], on comprend alors que les datacenters en sont de formidables condensateurs, à tel point que leurs détenteurs (dont les fameux GAFAM) pourraient bien devenir les principaux acteurs politiques de notre futur proche.

82L’illusion de gain de temps, d’efficacité ou de progrès écologique rattachée au numérique ne peut perdurer qu’à condition de passer sous silence les nécessités premières de son fonctionnement. Et à mesure que l’immédiateté devient l’horizon quotidien de la condition humaine, la position stratégiquement structurante des datacenters ne pourra qu’être renforcée. En ce sens, ils constituent peut-être des accélérateurs de séparation, c’est-à-dire des producteurs d’impuissance politique.

Notes

  • [1]
    Les acteurs et actrices interviewés au cours de la recherche ont été anonymisés.
  • [2]
    Stephen Graham, « Excavating the material geographies of cybercities », in Stephen Graham (ed.), The Cybercities reader, Londres, Routledge, 2004, p. 138-142.
  • [3]
    Leny Patinaux et Sacha Loeve, « Cloud Computing : l’électronique dans les nuages », Alliage, no 72, 2013, p. 59-73 ; François Thoreau, « Data centers, métaphore du capitalisme », Politique, no 83, 2014, p. 66-73.
  • [4]
    Fabrice Flipo, Michelle Dobré et Marion Michot, La face cachée du numérique, Montreuil, L’Échappée, 2013 ; Mel Hogan, « Data flows and water woes : The Utah datacenter », Big Data & Society, vol. 2, no 2, 2015, p. 1-12.
  • [5]
    Julia Velkova, « Data that warms : Waste heat, infrastructural convergence and the computation traffic commodity », Big Data & Society, vol. 3, no 2, 2016, p. 1-10.
  • [6]
    Kazys Varnelis, « Towers of concentration, lines of growth », 2002, conférence disponible sur index.varnelis.net/articles/towers_of_concentration [consultée le 3 novembre 2017] ; Jennifer S. Evans-Cowley, Edward J. Malecki et Angela McIntee, « Planning Responses to Telecom Hotels : What Accounts for Increased Regulation of Co-location Facilities ? », Journal of Urban Technology, vol. 9, no 3, 2002, p. 1-18.
  • [7]
    Clément Jacquin, « Les services d’hébergement internet en France, » Netcom [en ligne], vol. 17, no 1-2, 2003, p. 23-44 ; Bruno Moriset, « Les forteresses de l’économie numérique. Des immeubles intelligents aux hôtels de télécommunications », Géocarrefour [en ligne], no 78 (4), 2003.
  • [8]
    Henry Bakis, « Les facteurs de localisation d’un nouveau type d’établissements tertiaires : les datacentres », Netcom, vol. 27, no 3-4, 2013.
  • [9]
    Nous ne référençons qu’une quinzaine d’articles en sciences humaines traitant spécifiquement d’un aspect au moins des datacenters. À titre d’exemple comparatif, la base de données scientifique Jstor [jstor.org] recense (au 18 novembre 2017) 6 389 références qui mentionnent l’expression « cloud computing » au moins une fois, 194335 pour « internet », 277 820 pour « big data », 289 640 pour « software », 376 160 pour « web » et… 113 pour « datacenter ».
  • [10]
  • [11]
    Pierre Mounier-Kuhn, Mémoires vives. 50 ans d’informatique chez BNP Paribas, Paris, BNP Paribas, 2013.
  • [12]
    Ibid., p. 107.
  • [13]
    Ibid., p. 106.
  • [14]
    Extrait de carnet de terrain, visite du 16 février 2017.
  • [15]
    Ibid.
  • [16]
    Renvoyant à Google, Amazon, Facebook, Apple et Microsoft, l’acronyme GAFAM désigne les plus grandes entreprises du numérique.
  • [17]
    Pour un récit plus détaillé, voir Bruno Moriset, op. cit.
  • [18]
    Cette typologie est reprise aux présentations des opérateurs et consultants en datacenters réalisées dans le cadre des rencontres professionnelles sur lesquelles nous revenons par la suite.
  • [19]
    Henry Bakis, « Les facteurs de localisation d’un nouveau type d’établissements tertiaires », art. cit.
  • [20]
    Visite accordée sous condition de confidentialité.
  • [21]
    Jennifer Evans-Cowley, Edward J. Malecki et Angela McIntee, « Planning Responses to Telecom Hotels », art. cit.
  • [22]
    Bruno Moriset, « Les forteresses de l’économie numérique », op. cit.
  • [23]
    Daniel Thépin et Olivier Paugam, « Les datacenters en Île-de-France, un essor sous contrainte ? », Note Rapide IAU-IDF, no 680, avril 2015.
  • [24]
    Kazys Varnelis, « Towers of concentration, lines of growth », 2002, conférence disponible sur index.varnelis.net/articles/towers_of_concentration [consulté le 3 novembre 2017].
  • [25]
    Susan Leigh Star, « The ethnography of infrastructure », American Behavioral Scientist, vol. 43, no 3, 1999, p. 377-391.
  • [26]
    Simon Marvin et Stephen Graham, Splintering urbanism, Londres, Routldege, 2001.
  • [27]
    Stephen Graham (ed.), Disrupted Cities : When Infrastructure Fails, NewYork, Routledge, 2010.
  • [28]
    Brian Larkin, « The politics and poetics of infrastructure », Annual Review of Anthropology, 2013, vol. 42, p. 327-343 ; Stephen Graham et Colin McFarlane (eds.), Infrastructural lives, New York, Routledge, 2015.
  • [29]
    Entretien avec Bernard, le 19 mai 2015.
  • [30]
    Voir les trois articles : Jade Lindgaard, « L’envers des datacenters », Mediapart, 5, 7 et 10 août 2014, mediapart.fr/journal/dossier/international/lenvers-des-data-centers [consulté le 20 novembre 2017].
  • [31]
    Entretien avec Thibaud, Directeur du développement économique de Plaine Commune, 26 juin 2015.
  • [32]
    « La pénurie d’énergie menace les datacenters », Le Parisien, 14 avril 2011.
  • [33]
    « Les “datacenters”, de vraies usines électriques », Le Monde, 7 juillet 2011 ; et « Centres de données numériques : l’ogre énergétique », Le Monde, 7 juillet 2011 ; Joanna présente ces articles lors des entretiens réalisés par Clément Marquet (15 mars 2015 et 8 avril 2016).
  • [34]
    « Précieuses données », En Commun, no 79, décembre 2011-janvier 2012, p. 7.
  • [35]
    Entretien avec Joanna, 13 mars 2015.
  • [36]
    Cette note est confidentielle, nous n’avons pas pu nous la procurer.
  • [37]
    ALEC, « Les data centers sur Plaine Commune », Note d’avis, août 2013.
  • [38]
    Entretien avec Thibaud, 26 juin 2015.
  • [39]
    Michel Bourgain, Vice-Président à l’écologie urbaine de Plaine Commune, PV du conseil communautaire, 25 juin 2013.
  • [40]
    À ce sujet, voir la troisième partie de l’article ainsi que Julia Velkova, « Data that warms », art. cit.
  • [41]
    Interxion est un fournisseur européen de services de datacenters de colocation.
  • [42]
    Extrait issu de Marylène Lenfant, « Les data centers dans le collimateur de Plaine Commune », Journal de Saint Denis, 21 novembre 2013.
  • [43]
    Entretien avec Thibaud à Plaine Commune, 26 juin 2015.
  • [44]
    Henry Bakis, « Les facteurs de localisation d’un nouveau type d’établissements tertiaires », art. cit.
  • [45]
    Entretien avec Jérémie, consultant senior Critical Building, 29 avril 2016.
  • [46]
    Michael Thad Allen et Gabrielle Hecht (eds.), Technologies of Power : Essays in Honor of Thomas Parke Hughes and Agatha Chipley Hughes, Cambridge (Mass.), MIT Press, 2001.
  • [47]
    « À l’horizon 2030, selon la direction régionale et interdépartementale de l’environnement et de l’énergie (DRIEE), les datacenters devraient représenter à eux seuls le quart de l’augmentation des besoins en énergie du Grand Paris, soit 1 000MW sur un total estimé entre 3 000MW et 4 000MW (+20 %). »
  • [48]
    Ministère de l’Économie et des Finances, Chiffres clés du numérique, 2016 : entreprises.gouv.fr/files/files/directions_services/etudes-et-statistiques/Chiffres_cles/Numerique/2016-Chiffres-cles-numerique.pdf [consulté le 18 mai 2017].
  • [49]
    « Gartner Says Worldwide IT Spending is Forecast to Grow 0.6 Percent in 2016 », Gartner.com, 18 janvier 2016, gartner.com/newsroom/id/3186517 [consulté le 18 mai 2017].
  • [50]
    Visite de datacenter en région parisienne, novembre 2014.
  • [51]
    « Paris dans le top 5 mondial pour les infrastructures d’hébergement internet », Zdnet.fr, 25 février 2017, zdnet.fr/blogs/infra-net/paris-dans-le-top-5-mondial-pour-les-infrastructures-d-hebergement-internet-39849000.htm [consulté le 18 mai 2017].
  • [52]
    « 8,6 millions de datacenters dans le monde en 2017 », HI !, hebergement-et-infrastructure.fr/actualites-et-innovations/8-6-millions-de-datacenters-dans-le-monde-en-2017 [consulté le 18 mai 2017] ; la plaquette commerciale de l’opérateur indique la répartition suivante de sa clientèle : 62,7 % sont des fournisseurs de cloud, 13,8 % sont dans le secteur des télécommunications, 10,8 % dans celui des banques et de la finance, 7,1 % concernent des activités liées à la santé, 3,6 % touche à l’énergie et 2 % les media et la communication.
  • [53]
    Régis Debray, Cours de médiologie générale, Paris, Gallimard, 2001 [1991].
  • [54]
    Jaron Lanier, You are not a gadget : A manifesto, New York, Knopf, 2010.
  • [55]
    Thomas P. Hughes, « Technological momentum in history : Hydrogenation in Germany, 1898-1933 », Past and Present, no 44, 1969, p. 106-132 ; id., « Technological momentum », in Merritt Roe Smith et Leo Marx (eds.), Does technology drive history ? The dilemma of technological determinism, Cambridge (Mass.), MIT Press, 1994, p. 101-113.En ligne
  • [56]
    Jeremy Rifkin, L’Âge de l’accès. La nouvelle culture du capitalisme, trad. de Marc Saint-Upéry, Paris, La Découverte, 2000.
  • [57]
    Bernard Benhamou, « Organiser l’architecture de l’internet », Esprit, no 324, 2006, p. 154-166.
  • [58]
    Parc des expositions, Paris, 23 mars 2017.
  • [59]
    Sur le cas d’école du chemin de fer en Inde entre 1845 et 1875, dont la main d’œuvre était à fournir par le gouvernement indien mais dont les bénéfices revenaient aux compagnies britanniques (avec garanties du gouvernement indien de rembourser les capitaux anglais en cas d’échec du projet), voir Daniel R. Headrick, The Tools of Empire : Technology and European Imperialism in the Nineteenth Century, New York/Oxford, Oxford University Press, 1981.
  • [60]
    Entretien avec Jérémie, consultant senior Critical Building, 29 avril 2016.
  • [61]
    Ibid.
  • [62]
    francedatacenter.com [consulté le 20 mai 2017].
  • [63]
    Communiqué de presse diffusé dans GS Mag et Le Monde Informatique.
  • [64]
    Jérôme Denis et Emmanuel Kessous (dir.), numéro thématique « Le travail ordinaire de la sécurité », Réseaux, no 172, 2012.
  • [65]
    « Le plus gros data-center d’Europe en chiffres et en photos », Korben.info, 30 septembre 2013, korben.info/le-plus-gros-data-center-deurope-en-chiffres-et-en-photos.html [consulté le 17 mai 2017].
  • [66]
    Cela soulève des questions de gouvernement politique et commercial que nous n’avons pu explorer pour l’instant. Pour un aperçu de l’importance du territoire d’implantation et du recours à des serveurs « offshore », voir Bruno Vétel, « Déviance en ligne. Enquête sur les serveurs illégaux de jeux vidéo », Terrains & travaux, no 22, 2013, p. 115-134.
  • [67]
    Marc Jacob, Emmanuelle Lamandé et Sylvie Sanchis, « Le phénomène des ransomwares explose littéralement », Global Security Mag, no 36, 2016, p. 10-11.
  • [68]
    « Une attaque informatique de portée mondiale crée la panique », Pixels/Le Monde, 12 mai 2017, lemonde.fr/pixels/article/2017/05/12/des-hopitaux-anglais-perturbes-par-un-rancongiciel_5127034_4408996.html [consulté le 17 mai 2017].
  • [69]
    Alain Clapaud, « Les pièges du ransomware », Solutions IT, no 13, p. 22.
  • [70]
    Cette anecdote nous ayant été racontée à plusieurs reprises par des interlocuteurs différents, ses variantes sont nombreuses : tantôt il s’agit d’un tiers des machines impactées, tantôt de la totalité, etc. Il semblerait donc qu’il s’agisse d’une histoire édifiante du milieu – une rumeur au sens d’Edgar Morin (La Rumeur d’Orléans, Paris, Seuil, 1969) – dont la fonction est de combler un blanc de l’imaginaire du métier, faisant état du fait qu’il faut non seulement tester les dispositifs de sécurité, mais aussi tester les tests eux-mêmes : trop de prudence tue la prudence, à moins d’être plus prudent encore !
  • [71]
    Jérôme Denis, « L’informatique et sa sécurité. Le souci de la fragilité technique », Réseaux, no 171, p. 161-187.
  • [72]
    Thomas P. Hughes, American genesis : A century of invention and technological enthusiasm, 1870-1970, New York, Penguin, 1989 ; id., Networks of power : Electrification in Western society, 1880-1930, Baltimore, Johns Hopkins University Press, 1993 ; David Hounshell, « DuPont and the management of large-scale research and development », in Peter Galison et Bruce Hevly (eds.), Big Science : The growth of large-scale research, Stanford, Stanford University Press, 1992, p. 236-261.
  • [73]
    Daniel Thépin et Olivier Paugam, « Les datacenters en Île-de-France, un essor sous contrainte ? », art. cit.
  • [74]
    Afin de préserver l’anonymat des acteurs interrogés, nous avons choisi de masculiniser toutes les références des citations mobilisées dans cet article.
  • [75]
    Voir l’offre sur l’IUT de Reims-Châlons-Charleville : iut-rcc.fr/Infos-diplome-35-Reseaux-et-Telecommunications-Presentation [consulté le 16 mai 2017].
  • [76]
    « La virtualisation consiste à faire fonctionner un ou plusieurs systèmes d’exploitation/ applications comme un simple logiciel, sur un ou plusieurs ordinateurs-serveurs/système d’exploitation, au lieu de ne pouvoir en installer qu’un seul par machine. » Notice « Virtualisation », Wikipédia, fr.wikipedia.org/wiki/Virtualisation [consultée le 16 mai 2017].
  • [77]
    Entretien avec Roxane, 4 octobre 2016.
  • [78]
    Christophe Dejours, Le Facteur humain, Paris, Presses universitaires de France, 2014.
  • [79]
    Sur l’utopie d’une technique par nature étrangère aux dysfonctionnements, voir notamment Jean-Baptiste Fressoz, L’apocalypse joyeuse. Une histoire du risque technologique, Paris, Seuil, 2012, chap. 6 : « La Mécanique de la faute ».
  • [80]
    Un autre intervenant martelait le chiffre plus marquant encore de 90 % : de là à imaginer qu’il s’agit surtout d’un discours performatif, bien peu fondé sur des chiffres réels et mobilisant des ordres de grandeur visant à convaincre (deux tiers, neuf dixièmes, etc.), il n’y a qu’un pas.
  • [81]
    Richard Sennett, Ce que sait la main. La culture de l’artisanat, trad. de Pierre-Emmanuel Dauzat, Paris, Albin Michel, 2009.
  • [82]
    Pour un autre exemple de savoir-faire incorporé relatif à la réparation informatique, voir Blanca Callén, « Donner une seconde vie aux déchets électroniques. Économies informelles et innovation sociotechnique par les marges », Techniques & culture, no 65-66, 2016, p. 206-219.
  • [83]
    Pour un florilège de cette mythologie, voir notamment l’anthologie réalisée par François Jarrige, « Face au luddisme : quelques interprétations », in Cédric Biagini et Guillaume Carnino (dir.), Les Luddites en France. Résistances à l’industrialisation et à l’informatisation, Montreuil, L’Échappée, 2010, p. 287-334.
  • [84]
    Pour une version enchantée, voir par exemple le rapport du McKinsey Global Institute, Disruptive technologies : Advances that will transform life, business and the global economy, 2013, p. 42-43. Pour une approche plus critique, mais relevant de la même posture de sidération devant les discours technologiques, voir Bernard Stiegler, La Société automatique, Paris, Fayard, 2015 ou Carl Benedikt Frey et Michael A. Osborne, The Future of employment : How susceptible are jobs to computerization ?, 2013, oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf [consulté le 22 mai 2017].
  • [85]
    travaux.ovh.net/?do=details&id=28247 [consulté le 14 novembre 2017].
  • [86]
    travaux.ovh.net/?do=details&id=28244&edit=yep [consulté le 14 novembre 2017].
  • [87]
    Mathilde Blézat, « Nourrir l’algorithme. Témoignage d’un télétravailleur de Google », Z. Revue itinérante d’enquête et de critique sociale, no 9, 2016, p. 78-79.
  • [88]
    « Sur Amazon Turk, les forçats du clic », Pixels/Le Monde, 22 mai 2017, lemonde.fr/pixels/article/2017/05/22/les-damnes-de-la-toile_5131443_4408996.html [consulté le 22 mai 2017].
  • [89]
    Jérôme Denis et David Pontille (dir.), numéro thématique « Travailleurs de l’écrit, matières de l’information », Revue d’anthropologie des connaissances, vol. 5, no 1, 2012 ; Dominique Cardon et Antonio Casilli, Qu’est-ce que le digital labor ?, Paris, INA, 2015 ; Jérôme Denis et Samuel Goeta, « Rawification an the careful generation of open government data », Social Studies of Science, vol. 47, no 5, 2017, p. 604-629.
  • [90]
    Günther Anders, L’obsolescence de l’homme, trad. de Christophe David, Paris, EdN/ Ivréa, 2002 [1956], chap. « Sur la honte prométhéenne », p. 37-115.
  • [91]
    David Noble, Forces of production : A social history of industrial automation, New York, Knopf, 1984.
  • [92]
    uptimeinstitute.com. La mise au jour de l’histoire de ce groupement d’intérêts (parfois surnommé « The Global datacenter Authority ») constituerait un chantier à part entière, en l’état difficile.
  • [93]
    L’association Ingénieurs sans frontières – Systèmes extractifs (ISF-SystExt) alerte régulièrement quant aux impacts sociaux et environnementaux de la mine à l’international, par exemple en raison de ces techniques de déplacement de sommet. On consultera avec profit l’analyse détaillée que l’association a effectué des minéraux nécessaires à la production des smartphones : isf-systext.fr/node/968.
  • [94]
    Voir par exemple Jean-Claude Debeir, Jean-Paul Déléage et Daniel Hémery, Une histoire de l’énergie, Paris, Flammarion, 2013.
  • [95]
    « Google Disputes Harvard Fellow’s Pollution Estimate », PCWorld, 12 janvier 2009, pcworld.com/article/156893/article.html [consulté le 20 mai 2017].
  • [96]
    Gary Cook (Greenpeace), Clicking Clean : A Guide to Building the Green Internet, mai 2015, p. 5 : greenpeace.org/usa/wp-content/uploads/legacy/Global/usa/planet3/PDFs/2015ClickingClean.pdf [consulté le 17 novembre 2017]
  • [97]
    « Edge Datacenters au cœur des services numériques de demain », Campus de Jussieu, Paris, 16 mars 2017.
  • [98]
    thegreengrid.org [consulté le 20 mai 2017].
  • [99]
    « Le “Power Usage Effectiveness”, mesure désormais de référence pour l’efficacité énergétique des “data centers” », La Tribune, 8 avril 2010.
  • [100]
    Cette fiction n’est pas si délirante, dans la mesure où l’arrivée de la 5G implique un maillage total du territoire et pousse à l’installation de micro-datacenters (des baies précâblées) partout, à tel point qu’un responsable de France Datacenter s’interroge quant à une possible association avec l’Église catholique afin de bénéficier des innombrables sites d’implantation des églises pour y installer les machines.
  • [101]
    « The source energy weighting factor is inherently a regional factor because the amount of fuel needed to produce one unit of electricity (or chilled water) will depend on the predominant method of electricity (or chilled water) generation in the specific country. » Victor Avelar (Schneider Electric), Dan Azevedo (Disney) et Alan French (Emerson Network Power), PUE™, a comprehensive examination of the metrics, 2012, p. 32.
  • [102]
    qarnot.com/fr/qrad [consulté le 20 mai 2017].
  • [103]
    stimergy.com/fr [consulté le 20 mai 2017].
  • [104]
    Matthieu Amiech et Julien Mattern, Le cauchemar de Don Quichotte. Sur l’impuissance de la jeunesse d’aujourd’hui, Paris, Climats, 2004.
  • [105]
    Cédric Biagini et Guillaume Carnino, « On arrête parfois le progrès », in Les Luddites en France, op. cit., p. 5-59.
Mis en ligne sur Cairn.info le 13/02/2018
https://doi.org/10.3917/zil.003.0019
Pour citer cet article
Distribution électronique Cairn.info pour Éditions du Croquant © Éditions du Croquant. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...