ENTREPRISES & STRATÉGIES
TECHNOLOGIES

Infrastructures informatiques

Plongée dans un data center



edh.jpg

Labellisé Tier IV, le data center d'EDH répond à des exigences de construction très précises. (Photo: EDH)

Lancé mi-septembre, CMD.solutions, nouvel acteur du cloud visant les PME, a choisi d’héberger ses services dans le data center de European Data Hub (EDH), situé au sous-sol du complexe Drosbach, sur 15.000 m2. Visite guidée d’un des quelques centres labellisés Tier IV du Luxembourg. 

En se reposant sur l’infrastructure de EDH, CMD.solutions, partie intégrante du groupe Wagner aux côtés de CTTL, vient de proposer une nouvelle ligne de solutions cloud clés en main à destination des PME, de l’e-mail au stockage, en passant par la téléphonie. Cette nouvelle gamme de produits est entièrement sécurisée aussi bien au niveau des applications qu’au niveau des systèmes de production. Naturellement, le data center de la Cloche d’Or, choisi pour héberger cette gamme de services, est l’un des maillons forts du nouvel acteur. «La véritable valeur ajoutée d’un centre de données, quelle que soit sa catégorie, est la manière dont il est opéré. Ce sont la qualité et la rigueur absolue des méthodes mises en place pour opérer le site qui font la vraie différence», introduit Patrice Roy, directeur d’EDH.

La vraie valeur ajoutée d’un centre de données est la manière dont il est opéré.

Patrice Roy, directeur d’EDH

Étendu sur une surface de 15.000 m2, dont 5.500 m2 de salles informatiques réparties sur trois étages souterrains, le centre de Drosbach dispose du précieux label Tier IV, soit le gage de sécurité et de redondance les plus élevées dans l’échelle de classification du secteur. Pour l’obtenir, il faut attester d'une architecture entièrement dédoublée. L'Uptime Institute, un consortium d'entreprises créé en 1993 pour maximiser l'efficacité des centres de données, recommande, en outre, pour une telle classification, de ne pas dépasser les 26 minutes d’interruption de service sur une période de cinq ans.

«Notre objectif, à nous, est de conserver nos 100% de disponibilité du service sur chacune de nos deux chaînes de production, que nous garantissons à tous nos clients depuis notre lancement, au-delà donc des guidances du marché.» Le site, qui fonctionne 24h/24 et 7j/7, est accrédité d’une impressionnante palette de certifications et a été, dans plusieurs secteurs, pionnier à Luxembourg.

Coffre-fort sécurisé

Construit à 20 mètres sous terre, le centre de données est opéré par Johnson Controls, spécialiste américain de la gestion opérationnelle et de la maintenance de data centers et opérateur à travers le monde de sites appartenant à Google, Microsoft, IBM, HP, etc. L’accès du site est en outre strictement contrôlé.

«Le nombre de personnes présentes sur le site, que ce soit pour accéder aux salles informatiques ou pour la maintenance dans les salles techniques, est connu, contrôlé en permanence et en temps réel et auditable à tout moment. Tout est monitoré, répertorié, du CV d’un technicien de maintenance à l’heure de sa visite, de la durée d’une prestation au type d’intervention, laquelle a, bien entendu, été analysée en détails et validée au préalable», pointe Patrice Roy.

Nous nous devons de choisir les meilleurs fournisseurs pour chaque ligne de métier.

Patrice Roy, directeur d’EDH

Pour assurer une qualité de service irréprochable, les prestataires qui font, au quotidien, la maintenance du site répondent donc à un cahier des charges extrêmement précis. «Notre rôle est d’être un aggrégateur et nous nous devons de choisir tant au niveau local qu’au niveau international les meilleurs fournisseurs pour chaque ligne de métier, mais aussi de contrôler et de valider qu’au fil du temps, ces partenaires restent les meilleurs experts du marché», ajoute Patrick Roy. C’est Johnson Controls qui se charge d’auditer ces sociétés expertes obligées d’opérer selon des méthodes extrêmement rigoureuses, lesquelles ont été accréditées par l’Uptime Institute, une situation unique en Europe ! «Le risque zéro n’existe pas, mais nous essayons de tout prévoir, de tout anticiper. Dans le même ordre d’idée, nous formons nos collaborateurs en continu afin qu’ils sachent comment réagir en cas d’urgence pour prendre les bonnes décisions et surtout ne jamais céder à la panique.»

«State of the art», il assure donc une redondance complète. Ainsi, pour limiter tout risque d’interruption de service et pallier les éventuelles coupures de courant du réseau de la ville, toute l’infrastructure a été dédoublée. Un feed A labellisé en rouge et un feed B en bleu assurent en permanence une alimentation en électricité et en eau glacée pour assurer le bon fonctionnement des systèmes informatiques et techniques. «On pourrait, à tout moment, perdre un feed sans pour autant qu’aucun des services ne soit impacté, puisque chacun des deux feeds peut supporter la charge complète de tout le data center. Nous testons bien sûr ces scenarii, mais à ce jour, une telle situation n’est jamais arrivée en production. C’est l’aboutissement de nos efforts et méthodes. L’informatique en effet ne supporte aucune microcoupure. Le courant doit impérativement être garanti à tout moment. Quelques secondes d’interruption nécessitant de redémarrer une salle peuvent causer des dégâts à hauteur de plusieurs centaines de milliers d’euros, voire bien plus. Depuis nos débuts, je suis fier de dire que nous n’avons pas perdu une seconde de service sur chacun de nos deux feeds.»

Température sous contrôle

La structure technique de chaque salle a été pensée pour prévenir toute variation de température due à un changement de conditions climatiques extérieures ou à une variation de la charge informatique. Sur le plan électrique, des salles dédiées abritent plusieurs modules de batteries pour chaque feed, lesquels sont sollicités en cas de panne du réseau urbain et garantissent une autonomie d’une vingtaine de minutes. «En cas de problème, les générateurs peuvent atteindre leur pleine puissance en quelque 8 secondes. Chaque module de batteries produit environ un million de watts, soit l’équivalent de la consommation électrique de quelque 500 maisons au Luxembourg, pour avoir une idée de ce que ça représente.»

Autre espace important, la salle souterraine des cuves de fuel d’une contenance globale de 100.000 litres. «Leur rôle est d’alimenter les générateurs en carburant lorsque ceux-ci sont testés ou lorsqu’ils sont utilisés en cas de défaillance du réseau urbain. L’installation des deux cuves posées en sous-sol leur permet de garder sur l’année une température constante de 12 degrés, ce qui garantit une qualité de fuel parfaite quelle que soit la saison, contrairement à des cuves qui sont soumises aux contraintes climatiques.» Dans la même logique de limitation des risques, ce sont deux fournisseurs différents qui les remplissent à des intervalles différents et selon des protocoles extrêmement stricts.

Une particularité du site réside dans le fait que les générateurs sont installés dans le sous-sol du centre, sur des socles de béton qui absorbent l’intégralité des vibrations structurelles lorsque ceux-ci fonctionnent, protégeant par la même occasion dans les salles informatiques tous les connecteurs de fibres optiques qui ne supportent pas les vibrations répétées.

Cœur du data center: les multiples salles des serveurs maintenues à bonne température grâce à un faux plancher qui pulse l’air glacé produit par les unités de refroidissement installées en périphérie. L’air chaud est ensuite récupéré par le plafond. De l’autre côté de la chaîne, pour assurer le refroidissement de l’eau, des compresseurs, soit des sortes de grands réfrigérateurs, ont la tâche de refroidir l’eau qui circule dans les armoires de refroidissement. «Ces réseaux d’alimentation en eau glacée sont organisés, là aussi, par feed. De plus, tout a été conçu pour, qu’en cas d’inondation due à la rupture d’un circuit de distribution d’eau glacée, les salles informatiques ne soient jamais impactées. Des bassins de récupération de l’eau sont prévus pour un tel scenario, même s’il est très improbable.» Un système de pompes sophistiqué permettrait de vider très rapidement ces espaces de récupération. Nécessitant un budget très important, le data center de Drosbach devrait être rentabilisé sur une période de 10 ans.