A l’heure actuelle SF et IT ont chacun leurs certifications : HA (High-Availability) pour l’IT, Leed (Leadership in Energy and Environmental Design) et Tier pour le SF. « On entend fréquemment des clients nous dire que leur Data Center est Tier 3. C’est qui est totalement faux. Quand on
Certifications et logiciels pour un Data Center Dynamique

parle de Data Center Tier 3, il s’agit du bâtiment, et c’est une grosse différence. Le SF va dire que le site est Tier 4 et l’IT va dire qu’ils ont une disponibilité de 99,99 %. Sauf que dans le Data Center, parce qu’il manque un refroidisseur, il n’y a pas de redondance. Il peut alors tout arriver au building et à l’informatique sans conséquences importantes, mais s’il y a un problème de refroidissement, tout s’arrête ».
Dans cette optique, IBM tente de mettre en place de nouvelles certifications propres au Data Center dans son ensemble. Le Data Center du futur sera d’ailleurs le building en lui-même. Alors qu’aujourd’hui les centres de traitement des données sont installés dans les immeubles existants et disposant de l’espace nécessaire, la vision défendue par IBM voudrait qu’on construise un bâtiment qui serait le Data Center.
Un accompagnement logiciel est en outre prévu pour venir en aide à ce nouveau rôle de corrélateur défendu par Big Blue. Là encore, deux mondes se côtoient sans se rencontrer. Le SF utilise des logiciels GTC (Gestion Technique Centralisée) pour la gestion des bâtiments. L’IT utilise des sondes, entre 2 et 4 par serveurs, qui indiquent la température, le taux d’utilisation des processeurs ou de la mémoire, soit une supervision de type Tivoli. « Dans le Data Center du futur, on aura une corrélation entre les données supervision et GTC, avec le logiciel Maximo ».
L’objectif étant, à terme, d’arriver à un Data Center Dynamique, capable de basculer les charges de travail d’une machine à une autre pour n’utiliser que le nombre de serveurs strictement nécessaire. Et une fois encore, une centralisation des informations apparaît indispensable, afin que le refroidissement soit adapté en même temps que l’extinction d’un serveur. « Si le côté SF n’est pas au courant, 60 % de la salle va travailler, et 100 % du refroidissement sera envoyé. Il faut que, quand on demande à migrer une application sur un autre machine, on puisse aussi demander aux refroidisseurs de s’éteindre ou d’envoyer moins d’air ».
L’espace, seul et unique problème
Si l’on en croit les explications d’IBM, il ne subsiste aujourd’hui plus qu’un seul et unique problème dans les Data Centers, celui de l’espace. Mais ce dernier peut être perçu différemment selon le professionnel auquel on s’adresse. « Un IT ne voit qu’une chose : les mètres carrés. Son problème est qu’il veut rajouter un serveur et qu’il n’a plus de place. L’expert en refroidissement lui, va se demander si pour ce nouveau serveur, il dispose des BTU (British thermal unit, volume d’air) nécessaires. Enfin, l’électricien regardera s’il a une alimentation suffisante dans cet espace ».
Le dernier paramètre à prendre en compte dans cette notion d’espace est peut être celui auquel on pense le moins à l’heure actuelle, le poids, alors que la majorité des Data Centers ont été installés au sein de bâtiments existants pas toujours prévus pour supporter des infrastructures aussi lourdes. « Prenons un Data Center de 100m², supportant 50 tonnes d’équipement, et disposant d’une alimentation de 100kW. Imaginons qu’on arrive à mettre 50 tonnes de matériel dans une boîte à chaussures. Cette boîte consomme 60kW en alimentation et 40 kW en refroidissement. Si vous allez voir l’IT, ils pourraient très bien mettre un nouveau serveur à côté, alors qu’en termes de poids et d’alimentation, il n’y a plus de place ». Et Jean-Michel Rodriguez de conclure : « Tout est un problème d’espace ».
Téléchargez cette ressource

Rapport Forrester sur les services de réponse aux incidents de cybersécurité
Dans ce rapport, basé sur 25 critères, Forrester Consulting passe au crible les 14 principaux fournisseurs de services de réponse aux incidents de cybersécurité du marché. Cette analyse complète permet aux professionnels de la sécurité et de la gestion des risques d’évaluer et de sélectionner les solutions les plus adaptées à leurs besoins.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Souveraineté numérique : après les mots, place aux actes
- La cybersécurité, c’est le rôle de tous !
- DORA : quels impacts après les six premiers mois de mise en conformité sur le terrain ?
- Cybersécurité : le secteur de la santé toujours au défi de la sécurité des e-mails
- Attaque Microsoft SharePoint, analyse et recommandations
