> Cloud > Guide de Virtualisation : Bien choisir ses serveurs

Guide de Virtualisation : Bien choisir ses serveurs

Cloud - Par Cédric Georgeot - Publié le 06 février 2012
email

Le marché de la virtualisation est en plein essor depuis quelques années maintenant et les gains ne sont plus à démontrer, mais paradoxalement beaucoup d’entreprises n’ont pas encore franchi le pas. Que ce soit par manque de connaissances, de budget ou de volonté, les économies réalisées en consommation électrique justifient à elles seules l’adoption d’une solution de virtualisation qui sera rapidement amortie. Ce dossier est issu de notre publication IT Pro Magazine

En premier lieu lorsque l’on parle de virtualisation, il convient de lutter contre certaines idées reçues. Le meilleur exemple est l’usage des ressources processeurs. Souvent, lorsqu’un administrateur se connecte sur un serveur et voit son utilisation processeur à 60%, celui-ci se dit qu’il y a un problème ! Au contraire, le processeur du serveur travaille et il lui reste au moins 30% de ressources disponibles. La virtualisation de serveurs signifie en premier lieu une amélioration de la consolidation.

La plupart du temps, en environnement physique, on s’aperçoit que chaque serveur exécute seulement un rôle précis alors qu’il dispose de suffisamment de ressources pour exécuter d’autres rôles, il en résulte que les coûts d’administration et de maintenance sont très élevés. En consolidant beaucoup de serveurs virtuels sur un hôte physique, celui-ci peut devenir un SPOF (Single Point Of Failure) s’il n’est pas sécurisé ou redondé.

En fonction de la criticité des données, différents moyens devront être mis en œuvre, pour se prémunir d’une perte de données mais également pour prévoir une continuité de l’activité. Enormément de paramètres impactent directement les performances, chaque application étant unique de par ses caractéristiques, il convient de déterminer la meilleure combinaison de paramètres pour obtenir les meilleures performances.

Par exemple, l’une de ces combinaisons consiste à minimiser les opérations mécaniques (temps d’accès) sur chaque disque dur pour avoir la meilleure performance de transfert.

Bien choisir ses serveurs

La forme produit (Form Factor) est une donnée importante à ne pas négliger et désigne le format du serveur : tour, rack, hauteur 1U ou 4U, … Nous allons retrouver trois familles de forme: les serveurs classiques rackables, les serveurs modulaires (également appelés blades) et les serveurs Twin.

En choisissant des serveurs classiques, selon la hauteur exprimée en unité U (généralement 1 ou 2U de hauteur), le nombre de disques durs internes et le nombre de slots disponibles peut varier sensiblement. Notre choix se portera le plus souvent sur la disponibilité de slots de type PCI-Express pour y connecter des cartes fibres optiques et réseaux. Il n’est pas rare de trouver dans des centres de données (Datacenter) des serveurs avec 10 cartes réseaux Ethernet et des ports fibre optique.

Les serveurs modulaires peuvent être un choix judicieux car le taux de consolidation est très élevé dans un espace U minimal, l’administration est simplifiée et le coût de possession (TCO) bas. Certains constructeurs embarquent 14 lames (serveur de type blade) dotées de deux processeurs six cœurs pour obtenir un total de 168 cœurs physiques dans un espace de 7U.

Initialement proposé pour des applications de calculs intensifs, les serveurs Twin embarquent dans un même châssis jusqu’à 4 cartes mères biprocesseurs distinctes pour obtenir 96 cœurs physiques dans un espace de 2U de hauteur soit potentiellement 288 machines virtuelles ! Malheureusement avec une telle densité, les slots d’extension disponibles seront réduits au minimum.

Le choix du processeur est primordial dans les environnements virtuels dans le but d’obtenir une consolidation optimale de votre infrastructure. Premier élément à prendre en compte, le type du réseau de stockage employé fibre optique (FC) ou iSCSI. Ce dernier peut consommer jusqu’à 20% du processeur uniquement pour traiter les flux iSCSI (de l’ordre de 5% en réel). Le tableau ci-dessous permet de dimensionner le nombre de processeurs :

Utilisation CPU Nombre de VM par coeur (sans HT) Hyper Threading à activer
< 10/15 % 3 à 5 Possible mais gain insignifiant
< 25/30 % 3 maximum NON
> 30 % Prise en compte particulière NON

Pour le calcul basique des besoins en processeurs pour une infrastructure virtuelle, appliquez la formule en respectant l’exemple suivant: 10 serveurs cadencés 1 GHz = 10 GHz soit 5 cœurs à 2 GHz. Pour affiner les besoins réels en processeurs, et suite à une analyse, vous devez cumuler les pics d’utilisation CPU. Ainsi un processeur cadencé à 2 GHz ayant au maximum des pics d’utilisation de 15% donne un usage réel de 300 Mhz, ajoutez à cela une marge de l’ordre des 30%.

Certaines études ont démontrées qu’une élévation de la fréquence du processeur permet d’obtenir un faible gain de performances pour une consommation électrique largement supérieure. En revanche, l’ajout de cœurs physiques d’une fréquence inférieure apporte de bien meilleures performances pour une consommation électrique à peine supérieure. Il convient de privilégier des processeurs d’une fréquence de milieu de gamme mais embarquant le plus de cœurs possible. Si votre choix se porte sur les processeurs ayant une fréquence de fonctionnement élevée, privilégiez alors ceux qui disposent d’une mémoire cache de niveau L2/L3 la plus importante possible.

Pour aller plus loin sur le thème de la virtualisation des serveurs avec @itprofr

Dossier Virtualisation : Tout savoir sur RDP et RemoteFX · iTPro.fr

Téléchargez cette ressource

Préparer l’entreprise aux technologies interconnectées

Préparer l’entreprise aux technologies interconnectées

Avec la « quatrième révolution industrielle », les environnements hyperconnectés entraînent de nouveaux risques en matière de sécurité. Découvrez, dans ce guide Kaspersky, comment faire face à cette nouvelle ère de vulnérabilité.

Cloud - Par Cédric Georgeot - Publié le 06 février 2012