> Tech > Migration vers un environnement virtualisé : entre mythe et réalité

Migration vers un environnement virtualisé : entre mythe et réalité

Tech - Par Loïc Thobois - Publié le 13 avril 2015
email

Depuis plusieurs mois maintenant, on constate que la virtualisation est au cœur de la plupart des projets d'implémentation et de refonte des systèmes d'information.

Migration vers un environnement virtualisé : entre mythe et réalité

Avec en ligne de mire les économies induites par la consolidation des systèmes et la souplesse offerte par la virtualisation, les considérations d’implémentation de l’infrastructure virtuelle sont souvent mal considérées ou sous-évaluées lorsque vient le moment de définir l’architecture.

On observe ainsi deux familles de caractéristiques appelant à implémenter une infrastructure virtualisée :

La consolidation qui va permettre de bénéficier d’économies sur l’infrastructure matérielle en hébergeant un nombre important de systèmes sur un nombre limité de serveurs.

La souplesse d’administration permettant une abstraction des systèmes avec les composants matériels qui les hébergent et ouvrant ainsi à une large gamme de logiciels, des scénarios de déplacements, haute disponibilité, sauvegardes, mises à jour, … des machines virtuelles.

Il ne faut donc pas se laisser bercer par les légendes urbaines ou les sirènes des commerciaux avant-vente prônant la consolidation à tout va et enchaînant promesse sur promesse sur les futures économies substantielles qui vont être faites. Aussi, il faut garder à l’esprit les réalités terrain propres aux spécificités de l’entreprise et aux applicatifs qui sont utilisés. La consolidation des machines a ainsi ses limites et il est courant que les éditeurs de solutions de virtualisation recommandent un ratio proche de 1 Cpu virtuel pour 1 cœur physique et une réservation de la mémoire, afin de garantir des performances optimales. Or, ce constat arrive en opposition des promesses précédemment entendues car les factures s’en trouvent au final alourdies. Surcoût principalement lié aux licences de l’infrastructure de virtualisation. Ce résultat est donc difficile à justifier auprès de la direction.

Pour déterminer l’architecture optimale, il est important d’évaluer le niveau de décrochage des performances de l’infrastructure. Pour ce faire, le besoin réel en ressources, des applications doit être mesuré afin de garantir leur fonctionnement dans des conditions idéales. Cette phase d’évaluation prend du temps, nécessite des ressources et une expérience significative sur le comportement des applications virtualisées.  Jérémie L’Orphelin, Ingénieur stockage et virtualisation, témoigne : « Les processus permettant le dimensionnement des systèmes virtualisés au sein des entreprises ne prennent pas assez souvent en compte les capacités sous-jacentes des infrastructures virtualisées (hyperviseur, réseau, stockage, …). 

Les esprits sont encore focalisés sur les capacités matérielles plutôt que sur les besoins applicatifs. Il est courant d’appliquer les préconisations des éditeurs sans une réévaluation liée à l’architecture cible. On constate aussi quotidiennement que des machines virtuelles sont surdimensionnées car on a gardé à l’esprit les réflexes inhérents à l’achat de matériel où il était nécessaire d’anticiper les besoins futurs très tôt dans le projet. Il était, en effet, souvent complexe de faire évoluer les capacités matérielles des machines à posteriori ». La souplesse d’administration est, elle aussi, mise à défaut par la gestion quotidienne de l’infrastructure virtuelle.

Certes, nous allons pouvoir « basculer à chaud » nos machines virtuelles d’un hôte physique à l’autre pour garantir la disponibilité des systèmes. Par contre, on devra redémarrer les machines virtuelles pour mettre à jour les composants d’intégration liée à la plateforme virtualisée lors de l’application de correctifs ou de montée de version sur les hyperviseurs… Dans ce sens, Microsoft vient d’annoncer le déploiement des futures versions de ses composants d’intégration via Windows Update, permettant d’homogénéiser le processus avec les mises à jour système.

Téléchargez cette ressource

Préparer l’entreprise aux technologies interconnectées

Préparer l’entreprise aux technologies interconnectées

Avec la « quatrième révolution industrielle », les environnements hyperconnectés entraînent de nouveaux risques en matière de sécurité. Découvrez, dans ce guide Kaspersky, comment faire face à cette nouvelle ère de vulnérabilité.

Tech - Par Loïc Thobois - Publié le 13 avril 2015