Depuis plusieurs mois maintenant, on constate que la virtualisation est au cœur de la plupart des projets d'implémentation et de refonte des systèmes d'information.
Migration vers un environnement virtualisé : entre mythe et réalité
Avec en ligne de mire les économies induites par la consolidation des systèmes et la souplesse offerte par la virtualisation, les considérations d’implémentation de l’infrastructure virtuelle sont souvent mal considérées ou sous-évaluées lorsque vient le moment de définir l’architecture.
On observe ainsi deux familles de caractéristiques appelant à implémenter une infrastructure virtualisée :
• La consolidation qui va permettre de bénéficier d’économies sur l’infrastructure matérielle en hébergeant un nombre important de systèmes sur un nombre limité de serveurs.
• La souplesse d’administration permettant une abstraction des systèmes avec les composants matériels qui les hébergent et ouvrant ainsi à une large gamme de logiciels, des scénarios de déplacements, haute disponibilité, sauvegardes, mises à jour, … des machines virtuelles.
Il ne faut donc pas se laisser bercer par les légendes urbaines ou les sirènes des commerciaux avant-vente prônant la consolidation à tout va et enchaînant promesse sur promesse sur les futures économies substantielles qui vont être faites. Aussi, il faut garder à l’esprit les réalités terrain propres aux spécificités de l’entreprise et aux applicatifs qui sont utilisés. La consolidation des machines a ainsi ses limites et il est courant que les éditeurs de solutions de virtualisation recommandent un ratio proche de 1 Cpu virtuel pour 1 cœur physique et une réservation de la mémoire, afin de garantir des performances optimales. Or, ce constat arrive en opposition des promesses précédemment entendues car les factures s’en trouvent au final alourdies. Surcoût principalement lié aux licences de l’infrastructure de virtualisation. Ce résultat est donc difficile à justifier auprès de la direction.
Pour déterminer l’architecture optimale, il est important d’évaluer le niveau de décrochage des performances de l’infrastructure. Pour ce faire, le besoin réel en ressources, des applications doit être mesuré afin de garantir leur fonctionnement dans des conditions idéales. Cette phase d’évaluation prend du temps, nécessite des ressources et une expérience significative sur le comportement des applications virtualisées. Jérémie L’Orphelin, Ingénieur stockage et virtualisation, témoigne : « Les processus permettant le dimensionnement des systèmes virtualisés au sein des entreprises ne prennent pas assez souvent en compte les capacités sous-jacentes des infrastructures virtualisées (hyperviseur, réseau, stockage, …).
Les esprits sont encore focalisés sur les capacités matérielles plutôt que sur les besoins applicatifs. Il est courant d’appliquer les préconisations des éditeurs sans une réévaluation liée à l’architecture cible. On constate aussi quotidiennement que des machines virtuelles sont surdimensionnées car on a gardé à l’esprit les réflexes inhérents à l’achat de matériel où il était nécessaire d’anticiper les besoins futurs très tôt dans le projet. Il était, en effet, souvent complexe de faire évoluer les capacités matérielles des machines à posteriori ». La souplesse d’administration est, elle aussi, mise à défaut par la gestion quotidienne de l’infrastructure virtuelle.
Certes, nous allons pouvoir « basculer à chaud » nos machines virtuelles d’un hôte physique à l’autre pour garantir la disponibilité des systèmes. Par contre, on devra redémarrer les machines virtuelles pour mettre à jour les composants d’intégration liée à la plateforme virtualisée lors de l’application de correctifs ou de montée de version sur les hyperviseurs… Dans ce sens, Microsoft vient d’annoncer le déploiement des futures versions de ses composants d’intégration via Windows Update, permettant d’homogénéiser le processus avec les mises à jour système.
Téléchargez cette ressource
Plan de sécurité Microsoft 365
Les attaquants savent comment prendre le contrôle de votre tenant Microsoft 365, et vous, savez-vous comment le reprendre en main ?
Les articles les plus consultés
- Activer la mise en veille prolongée dans Windows 10
- N° 2 : Il faut supporter des langues multiples dans SharePoint Portal Server
- Une baie de stockage c’est quoi ?
- Cybersécurité Active Directory et les attaques de nouvelle génération
- Partager vos images, vidéos, musique et imprimante avec le Groupe résidentiel
Les plus consultés sur iTPro.fr
- Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
- L’intelligence de « l’innovation actionnable » pour anticiper les disruptions plutôt que les subir
- Stratégie de cyber résilience : la France en avance sur la prise de conscience mais en retard sur les moyens
- Pourquoi Shopify Plus s’impose dans la transformation du e-commerce B2B
Articles les + lus
Analyse Patch Tuesday Mars 2026
Confiance et curiosité : les clés pour entrer (et grandir) en tant que femme dans la tech
Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
Pourquoi Shopify Plus s’impose dans la transformation du e-commerce B2B
Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA
À la une de la chaîne Tech
- Analyse Patch Tuesday Mars 2026
- Confiance et curiosité : les clés pour entrer (et grandir) en tant que femme dans la tech
- Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
- Pourquoi Shopify Plus s’impose dans la transformation du e-commerce B2B
- Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA
