> Enjeux IT > Deja 15 ans de virtualisation

Deja 15 ans de virtualisation

Enjeux IT - Par Loïc Thobois - Publié le 04 juillet 2016
email

C'est en 2001 qu'est sorti VMware GSX Server 1.0 et VMware ESX Server 1.0...

Deja 15 ans de virtualisation

Pour beaucoup c’était le produit qui allait changer la vision de l’infrastructure informatique comme on la connaissait à l’époque. 

Je vous propose cette rétrospective de l’univers de la virtualisation (on ne peut plus parler de petit monde à ce niveau), permettant d’apprécier le chemin parcouru, l’état actuel des choses et les perspectives futures.

Même s’ils ont gagné leurs lettres de noblesse avec la virtualisation de machine, les concepts liés à la virtualisation ont toujours accompagné l’évolution de l’informatique telle qu’on la connaît pour offrir plus de sécurité, de fiabilité et de souplesse aux services informatiques.

La virtualisation intègre toutes les strates de nos systèmes informatiques et n’est plus considérée comme un argument marketing magique qui permet de tout vendre… La définition qui me semble la plus adaptée aux différentes formes que prend la virtualisation serait « Couche d’abstraction permettant de contrôler l’accès aux ressources quel que soit le niveau dans l’architecture du systéme. »

L’objectif étant toujours d’offrir plus de maîtrise et de simplicité aux administrateurs, voici le constat que je publiais pour mon second billet sur la virtualisation il y a quelques temps maintenant et qui me semble toujours d’actualité… « Si on en revient aux origines, ce qui a participé à l’expansion et à l’adoption massive de l’informatique vient en partie de la capacité offerte à tous de pouvoir participer à son amélioration.

Naturellement cette contribution prend différentes formes selon les capacités, l’imagination ou la vision de chacun. Or, lorsqu’une population de plus en plus large participe et apporte sa fonctionnalité, son périphérique, son logiciel, … la complexité induite rend la compatibilité entre ces composants de plus en plus difficile. L’équilibre nécessaire est fragile pour que tout ce petit monde cohabite sans que cela soit au détriment de la fiabilité ou des performances générales du système les accueillant. Le résultat est notre incapacité à gérer les systèmes de plus en plus complexes auxquels nous sommes confrontés. En effet, la nature des architectures que nous manipulons quotidiennement ne facilite ni l’installation, ni la maintenance ou les dépannages.

Aussi, il n’est plus possible à notre époque d’envisager d’installer tous les composants dont nous avons besoin sur un seul système d’exploitation. Et ceci, même s’il dispose de suffisamment de ressources brutes pour permettre d’exécuter l’ensemble. Cet ensemble est perçu comme un vrai château de cartes et on en arrive à se dire : tant que ça marche, je n’y touche pas ! ». Pour se simplifier la vie, de nombreuses technologies sont maintenant disponibles selon les besoins et usages et on peut les associer à plusieurs catégories.

(((IMG8418)))

Virtualisation de la présentation

Les services de Bureau à distance (Terminal Services, XenApp, …) : Basé sur l’architecture multi-utilisateurs de Windows, le système d’exploitation permet la création de sessions virtuelles reprenant les autorisations des utilisateurs qui se sont connectés.

Il est ainsi possible de stocker dans la mémoire d’un seul ordinateur, plusieurs instances d’un mРme produit mais exécutées selon des contextes de sécurité propres aux utilisateurs qui les ont lancées. L’affichage est ensuite déporté via un protocole spécifique (RDP, ICA, …).

Virtualisation des serveurs

Les hyperviseurs serveurs (Hyper-V, VMware ESX, XenServer, ….) : l’hyperviseur se présente sous la forme d’un composant bas niveau du système d’exploitation qui s’exécute souvent dans le noyau pour offrir de meilleures performances et permettre de virtualiser un système d’exploitation complet. Ainsi, le rôle de l’hyperviseur est de contrôler et de répartir de manière optimale toutes les demandes de ressources matérielles faites par les systèmes d’exploitation clients.

Virtualisation du poste de travail

Virtualisation sur le poste de travail (VMware Workstation, Virtual Box, Hyper-V) : Les logiciels de virtualisation de poste de travail utilisent les mêmes concepts de virtualisation que les hyperviseurs mais avec un objectif bien différent. En effet, ils ont pour rôle d’améliorer la compatibilité des applications par rapport aux systèmes d’exploitation ou d’offrir des plateformes de test. Ils sont moins performants que les hyperviseurs serveurs car ils s’exécutent sous la forme d’une application standard sans privilège d’accés aux ressources car ils doivent passer par les composants et couches du système d’exploitation principal. Virtual Desktop Infrastructure – VDI (XenDesktop, VMware Horizon, Microsoft, …) : Les solutions de VDI permettent un meilleur contrôle de la gestion du cycle de vie des postes de travail en utilisant les technologies et infrastructures de virtualisation des serveurs. Il est ainsi possible de centraliser et automatiser la mise à disposition des postes clients et offrir aux utilisateurs un accès personnalisé ou temporaire à un environnement dédié. L’utilisateur aura alors accès à une machine virtuelle hébergée sur un hyperviseur qui lui sera dédié.

Virtualisation des applications

Virtualisation des applications clientes (App-V, ThinApp, Spoon, …) : L’infrastructure permet d’isoler les applications du système d’exploitation par l’intermédiaire d’une bulle virtuelle qui va virtualiser l’accès à la base de registre, aux systèmes de fichiers, aux services, aux composants, … Ainsi, les applications accèdent à un système d’exploitation et à une base de registre virtualisée qui l’empêche de détériorer le système et de rentrer en conflit avec d’autres applications (Ex : Word 2003 et Word 2016 peuvent cohabiter sur un même système). Virtualisation des applications serveurs (Docker, Conteneurs Windows, …) : L’idée de base est de créer des conteneurs applicatifs permettant de faciliter le dОploiement des applications sur les serveurs en limitant l’adhérence entre les conteneurs. Le gestionnaire de conteneurs va s’exécuter sur un système d’exploitation et va exploiter les applications packagées dans des conteneurs. Les conteneurs intègrent donc l’application, les prérequis de ces applications (middleware, bibliothèques, …) et éventuellement la configuration initiale. Actuellement, l’implémentation de Docker s’appuie sur des librairies Linux et son déploiement sur Windows ou Mac OS X passe par des machines virtuelles déployées par l’assistant d’installation de Docker. Cela va bientôt changer avec Windows Server 2016 qui va intégrer son propre système de gestion de conteneurs…

Virtualisation de l’environnement

Profils utilisateurs (Profils Windows) : Les profils utilisateurs ont été popularisés par les systèmes d’exploitation multi-utilisateurs afin de permettre d’isoler la configuration de chaque utilisateur à son compte. C’est en particulier la ruchede registre HK_CURRENT_ USER qui sera spécifique à chaque profil mais aussi le bureau, les favoris, …

Profils applicatifs (UE-V) : UE-V offre aux utilisateurs une expérience unifiée quel que soit l’environnement de l’utilisateur. Il est ainsi capable de synchroniser les paramètres de l’environnement et des applications entre une session Windows 7, Bureau à distance, VDI ou Windows 8. UE-V a pour objectif de virtualiser l’environnement applicatif lancé par l’utilisateur en stockant et chargeant les paramètres de l’application à chaque ouverture et fermeture de celle-ci. Par exemple, si vous lancez une application comme Word sur votre station Windows 7, que vous personnalisez les paramètres de Word puis que vous le fermez, lorsque vous allez de nouveau ouvrir Word à partir d’un bureau à distance, d’une tablette Windows 8 ou autres, les paramètres de personnalisation de Word seront pris en compte automatiquement. Ceci sans avoir eu besoin d’ouvrir ou de fermer la moindre session utilisateur.

Virtualisation de l’infrastructure

Virtualisation de stockage (VHD, VHDX) : Bénéficiant de l’homogénéisation des formats de stockage, les formats de disques virtuels deviennent un standard de gestion des données. Des technologies comme le Boot VHD, Cluster Shared Volume, … permettent de définir les caractéristiques de stockage et de sécurité (système de fichiers, taille des partitions, ACL, chiffrement…) dans un fichier pour en faciliter le déplacement.

Virtualisation réseau : Les bénéfices de la virtualisation réseau sont multiples et permettent de rationaliser son infrastructure pour lui offrir un niveau d’administration logique plutôt que physique. Même si on ne peut pas totalement s’affranchir de la prise en compte et de l’optimisation de la couche matérielle composée des routeurs, commutateurs et autres parefeu physiques, il est maintenant possible de mettre en place de façon logicielle sa configuration réseau et ainsi automatiser les opérations via des scripts ou des outils d’orchestration. Cet avantage facilite notamment les déploiements des infrastructures de type cloud privé et des infrastructures d’hébergement. Dans le panel de solutions disponibles que nous avons pu découvrir ensemble dans ces lignes tout au long de ces 15 dernières années, difficile de ne pas trouver son bonheur. Je suis impatient de voir ce qui aura survécu dans 15 ans et quelles seront les nouvelles technologies «à la mode» avec lesquelles nous pourrons construire nos infrastructures… Rendez-vous dans 15 ans.

Téléchargez gratuitement cette ressource

Les 6 bonnes pratiques sur la protection des données

Les 6 bonnes pratiques sur la protection des données

Nouveau Guide thématique à l’intention des Directions informatiques. La Datasphere mondiale représente 40 Zo de données créées, dupliquées et enregistrées chaque année. La gestion et le stockage des données deviennent d’autant plus critiques que leur volumétrie ne cesse de croître et d’ici 2025, ce chiffre aura quadruplé. Découvrez dans ce nouveau guide les meilleures recommandations pour survivre dans l’univers de l’Infinite Data.

Enjeux IT - Par Loïc Thobois - Publié le 04 juillet 2016