Ce mois-ci, revenons aux origines de la virtualisation ! Pourquoi la virtualisation a-t-elle intégrée toutes les strates de nos systèmes informatiques ? Est-ce un eldorado technologique ? Est-ce un argument marketing magique qui peut s'appliquer à tout et qui permet de tout vendre ? La réponse se trouve entre ces deux extrêmes et c'est ce que je vais présenter dans le présent billet.
La virtualisation … Pourquoi ? Comment ?

Si on en revient aux origines, ce qui a participé à l’expansion et à l’adoption massive de l’informatique vient en partie de la capacité offerte à tous de pouvoir participer à son amélioration. Naturellement, cette contribution prend différentes formes selon les capacités, l’imagination ou la vision de chacun.
Or, lorsqu’une population de plus en plus large participe et apporte sa fonctionnalité, son périphérique, son logiciel, … la complexité induite rend la compatibilité entre ces composants de plus en plus difficile. L’équilibre nécessaire est fragile pour que tout ce petit monde cohabite sans que cela soit au détriment de la fiabilité ou des performances générales du système les accueillant.
La virtualisation … Pourquoi ? Comment ?
Le résultat est notre incapacité à gérer les systèmes de plus en plus complexes auxquels nous sommes confrontés. En effet, la nature des architectures que nous manipulons quotidiennement ne facilitent ni l’installation, ni la maintenance ou le dépannage. Aussi, il n’est plus possible à notre époque d’envisager d’installer tous les composants dont nous avons besoin sur un seul système d’exploitation. Et ceci même s’il dispose de suffisamment de ressources brutes pour permettre d’exécuter l’ensemble. Cet ensemble est perçu comme un vrai château de cartes et on en arrive à se dire « Tant que ca marche, je n’y touche pas ! ».
La solution est la segmentation, ce que nous offre la virtualisation
Pour cela, on crée une couche d’abstraction permettant de contrôler l’accès aux ressources quel que soit le niveau dans l’architecture du système. La virtualisation permet d’obtenir potentiellement plusieurs processus mémoire, plusieurs bases de registre et plusieurs systèmes d’exploitation fonctionnant en parallèle sur nos serveurs et dans nos SI.
Cela permet à une nouvelle population de collaborateurs de manipuler les composants de l’infrastructure avec une plus grande souplesse et une plus grande liberté car sans agir directement sur la configuration des composants.
On manipule maintenant des conteneurs virtuels: Je veux supprimer un programme qui ne répond plus ? Je supprime le processus (donc la mémoire et l’espace de swap du disque) liée à l’application. Je veux déplacer mon système d’exploitation car mon serveur ne démarre plus ? Je déplace la machine virtuelle (donc le disque virtuel et sa configuration) sur un autre serveur.
À ce jour, le concept de virtualisation est donc profondément ancré dans nos systèmes informatiques et continuera à s’étendre … À l’évidence, l’avenir est prometteur pour les spécialistes de la virtualisation.
Téléchargez cette ressource

État des lieux de la réponse à incident de cybersécurité
Les experts de Palo Alto Networks, Unit 42 et Forrester Research livrent dans ce webinaire exclusif leurs éclairages et stratégies en matière de réponses aux incidents. Bénéficiez d'un panorama complet du paysage actuel de la réponse aux incidents et de sa relation avec la continuité de l'activité, des défis auxquels font face les entreprises et des tendances majeures qui modèlent ce domaine. Un état des lieux précieux pour les décideurs et professionnels IT.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- La modernisation IT : entre priorités des dirigeants et défis
- Les technologies à la demande en plein essor !
- Comment le Cloud peut répondre aux défis du secteur de la santé en Europe
- Cloud : 37 % des entreprises françaises sécurisent les données trop tard
- Les banques passent à l’action avec l’IA générative et le cloud
