> Cloud > Administration à distance au cœur des infrastructures virtuelles

Administration à distance au cœur des infrastructures virtuelles

Cloud - Par Sabine Terrey - Publié le 23 juillet 2013
email

Comment appréhender l’administration à distance au sein des infrastructures virtuelles ? Stéphane Berthaud, directeur Avant-Vente de Veeam, nous livre sa réflexion sur le sujet.

Administration à distance au cœur des infrastructures virtuelles

Deux problématiques : administration des infrastructures vs administration des données

Deux périmètres à appréhender deux façons différentes et qui évoquent évidemment divers éléments à prendre en compte. En effet, l’administration à distance, passe, d’une part, par l’administration des systèmes eux-mêmes (pour la virtualisation : administration, gestion des hyperviseurs, des machines et réseaux virtuels sur sites distants), mais aussi, par l’administration des données (dans le cloud, sur un site distant, chez un hébergeur).

Des problématiques bien différentes que Veeam aborde complètement, à travers son logiciel phare de sauvegarde et réplication d’infrastructures virtualisées (pour la gestion des données sur site distant) et une suite logicielle Veeam One (pour la gestion d’infrastructures virtuelles avec la supervision et le reporting).

La gestion des données sur site distant  se réalise ainsi au travers de Veeam Backup & Replication, d’un point de vue sécurisation des données. Dès qu’on fait face à une problématique de sites distants et d’administration à distance des données, s’en suivent les problématiques d’administration et de disponibilité de ressources  compétentes sur place, les problématiques de connexion inter-sites (passées par des fournisseurs d’accès, équipementiers réseaux).

L’approche et les techniques

La meilleure approche est ensuite d’utiliser des outils qui prennent en compte toutes ces problématiques. Pour Stéphane Berthaud, l’idée est de se baser sur une architecture distribuée qui permet d’avoir une console ‘chef d’orchestre’ centrale et unique, et des rôles déployés sur des sites distants pour gérer à la fois des politiques d’administration centralisée en positionnant les données sur les sites distants ou en utilisant des mécanismes de centralisation des données.

« Cette architecture souple permet de savoir où on positionne les données et où on positionne leur sauvegarde, leur sécurisation et leur réplication » souligne Stéphane Berthaud. L’intérêt est de mixer cette administration centralisée et la localisation des données elles-mêmes. De  ce  fait, il s’agit de bien séparer les flux de contrôle d’administration et les flux des données.

Par exemple, pour les réseaux de franchisés, cette problématique est fréquente et récurrente. Si les équipes informatiques sont hébergées de façon centrale (proche du datacenter), les données et  systèmes sont déployés sur sites distants (aucun personnel compétent sur site). Les équipes situées en central doivent donc gérer ces données distantes, les sécuriser, les répliquer et les sauvegarder localement, et  de mettre en place des protections du site distant vers le site central.

Très souvent, il s’agit d’une combinaison des deux approches, protection locale sur site distant et restauration locale lancée depuis le site central, avec en parallèle, une centralisation des données de tous ces sites pour se prémunir d’une perte complète du site. La protection centralisée permet de remettre en service la totalité de l’infrastructure sur le site distant (par exemple, sont envisagées une protection et réplication locale quotidienne du site central et une sauvegarde locale quotidienne distante réacheminée vers le site central).

L’avantage est l’utilisation des dernières technologies de déduplication et de compression pour minimiser la quantité de données transférée à chaque passe. En effet, il faut transférer le moins de données possibles pour pouvoir s’accommoder de liens avec une faible bande passante, des latences importantes, ou un manque de fiabilité de la ligne parfois indisponible. « La  tolérance à la perte de connexion est nécessaire » ajoute Stéphane Berthaud. « Pour ce transfert, la totalité des données est bien prise en compte, puis de façon incrémentale, on récupère les nouveaux blocs qu’on déduplique, on compresse et on renvoie au travers du lien vers le site central ». L’utilisation du réseau est ainsi très faible.

Dans le cas d’une réplication d’un site distant vers le site central, on peut amorcer cette réplication vers le site central en s’appuyant sur les templates (machine qui a servi de source au déploiement des serveurs virtuels sur sites distants), en se basant sur leurs ‘équivalents’,  et en ne transférant que la différence entre les deux machines. Le reste des réplications se faisant de façon incrémentale. Ces techniques permettent de limiter le transfert de données.

Sécurité maximale et simplicité assurée

D’un point de vue infrastructure, le point faible est la liaison inter-sites. Aussi, un cryptage de la communication est proposé entre les sites. Sur le site central et les sites distants, la problématique de sécurité repose sur les outils fournis nativement par les applications et par les systèmes d’exploitation. Veeam intervient ensuite sur le transit des données et les mécanismes de reprise des données en cas d’échec de transfert.

Un aspect important de cette administration à distance est de minimiser les tâches d’administration pour les administrateurs situés en central, et de pouvoir déployer à distance des produits, « c’est ce qui fait la force de Veeam » insiste Stéphane Berthaud. La technologie étant sans agent, il n’y a donc pas de logiciel particulier à déployer sur les sites distants et aucune intervention particulière, ni administration spécifique à faire sur place. Même chose pour les mises à jour ! La console centrale est mise à jour, puis vérifie au démarrage suivant les niveaux des relais sur les sites distants et les met à jour si besoin. « Tout se gère dans la console centrale, il n’y a quasiment pas de connexions à faire sur les sites distants » conclut Stéphane Berthaud. Aucun temps de latence avec des liens réseaux faibles, puisque le travail se réalise avec la partie centralisée, et le tout en temps réel. Et d’ajouter « on assiste finalement à une absence de perte de temps ! ».

Téléchargez cette ressource

Les mégatendances cybersécurité et cyber protection 2024

Les mégatendances cybersécurité et cyber protection 2024

L'évolution du paysage des menaces et les conséquences sur votre infrastructure, vos outils de contrôles de sécurité IT existants. EPP, XDR, EDR, IA, découvrez la synthèse des conseils et recommandations à appliquer dans votre organisation.

Cloud - Par Sabine Terrey - Publié le 23 juillet 2013