Les éditeurs de logiciels ou constructeurs de matériels informatiques intègrent de manière quasi-systématique des technologies natives de sauvegarde à leurs solutions.
Editeurs de logiciels, une brique n’est pas un mur
Et c’est cette tendance que les éditeurs de logiciels et constructeurs de matériels informatiques ont compris, motivant ainsi l’intégration de briques technologiques natives au coeur même de leurs créations. Certaines baies de stockage possèdent un système de snapshot pré-paramétré (un modèle notamment proposé par NetApp) permettant ainsi une réplication sur une deuxième salle informatique.
C’est également le cas pour certains éditeurs de logiciels (comme Microsoft avec Exchange) qui préconisent la mise en place de plusieurs architectures logicielles pour favoriser la réplication des données sauvegardées par clichés instantanés. L’intégration de ces technologies est une très bonne chose en soi. Cependant, le discours les accompagnant l’est un peu moins : ces outils permettraient de remplacer un système de sauvegarde à part entière. Or, les snapshots et leur réplication ne sont que des compléments de la sauvegarde et ne répondent pas aux mêmes enjeux :
La fédération des données
En plus d’une réponse aux enjeux d’harmonisation des données, la création d’un référentiel permet aux entreprises d’avoir une meilleure visibilité sur les données sauvegardées et de les trier par criticité selon leur activité. Ce regroupement a donc pour but de mieux gérer le cycle de vie des informations sauvegardées.
La gouvernance des données
Il s’agit ici de maîtriser les données sauvegardées quelle que soit la technologie utilisée et de définir une politique pour chaque typologie de données. En reprenant l’exemple du snapshot, si celui-ci est intégré à un système de sauvegarde plus large, la gouvernance consiste à définir leur durée de rétention (combien de temps les données doivent-elles être gardées ?) et leur fréquence (combien de clichés par jour ?). Plus largement, il est aussi question de contrôle de la pérennité des informations, notamment via le choix du support sur lequel elles seront conservées (disque, bandes, cloud). C’est-à-dire ne pas être limité à un constructeur en particulier pour des soucis de compatibilité. Les entreprises qui utilisent les snapshots de leur baie de stockage comme unique moyen de sauvegarde sont généralement contraintes de rester avec le même constructeur pour garantir la rétrocompatibilité des données sauvegardées.
La capacité de restauration
Si les technologies de sauvegarde natives des logiciels ou matériels permettent d’effectuer une restauration granulaire, celle-ci n’est valable que pour les fichiers générés par ces logiciels ou stockés sur les machines concernés. Certains connecteurs permettent effectivement de garantir des snapshots cohérents sur des bases de données en plus des fichiers, mais ils ne permettent pas d’effectuer de restauration granulaire. En cas de perte d’une donnée, il faut donc restaurer l’intégralité du dernier snapshot et rechercher l’information perdue. A contrario, un système de sauvegarde permet de s’affranchir de ces contraintes et de ne pas se limiter sur les capacités de restauration en termes de données (fichiers, bases de données, e-mails…) et de volume (restauration complète, partielle, granulaire…).
Faciliter la reprise d’activité
Cet enjeu est une résultante des points évoqués précédemment. Qu’il s’agisse de la fédération des données, de leur gouvernance ou d’une capacité accrue de restauration, ces éléments constituent des facteurs clés en termes de reprise d’activité. Mais la mise en place d’un outil de sauvegarde centralisé permet aussi de simplifier la gestion d’un Plan de Reprise d’Activité (PRA) et offre la possibilité de mettre en place des procédures de restauration pour s’aligner avec les besoins métiers d’une entreprise et guider l’homme à s’acquitter de ses tâches. Autrement dit, adopter une méthode de restauration pour l’ensemble du système d’information plutôt qu’une méthode par technologie.
Téléchargez cette ressource
Guide de Threat Intelligence contextuelle
Ce guide facilitera l’adoption d’une Threat Intelligence - renseignement sur les cybermenaces, cyberintelligence - adaptée au "contexte", il fournit des indicateurs de performance clés (KPI) pour progresser d' une posture défensive vers une approche centrée sur l’anticipation stratégique
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Tendances 2026 : l’IA devra prouver sa rentabilité
- L’identité numérique : clé de voûte de la résilience et de la performance en 2026
- CES 2026 : l’IA physique et la robotique redéfinissent le futur
- Les 6 tournants qui redéfinissent l’IA en entreprise
Articles les + lus
CES 2026 : l’IA physique et la robotique redéfinissent le futur
Les 3 prédictions 2026 pour Java
Semi-conducteurs : comment l’Irlande veut contribuer à atténuer la pénurie mondiale de puces
Face à l’urgence écologique, l’IT doit faire sa révolution
D’ici 2030, jusqu’à 90 % du code pourrait être écrit par l’IA, pour les jeunes développeurs, l’aventure ne fait que commencer
À la une de la chaîne Tech
- CES 2026 : l’IA physique et la robotique redéfinissent le futur
- Les 3 prédictions 2026 pour Java
- Semi-conducteurs : comment l’Irlande veut contribuer à atténuer la pénurie mondiale de puces
- Face à l’urgence écologique, l’IT doit faire sa révolution
- D’ici 2030, jusqu’à 90 % du code pourrait être écrit par l’IA, pour les jeunes développeurs, l’aventure ne fait que commencer
