par Herts Chen - Mis en ligne le 28/04/2003
C'est un formidable défi que de
copier une grande quantité de données
sur plusieurs serveurs. Les utilitaires
de copie de SQL Server - parmi
eux, bcp (bulk copy program), DTS
(Data Transformation Services) et la réplication
instantanée - peuvent imposer
un temps de copie inacceptable
dans beaucoup d'environnements de production.Après avoir expérimenté
ces utilitaires, j'ai élaboré un moyen
d'optimiser la performance d'une
grosse réplication instantanée afin d'atteindre
des niveaux acceptables dans
un contexte d'exploitation réaliste.
Dans l'article « Ouvrez la voie à la réplication
snapshot à grande échelle », octobre
2002, j'ai analysé la performance
de la réplication instantanée, repéré
les goulets d'étranglement, et suggéré
un moyen de les éliminer en personnalisant
les étapes de la réplication.
Personnalisez votre réplication instantanée à la main

Dans cet article, je détaille la mise
en oeuvre complète des étapes personnalisées.
Vous allez configurer les
étapes manuellement au moyen
d’Enterprise Manager et utiliser T-SQL,
une procédure stockée à distance, et
SQL-DMO (SQL Distributed Management
Objects) dans un objet COM
custom pour personnaliser les étapes.
Pour confirmer l’analyse mathématique
du premier article, j’inclus des résultats
de test qui confirment que l’on
peut améliorer nettement la performance
de la réplication instantanée
quand on optimise la réplication en
personnalisant ses étapes.
Téléchargez cette ressource

Rapport mondial 2025 sur la réponse à incident
Dans ce nouveau rapport, les experts de Palo Alto Networks, Unit 42 livrent la synthèse des attaques ayant le plus impacté l'activité des entreprises au niveau mondial. Quel est visage actuel de la réponse aux incidents ? Quelles sont les tendances majeures qui redessinent le champ des menaces ? Quels sont les défis auxquels doivent faire face les entreprises ? Découvrez les top priorités des équipes de sécurité en 2025.
Les articles les plus consultés
- Les projets d’intégration augmentent la charge de travail des services IT
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Databricks lève 1 milliard de dollars !
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- L’utilisation des données pour survivre !
Les plus consultés sur iTPro.fr
- De la 5G à la 6G : la France se positionne pour dominer les réseaux du futur
- Datanexions, acteur clé de la transformation numérique data-centric
- Les PME attendent un meilleur accès aux données d’émissions de la part des fournisseurs
- Fraude & IA : Dr Jekyll vs. Mr Hyde, qui l’emporte ?
- Gestion du cycle de vie des outils de cyberdéfense : un levier de performance pour les entreprises
Sur le même sujet

10 grandes tendances Business Intelligence

La blockchain en pratique

Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises

Les projets d’intégration augmentent la charge de travail des services IT

ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
