par Herts Chen - Mis en ligne le 28/04/2003
C'est un formidable défi que de
copier une grande quantité de données
sur plusieurs serveurs. Les utilitaires
de copie de SQL Server - parmi
eux, bcp (bulk copy program), DTS
(Data Transformation Services) et la réplication
instantanée - peuvent imposer
un temps de copie inacceptable
dans beaucoup d'environnements de production.Après avoir expérimenté
ces utilitaires, j'ai élaboré un moyen
d'optimiser la performance d'une
grosse réplication instantanée afin d'atteindre
des niveaux acceptables dans
un contexte d'exploitation réaliste.
Dans l'article « Ouvrez la voie à la réplication
snapshot à grande échelle », octobre
2002, j'ai analysé la performance
de la réplication instantanée, repéré
les goulets d'étranglement, et suggéré
un moyen de les éliminer en personnalisant
les étapes de la réplication.
Personnalisez votre réplication instantanée à la main
Dans cet article, je détaille la mise
en oeuvre complète des étapes personnalisées.
Vous allez configurer les
étapes manuellement au moyen
d’Enterprise Manager et utiliser T-SQL,
une procédure stockée à distance, et
SQL-DMO (SQL Distributed Management
Objects) dans un objet COM
custom pour personnaliser les étapes.
Pour confirmer l’analyse mathématique
du premier article, j’inclus des résultats
de test qui confirment que l’on
peut améliorer nettement la performance
de la réplication instantanée
quand on optimise la réplication en
personnalisant ses étapes.
Téléchargez cette ressource
10 tendances clés de l’Expérience Client (CX) 2025
Dans le contexte actuel, l'expérience client est un levier clé de réussite. Pour rester compétitives, les entreprises doivent adopter des stratégies CX audacieuses, en s'appuyant sur le cloud, le digital et l'IA. Alors quelles stratégies mettre en place pour garder une longueur d’avance ?
Les articles les plus consultés
- Dark Web : où sont vos données dérobées ?
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- Databricks lève 1 milliard de dollars !
- L’utilisation des données pour survivre !
Les plus consultés sur iTPro.fr
- E-mail : les tendances qui vont s’affirmer en 2026
- L’identité au cœur de la cybersécurité
- Données : une souveraineté obscurcie par le cloud ?
- Une menace à 1 milliard d’euros : le gouffre de la fraude e-commerce en France
- Cybersécurité : ce que 2026 réserve aux entreprises et comment en tirer avantage
Sur le même sujet
La blockchain en pratique
Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
Les projets d’intégration augmentent la charge de travail des services IT
10 grandes tendances Business Intelligence
ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
