par Herts Chen - Mis en ligne le 18/02/2004
Raccourcissez le temps de réplication instantanée et de configuration avec
cet outil d'automatisation
Quand vous appliquez la réplication
instantanée à de grandes bases de données,
l'étape qui supprime les enregistrements
cibles et celle qui copie en
bloc les données sources dans des
tables cibles indexées peuvent créer
deux goulets d'étranglement des performances...Quand vous appliquez la réplication
instantanée à de grandes bases de données,
l'étape qui supprime les enregistrements
cibles et celle qui copie en
bloc les données sources dans des
tables cibles indexées peuvent créer
deux goulets d'étranglement des performances.
Pour éliminer ces goulets d'étranglement - et donc optimiser la
réplication - vous pouvez ajouter des
étapes personnalisées aux jobs
Snapshot and Distribution Agent. Dans
le premier article de cette série en trois
parties, « Ouvrez la voie à la réplication
snapshot à grande échelle », octobre
2002, (ou sur www.itpro.fr), j'analysais la performance d'une réplication
instantanée et introduisais les
étapes personnalisées. Le deuxième article,
« Personnalisez votre réplication
instantanée à la main », janvier 2003,
(ou sur www.itpro.fr), détaillait l'implémentation
manuelle complète de ces
étapes. Dans cet article de conclusion,
voyons comment réaliser une personnalisation
rapide, fiable et reproductible
en utilisant SQL-DMO (SQL
Distributed Management Objects)
pour automatiser le processus de personnalisation.
Pilote automatique

Optimiser la réplication instantanée
améliore considérablement les performances,
mais personnaliser manuellement
les jobs Snapshot and
Distribution Agent pour réaliser l’optimisation
peut s’avérer fastidieux et
long dans un environnement d’envergure
comportant de nombreux serveurs.
Comme il faut resynchroniser
manuellement la personnalisation
chaque fois que l’on pratique ces modifications,
il faut beaucoup de temps
quand on ajoute de nouvelles publications
ou qu’on reconfigure les existantes.
Manuellement, l’optimisation se
déroule ainsi. Vous essaierez une nouvelle
étape juste avant la dernière
étape du job Snapshot Agent. La commande
que cette étape exécute démarre
un job Distribution Agent. Vous
insérez ensuite deux nouvelles étapes
dans un job Distribution Agent, une
avant et une après son étape Run
Agent. L’étape avant abandonne tous
les index et les contraintes de clés par rapport aux tables d’abonnement.
L’étape après recrée les index et les
contraintes de clés que l’étape avant
avait abandonnés. La figure 1 montre
les quatre étapes du job Snapshot
Agent optimisé ; la figure 2 montre les
cinq étapes pour chaque job
Distribution Agent. Les nouvelles
étapes personnalisées sont l’étape 3
dans le job Snapshot Agent et les
étapes 2 et 4 dans le job Distribution
Agent.
$On voit donc que la personnalisation
manuelle dans Enterprise Manager
demande pas mal de travail : insérer
les nouvelles étapes, entrer des
commandes codées en dur ou une
procédure stockée pour exécution
dans chaque nouvelle étape et modifier
le flux des nouvelles étapes et les
étapes existantes affectées. Pis encore,
toute erreur ou incohérence introduite
pendant la personnalisation cassera
l’optimisation. Au lieu de vous enterrer
dans ces étapes manuelles fort
laborieuses, vous pouvez créer un outil
d’automatisation qui rendra votre processus
de personnalisation efficace,
homogène et reproductible. Cet outil
d’automatisation met en oeuvre les
tâches de personnalisation au moyen
de SQL-DMO.
Téléchargez cette ressource

Percer le brouillard des rançongiciels
Explorez les méandres d’une investigation de ransomware, avec les experts de Palo Alto Networks et Unit 42 pour faire la lumière dans la nébuleuse des rançongiciels. Plongez au cœur de l’enquête pour comprendre les méthodes, les outils et les tactiques utilisés par les acteurs de la menace. Découvrez comment prévenir les attaques, les contrer et minimiser leur impact. Des enseignements indispensables aux équipes cyber.
Les articles les plus consultés
- 10 grandes tendances Business Intelligence
- ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- Databricks lève 1 milliard de dollars !
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
Les plus consultés sur iTPro.fr
- Analyse Patch Tuesday Juin 2025
- L’IA agentique ouvre la voie à davantage d’alliances stratégiques et d’intégrations technologiques
- Oneytrust, la fintech française référente de la lutte contre la fraude bancaire & e-commerce fête ses 25 ans !
- Prendre en compte le développement durable est un facteur de réussite
- L’IA et le machine learning au service d’une cybersécurité préventive
Sur le même sujet

La blockchain en pratique

10 grandes tendances Business Intelligence

ActiveViam fait travailler les data scientists et les décideurs métiers ensemble

Les projets d’intégration augmentent la charge de travail des services IT

Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
