par Joseph Isaac Sack - Mis en ligne le 19/05/2003
Je travaille comme administrateur
de base de données (DBA) sous
contrat dans une grande société de
recherche et de fabrication. Mon
manager m'a récemment demandé
de trouver la meilleure configuration
de base de données pour notre
nouveau grand SAN (Storage Area
Network) RAID 5. Le fournisseur du
SAN n'avait pas de documentation
quant aux recommandations de placement
de fichiers base de données
SQL Server 2000 ou aux meilleures
pratiques. Il fallait donc faire un test
pour voir si en plaçant les fichiers de
données et les fichiers log sur des
partitions SAN RAID 5 séparées, les
performances étaient meilleures
qu'en plaçant les deux fichiers sur
une partition SAN RAID 5 unique.
En règle générale, le fait de placer
les fichiers base de données et log
sur des matrices séparées (RAID 5
ou RAID 10 pour les données et
RAID 1 pour le log) améliore la performance.
Comme SQL Server écrit
séquentiellement dans le fichier log
de transactions, et aléatoirement
dans les fichiers de données, la séparation
des fichiers réduit le risque
de contention de lecture ou d'écriture
simultanée.
L’outil Database Hammer
Le SAN que j’ai testé bénéficiait du caching – la RAM qui réside sur le
contrôleur de disque lui-même –
donc, je n’ai pas voulu supposer que
les règles standard s’appliquaient.
Certains SAN utilisent des algorithmes
de caching dans le contrôleur
de cache pour faciliter le mouvement
des blocs de données et les
écritures vers le cache du contrôleur
(mémoire). Par exemple, le SAN que
j’ai testé a un algorithme qui lit des
données et les envoie dans le cache
en s’inspirant des anciens profils de
requêtes d’I/O, pour tenter de prédire
les requêtes de lecture futures.
Un autre algorithme recueille les
écritures séquentielles dans le cache
et essaie de les écrire sur disque
dans de grands blocs de bandes
complètes. Ces algorithmes de
cache ont pour but d’alléger l’I/O.
Pour tester le serveur de base de
données sous diverses charges, j’ai
utilisé l’outil Database Hammer inclus
dans le SQL Server 2000
Resource Kit. Database Hammer est
un exemple de code 6.0 VB (Visual
Basic) qui crée une table, la peuple
avec 10 millions de lignes de données
puis permet de simuler des
centaines d’opérations SELECT et
UPDATE simultanées. Database
Hammer est excellent pour appliquer un test de contrainte à une
base de données. Il permet d’étaler
des connexions multiples dont chacune
émet des opérations de
lecture/écriture aléatoires (d’après
votre ratio). L’outil enregistre aussi les
statistiques de performances client/
serveur. Ces statistiques montrent le
temps de réponse courant, minimum,
maximum et moyen (en millisecondes)
de l’appel de procédure stockée
(Read ou Write) pour chaque processus
esclave. Bien que cette
information soit utile pour mesurer le
temps de réponse client/serveur, ce qui m’intéressait le plus était de voir
l’impact du test de contrainte sur l’I/O.
J’ai donc décidé de créer mes propres
journaux de comptage Performance
Monitor pour capturer cette information
d’I/O ainsi que les statistiques sur
la mémoire, la CPU et le cache du
buffer.
Regardons brièvement les compteurs
utilisés pour mes tests, examinons
la manière de créer les journaux
de comptage, et voyons comment
conduire les tests Database Hammer.
Nous verrons alors les résultats surprenants
ainsi obtenus.
Téléchargez cette ressource
Sécuriser Microsoft 365 avec une approche Zero-Trust
Découvrez comment renforcer la cyber-résilience de Microsoft 365 grâce à une approche Zero-Trust, une administration granulaire et une automatisation avancée. La technologie Virtual Tenant de CoreView permet de sécuriser et simplifier la gestion des environnements complexes, tout en complétant vos stratégies IAM, y compris dans les secteurs réglementés.
Les articles les plus consultés
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- Les projets d’intégration augmentent la charge de travail des services IT
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- 9 défis de transformation digitale !
- La blockchain en pratique
Les plus consultés sur iTPro.fr
- Innovation et performance : le rôle clé du consulting dans la transformation numérique
- Sekoia.io : l’alternative européenne qui s’impose dans la cybersécurité
- Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
- IA Agentique : la vraie rupture c’est la gouvernance humaine
Articles les + lus
Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
Construire la souveraineté numérique en Europe grâce à un écosystème ouvert et collaboratif
À la une de la chaîne Data
- Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
- Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
- Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
- Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
- Construire la souveraineté numérique en Europe grâce à un écosystème ouvert et collaboratif
