par Edward Whalen, Geoff Langos et Alexander Stamenkovich - Mis en ligne le 26/11/2003
Reconception architecturale + réplication transactionnelle = performance écrasante
Les DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performancesLes DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performances. C'est dans cet esprit que,
voilà plusieurs années, nous avons conçu un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien long terme en prenant des instantanés
chaque demi-heure de certaines mesures
comme l'utilisation de la CPU et
des I/O, le nombre d'utilisateurs et de
processus, les traitements de commandes,
et les transactions. Nous avons
rangé ces mesures dans une base de
données SQL Server. L'année où nous
avons commencé notre programme de
supervision, nous n'avons recueilli les
données que pour quelques mois consécutifs.
Et constaté ainsi que les données
glanées pendant une période aussi
courte ne produisaient que des informations
à court terme: trop peu de points
de données pour dessiner une tendance.
En revanche, l'année suivante, quand nous avons supervisé des tranches de
temps plus longues, les données recueillies
ont révélé des tendances significatives.
En une année, nous avons observé
une hausse inquiétante de
l'utilisation de la CPU que nous avons attribuée
à une augmentation des fonctions
applicatives personnalisées dans le
centre et à l'ajout de nombreux utilisateurs
du système.
Diviser et conquérir

Pour endiguer l’augmentation de l’utilisation
de la CPU, nous avons mis à niveau
régulièrement le matériel jusqu’à ce
que SQL Server 7.0 fonctionne sur la plus
grande et la plus rapide CPU possible. Ensuite, nous nous sommes tournés
vers un programme de réglage de la base
de données, du matériel et des instructions
SQL. Bien que nous ayons pratiqué
le réglage des performances de manière
continue, les sollicitations de la CPU ont
fini par dépasser nos efforts d’optimisation.
En juillet 2000, il était clair que le
système de base de données actuel atteindrait
probablement son maximum
de performances vers la fin de l’année. La
figure 1 montre l’utilisation de la CPU de
juillet à décembre 2000. La réécriture des
applications aurait demandé bien plus
qu’une année et il n’était pas sûr que les
applications modifiées résoudraient le
problème. Des mesures plus drastiques
s’imposaient.
Téléchargez cette ressource

Comment accélérer la transformation des environnements de travail ?
Dans un monde professionnel en pleine mutation, la mobilité, l’efficacité énergétique, la sécurité et l’intelligence embarquée sont devenues des critères décisifs pour les équipements informatiques. Découvrez comment les nouveaux PC Microsoft Surface dotés des processeurs Snapdragon X Series s’imposent comme une réponse stratégique aux nouveaux enjeux IT.
Les articles les plus consultés
- Les projets d’intégration augmentent la charge de travail des services IT
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Dark Web : où sont vos données dérobées ?
- ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
- 10 grandes tendances Business Intelligence
Les plus consultés sur iTPro.fr
- Le World Cyber Ranking, 1er classement mondial de la cybersécurité des entreprises
- Comment le Quarter Plan permet d’aligner IT et Métiers pour délivrer
- Explosion des attaques d’ingénierie sociale en 2025
- SI sous pression : 3 signes que vos flux sont mal orientés
- Transformation numérique : les entreprises françaises changent de méthode de gestion de projet en cours de route
Sur le même sujet

Les projets d’intégration augmentent la charge de travail des services IT

10 grandes tendances Business Intelligence

ActiveViam fait travailler les data scientists et les décideurs métiers ensemble

La blockchain en pratique

Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
