par Edward Whalen, Geoff Langos et Alexander Stamenkovich - Mis en ligne le 26/11/2003
Reconception architecturale + réplication transactionnelle = performance écrasante
Les DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performancesLes DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performances. C'est dans cet esprit que,
voilà plusieurs années, nous avons conçu un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien long terme en prenant des instantanés
chaque demi-heure de certaines mesures
comme l'utilisation de la CPU et
des I/O, le nombre d'utilisateurs et de
processus, les traitements de commandes,
et les transactions. Nous avons
rangé ces mesures dans une base de
données SQL Server. L'année où nous
avons commencé notre programme de
supervision, nous n'avons recueilli les
données que pour quelques mois consécutifs.
Et constaté ainsi que les données
glanées pendant une période aussi
courte ne produisaient que des informations
à court terme: trop peu de points
de données pour dessiner une tendance.
En revanche, l'année suivante, quand nous avons supervisé des tranches de
temps plus longues, les données recueillies
ont révélé des tendances significatives.
En une année, nous avons observé
une hausse inquiétante de
l'utilisation de la CPU que nous avons attribuée
à une augmentation des fonctions
applicatives personnalisées dans le
centre et à l'ajout de nombreux utilisateurs
du système.
Diviser et conquérir
Pour endiguer l’augmentation de l’utilisation
de la CPU, nous avons mis à niveau
régulièrement le matériel jusqu’à ce
que SQL Server 7.0 fonctionne sur la plus
grande et la plus rapide CPU possible. Ensuite, nous nous sommes tournés
vers un programme de réglage de la base
de données, du matériel et des instructions
SQL. Bien que nous ayons pratiqué
le réglage des performances de manière
continue, les sollicitations de la CPU ont
fini par dépasser nos efforts d’optimisation.
En juillet 2000, il était clair que le
système de base de données actuel atteindrait
probablement son maximum
de performances vers la fin de l’année. La
figure 1 montre l’utilisation de la CPU de
juillet à décembre 2000. La réécriture des
applications aurait demandé bien plus
qu’une année et il n’était pas sûr que les
applications modifiées résoudraient le
problème. Des mesures plus drastiques
s’imposaient.
Téléchargez cette ressource
Comment accélérer la transformation des environnements de travail ?
Dans un monde professionnel en pleine mutation, la mobilité, l’efficacité énergétique, la sécurité et l’intelligence embarquée sont devenues des critères décisifs pour les équipements informatiques. Découvrez comment les nouveaux PC Microsoft Surface dotés des processeurs Snapdragon X Series s’imposent comme une réponse stratégique aux nouveaux enjeux IT.
Les articles les plus consultés
- L’utilisation des données pour survivre !
- Databricks lève 1 milliard de dollars !
- 9 défis de transformation digitale !
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Les projets d’intégration augmentent la charge de travail des services IT
Les plus consultés sur iTPro.fr
- Plus de femmes dirigeantes dans la tech pour la culture d’entreprise et l’inclusion
- Agents IA : de l’expérimentation à la gouvernance, le nouveau rôle des CTO
- Alerte sur les escroqueries reposant sur les deepfakes
- Explosion des interactions vocales avec l’IA générative d’ici 2028
- Les entreprises doivent revoir leur stratégie de résilience des données en profondeur
Sur le même sujet
Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
10 grandes tendances Business Intelligence
Les projets d’intégration augmentent la charge de travail des services IT
La blockchain en pratique
ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
