Bien entendu, seule une méthode de reconstruction d'index permet d'appliquer un nouveau fill factor. Ce paramètre peut même de façon optionnelle être appliqué aux pages de navigation. Curieusement il n'y a pas que les index qui "vieillissent". En effet, les données aussi sont victimes de l'âge… Comment une donnée insérée
Appliquer un nouveau fill factor

dans un système d’information peut-elle présenter ce genre de défaut ? C’est en fait tout simple. Lorsqu’une base commence à emmagasiner des données sur plusieurs années, il arrive que le format des données évolue.
Pour autant il est rare de voir les ABD6 se précipiter sur leurs données pour les rectifier. Prenons quelques exemples concrets. En 25 ans nous sommes passés du n° de téléphone avec 3 lettres et 4 chiffres à des numéros à 10 chiffres. Avez-vous pensé à rectifier régulièrement ces données là ? N’y a t-il pas dans votre base quelques vieux numéro de téléphone ? Quid des mails ? Sont-ils toujours actifs ? Les vendeurs de listes connaissent bien le problème, eux qui mettent à jour en permanence leurs bases en fonction des NPAI7… Des données trop vieilles, donc de formats anciens ou de valeurs obsolètes constituent en fait du bruit, c’est à dire une information qui est brassée pour rien. C’est une perte de temps, des performances utilisées en vain. Dans le même ordre d’esprit, il y a les données de mauvaise qualité. Elles peuvent conduire à des problématiques encore pires.
Imaginez le cas suivant : l’utilisateur saisit le nom d’un client avec un espace avant le début du nom. Une commande est passée pour cet utilisateur. Quelques temps plus tard ce client entend passer une nouvelle commande. Or, il ne sera pas retrouvé par une recherche alphabétique. On en viendra donc à le recréer, cette fois ci correctement, et l’on se trouve dorénavant avec un doublon… De la même façon, la saisie de données non formatée pose de multiples problèmes de recherches.
Par exemple je suis toujours sidéré de voir que les numéros de téléphone des clients sont tantôt émaillés de tirets, tantôt ornés de points. Parfois les chiffres sont tous colmatés les uns aux autres et parfois espacés par des blancs… Bref, comment avec autant de formats incompatibles faire des requêtes efficaces ? Le pire arrive lorsque les développeurs ont laissé leurs jeux d’essais dans la base… C’est ainsi que l’on fausse les statistiques !
Pas étonnant alors que les spécialistes de l’élaboration de solutions décisionnelles prétendent que 50 % du coût d’une solution d’analyse multidimensionnelle consiste à nettoyer les données ! Il y aurait bien d’autres choses à dire sur l’exploitation des données dans le cadre d’une optimisation : comment faire évoluer les espaces de stockage, notamment pour maintenir un temps d’accès disque constant, comment faire évoluer les processeurs en fonction de l’accroissement des transactions, comment mieux gérer la RAM en fonction du volume des données à traiter…
Mais cette série d’articles n’avait pour but que de vous sensibiliser à la chose. Reste encore à lire, relire, potasser, expérimenter, car comme je le disais en préambule, l’optimisation est un artisanat pour ne pas parler d’art !
Téléchargez cette ressource

État des lieux de la sécurité cloud-native
L’État des lieux de la sécurité cloud-native vous offre une analyse complète des problématiques, des tendances et des priorités qui sous-tendent les pratiques de sécurité cloud-native dans le monde entier. Une lecture indispensable pour renforcer votre stratégie de sécurité dans le cloud. Une mine d’infos exclusives pour élaborer votre stratégie de sécurité cloud-native.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- De la 5G à la 6G : la France se positionne pour dominer les réseaux du futur
- Datanexions, acteur clé de la transformation numérique data-centric
- Les PME attendent un meilleur accès aux données d’émissions de la part des fournisseurs
- Fraude & IA : Dr Jekyll vs. Mr Hyde, qui l’emporte ?
- Gestion du cycle de vie des outils de cyberdéfense : un levier de performance pour les entreprises
