
SSRS et MOSS 2007 : La puissance déployée – Partie 1
Dans « Intégration des informations : SSRS et MOSS 2007 » (http://www.itpro.fr, Club Abonnés), je présentais toute la richesse de l’environnement d’intégration des informations disponible avecMicrosoft Office SharePoint Server (MOSS) 2007 Enterprise Edition.
Après l’examen de l’architecture technique qui repousse encore les limites du reporting, l’article présentait les phases d’installation et de configuration des composants nécessaires à l’intégration de SSRS et de MOSS. La deuxième partie explique maintenant comment accomplir certaines tâches SSRS familières, notamment le déploiement, la configuration de la sécurité et la gestion des propriétés, dans le nouvel environnement MOSS.
Vous allez également apprendre à mettre en oeuvre les nouvelles fonctionnalités de reporting compatibles avec MOSS, par exemple le contrôle de versions, les workflow, les alertes et les stratégies de gestion des informations, mais aussi à utiliser les fonctions d’intégration des informations. En tirant parti de l’intégration de SSRS et de MOSS, non seulement les utilisateurs peuvent trouver, exploiter et partager plus facilement des informations dans toute l’entreprise, mais la gestion des rapports et les tâches d’implémentation de la sécurité s’en trouveront également simplifiées.
Contenu complémentaire : La puissance de SharePoint Server 2007 |

Une Programmation Efficace pour SQL Server 2005
Avant de commencer l'exécution d'une requête, d'un lot, d'une procédure stockée, d'un déclencheur, d'une instruction préparée ou d'une instruction SQL dynamique sur un SQL Server, le lot est compilé et un plan d’exécution est généré. Le plan est ensuite exécuté pour produire un effet ou des résultats.
Les plans compilés sont enregistrés dans une portion de la mémoire du serveur SQL nommée cache de plan. Le cache de plan est exploré en vue de réutilisations possibles. Si on réutilise un plan pour un lot, on peut éviter les coûts de compilation ou recompilation. Les plans sont mis en cache dans l'éventualité de leurs réutilisations. Si un plan n’est pas mis en cache, la probabilité qu’il soit réutilisé est nulle. Dans cet article, nous décrirons quelques bonnes pratiques de programmation pour l'utilisation efficace du cache de plan.
Contenu complémentaire : SQL Server 2005 Edition Express disponible gratuitement |
Lire l'article



SQL Server : les tendances pour 2008
Tels des Nostradamus de notre temps, les responsables informatiques et administrateurs SQL Server ont besoin de se projeter dans l’avenir pour garantir la pérennité à court et long termes des investissements d’aujourd’hui dans les technologies et les infrastructures.
L’année 2008 s’annonce riche en événements pour la communauté SQL Server. Nous avons donc pensé que quelques prédictions et pronostics, assortis des conseils avisés de quelques experts, vous aideront à choisir la meilleure route possible vers les dernières évolutions technologiques et les nouvelles versions de produits dignes d’intérêt.
Contenu complémentaire : Des solutions géospatiales pour SQL Server 2008 |
Lire l'article

La démocratisation de la performance de l’entreprise avec PerformancePoint Server 2007
Le système d’information est devenu depuis quelques années un point central pour la croissance des entreprises. Dans un premier temps ces systèmes ont permis de collecter et de traiter l’information tout en optimisant son stockage. Puis dans un second temps, grâce à l’évolution de la puissance des machines, de la capacité disques grandissante, ces données ont pu être croisées et agrégées à des fins analytiques.Nous voyons aujourd’hui fleurir de nombreux projets autour des problématiques « VLDB » (Very Large Data Base). Le traitement de données de masse n’est plus une barrière au grand bénéfice des projets axés sur la Business Intelligence.
Contenu coplémentaire : Présentation du produit PerformancePoint Server 2007 Les acteurs du décisionnels : http://www.olapreport.com/ |
Lire l'article

Microsoft Web Plateform Installer
La firme de Redmond vient de sortir la version 1.0 de Microsoft Web Plateform Installer, un outil permettant d’installer et d’optimiser sa plateforme Web.
Ce petit logiciel permet d’installer et de mettre à jour IIS, Visual Web Developer 2008 Express Edition, SQL Server 2008 Express Edition et le framework .NET.
Lire l'article


Service Broker
Service Broker offre la possibilité de travailler en mode asynchrone avec une SQL Server en proposant un service de messagerie fiable entre les instances.

La diffusion de l’analyse décisionnelle dans l’entreprise
Le défi consistant à fournir les données issues d’un entrepôt de données (data warehouse) ou d’un data mart aux utilisateurs finaux peut être considérable. Lors de mes conférences sur le data warehousing, la question suivante revient fréquemment : « Mais une fois celui-ci créé, comment permettre aux utilisateurs d’y accéder ? »
L’accès des utilisateurs aux données dont ils ont besoin correspond précisément à faire du data warehouse un outil d’analyse décisionnelle (BI, Business Intelligence). Même dans le meilleur data warehouse, les données sont sans signification à moins que les utilisateurs puissent y accéder rapidement et les comprendre facilement. De nombreuses options permettent de diffuser les données de l’analyse décisionnelle auprès des utilisateurs finaux et les méthodes retenues dépendent entièrement de ces derniers et de leur mode d’exploitation des données.
Heureusement, de nombreux outils axés sur les données sont disponibles dans le data warehouse, de sorte qu’il est possible de répondre aux besoins d’analyse décisionnelle d’une multitude de profils d’utilisateurs avec différents outils accédant au même référentiel.
Le présent article décrit quatre types d’utilisateurs et les outils disponibles pour la fourniture des données correspondantes. Bien que cette liste ne constitue pas un inventaire exhaustif des outils existants, elle peut servir de guide pratique pour examiner les besoins de vos utilisateurs et pour sélectionner les outils appropriés. Peu importe que votre entreprise ou organisation utilise SQL Server 2005 ou 2000 : tous ces outils existent avec les deux versions.
Contenu complémentaire : Resources externes : Page Microsoft Technet sur l'analyse décisionnelle Ressources iTPro.fr : Les bases de la modélisation dimentionelle et Utilisation de Reporting Services dans un environnement Internet / Extranet |

Quelques aspects essentiels de la conception des bases de données
La clé de bonnes performances des SQL Server à mieux employer les index lors de la réponse à une requête
Lire l'article
Une recette pour remplacer les variables de session
Que pouvez-vous faire avec un cookie, quelques procédures stockées et un nombre aléatoire ? Pourquoi pas une solution à niveau d’utilisation moyen pour s’affranchir des variables de session ? Ma recette pour suivre les sessions Web des utilisateurs consiste à s’appuyer sur la vitesse native des procédures stockées une base de données SQL Server afin d’obtenir des performances rapides et fiables. Cette approche est indépendante du périphérique et de la plate-forme dans les environnements de traitement distribué.
Lire l'article
Coordination de la migration de DTS vers SSIS
De combien de lots DTS (également appelés packages dans SSIS) êtes vous responsable ? Peut-être 10 ? Ou alors 50 ? Lorsque j’ai posé cette question au cours d’une conférence l’an dernier, quelques auditeurs m’ont franchement surpris en affirmant que leur environnement disposait de plus de 2000 lots DTS ! Etait-il irresponsable de ma part de leur souhaiter bonne chance pour leurs opérations de migration ? Peut-être. Néanmoins, si vous avez des centaines de lots DTS, vous devez savoir que vous n’êtes pas seul. DTS est réputé pour sa simplicité et son utilité et, en fait, de nombreuses organisations l’ont adopté pour sa capacité à générer rapidement et simplement des traitements de données.
Que vous ayez 10 lots DTS ou plusieurs centaines, vous allez probablement vous préparer à une migration inévitable vers SQL Server 2005 Integration Services (SSIS). Toutefois, au cours de vos tests et de vos recherches, les points d’achoppement sont devenus apparents : l’architecture du produit diffère de celle de SQL Server 2000 DTS, d’où une procédure de migration plus complexe qu’une simple mise à niveau, et même après la migration de quelques packages, vous pouvez vous retrouver avec un gain minime de performances. Et qu’en est-il si vous examinez des dizaines ou des centaines de lots ? Vous allez vous préparer de nombreuses nuits sans sommeil. Pourtant, vous trouverez une lumière au bout du tunnel, et celle-ci sera rayonnante. L’atteindre ne sera peut-être pas aussi difficile que vous le croyez. En fait, maintenant que SQL Server 2005 a plus d’un an de service, les ressources et les connaissances disponibles pour vous aider au cours du processus sont plus étoffées. (Pour obtenir un b.-a.-ba utile sur la question, consultez l’article « Ascension vers SQL Server 2005 », sur le site http://www.itpro.fr Club Abonnés, Hors Série SQL Server 2005, novembre 2005 ainsi que l’encadré « Votre première étape » de cet article.) Mais ne vous contentez pas de prévoir une simple migration des lots DTS vers SSIS. Apprêtez-vous plutôt à exploiter pleinement les fonctionnalités améliorées de SSIS.
IT Technical center : SQL Server 2005 - Guide des ressources complémentaires |
Lire l'article

La gestion de la relation client avec Microsoft Dynamics CRM
Conçu pour aider à développer les ventes et améliorer la satisfaction des clients, Microsoft Dynamics CRM est une solution puissante qui évolue naturellement pour Microsoft SQL Server. Cet article a pour objet de décrire d’une part les aspects fonctionnels nécessaires à la compréhension de l’application et d’autre part l’intégration entre Dynamics CRM et SQL Server.
Lire l'article

Actu SQL 25
Lors d’une récente réunion SQL Server 2008 dans le cadre du TAP (Technical Adoption Program), plusieurs clients sont venus partager leur expérience sur la mise en œuvre de cette nouvelle plate-forme de gestion et d’analyse de données. Retour sur les principales fonctionnalités de SQL Server 2008 et ces témoignages exclusifs ! Si SQL Server 2005 […]
Lire l'article
Automatisez vos audits de sécurité
SQL Server ? Fort heureusement, il existe des mesures permettant de réduire sensiblement les risques. Vous pouvez prévenir (ou au moins limiter) de nombreuses attaques SQL simplement en vérifiant initialement que vos bases de données et serveurs sont sécurisés comme il se doit.
La configuration de tous les ports d’écoute est-elle appropriée ? Avez-vous désactivé l’ensemble des bibliothèques réseau superflues ? Avez-vous pensé à supprimer les anciens fichiers de configuration SQL Server ? Et la liste ne s’arrête pas là.
Admettons-le, il faut du temps pour sécuriser tous les points de contrôle jusqu’au dernier et pour conserver une longueur d’avance sur les personnes malintentionnées. Chaque jour apporte son lot de nouvelles vulnérabilités concernant la sécurité, d’où la nécessité d’ajouter de nouveaux contrôles et d’effectuer une surveillance fréquente pour rester à l’abri des mauvaises surprises.
Dans ces circonstances, il serait épatant de pouvoir automatiser quelque peu toutes ces tâches d’audit longues et fastidieuses. C’est désormais possible si vous appliquez les techniques simples exposées dans cet article et si vous adaptez le code fourni à votre situation spécifique.

Reporting Services : Qu’en est-il des services Web ?
Vous vous interrogez peut-être sur les alternatives permettant de proposer l’authentification Windows.Une approche fiable consiste à employer le service Web Report Server.
Lire l'article
Optimisation des bases de données MS SQL Server : les requêtes
En théorie, quelle que soit la façon d'écrire une requête, le SGBDR doit être capable de trouver le moyen le plus efficace de traiter la demande, grâce à l'optimiseur. Mais parce qu'il y a loin de la théorie à la pratique, différentes écritures et différents styles de résolution, alliés à la qualité de l'indexation peuvent donner des temps d'exécution très variés.
C'est pourquoi la maîtrise de la conception de requêtes est un des points clefs de la performance d'une base de données bien conçue. Voyons quels en sont les principes basiques.
Dans un cours que je donne aux Arts & Métiers, je montre comment une bonne indexation alliée à la qualité de l'écriture des requêtes, peut faire varier dans une proportion de plus de 300 le temps d'exécution d'une requête. Je commence l'exercice par une demande simple : écrire une requête SQL permettant de répondre à une question basique, mais en prenant soin d'exprimer différentes solutions, même les plus bizarres.
Outre la solution simpliste, certains y arrivent par une union, d'autres avec des sous requêtes, d'autres encore avec des jeux de CASE... L'exécution brute de toutes ces solutions, donne un coût d'exécution allant du simple au triple. La pose d'un premier index trivial ne donne rien, par manque de sélectivité. Après élimination de cette première tentative, la pose d'un nouvel index montre que les requêtes les plus coûteuses au départ deviennent les plus rapides, alors que celles qui étaient les moins coûteuses à l'origine n'ont rien gagné. Un nouvel essai d'indexation remet toutes les requêtes au même rang qu'au départ, chacune gagnant dans la même proportion et plus que l'indexation précédente.
Enfin, la dernière tentative d'indexation étant la bonne, toutes les requêtes bénéficient d'un gain important, mais certaines bien plus que d'autres. Le clou est enfoncé lorsque l'on choisit de dénormaliser avec une vue. Là, le gain devient gigantesque. Il est voisin de 13 000. Mais il ne prend pas en compte l'effort supplémentaire à faire pour les mises à jour (INSERT, UPDATE, DELETE...).
Cet exercice nous apprend trois choses :
• différentes écritures d'une même requête ne donneront pas forcément les mêmes performances, bien que dans l’absolu, ce devrait être le cas [1]
• rien ne sert de poser un index s'il ne sert pas la requête
• une même requête écrite de différentes manières ne bénéficiera pas des mêmes gains lorsque l’on pose un index J’ajouterai que tout ceci évolue en fonction de la volumétrie des données et des données mêmes !
Tant est si bien qu’il est difficile de trouver de prime abord ce qu’est l’écriture d’une bonne requête. Affirmons cependant qu’une bonne requête est une requête qui sait tirer partie du moteur de requête pour le forcer à calculer un plan de requête dont les étapes sont les plus courtes à traiter.
[1] En fait, nous croyons souvent et naïvement que certaines écritures de requêtes sont identiques. Mais nous oublions souvent l’influence du marqueur NULL, dont le comportement particulier dans différents prédicats oblige le moteur SQL à des constructions parfois fort différentes.
Les plus consultés sur iTPro.fr
- Perspectives IA, Cybersécurité et STaaS en 2025
- Impact des outils d’IA sur la satisfaction, le niveau de stress et le bien-être !
- La portabilité des données, un élément essentiel pour soutenir l’émergence des clouds souverains
- Passer d’une logique de productivité à une recherche d’utilité
- Pourquoi l’indépendance de Java devient une priorité au niveau du conseil d’administration ?
Sur le même sujet

La blockchain en pratique

ActiveViam fait travailler les data scientists et les décideurs métiers ensemble

10 grandes tendances Business Intelligence

Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises

Les projets d’intégration augmentent la charge de travail des services IT
