> Data
Le meilleur de Web Matrix

Le meilleur de Web Matrix

par Michael Otey - Mis en ligne le 20/10/2004 - Publié en Octobre 2003

Web Matrix est un outil de développement d'application graphique destiné au nouveau framework applicatif Web ASP.NET de Microsoft. Téléchargeable gratuitement, il inclut un sousensemble des fonctions de développement de Visual Studio .NET.C'est aussi un excellent moyen de se mettre dans le bain en utilisant ASP.NET sans acquérir une copie complète de Visual Studio .NET. Web Matrix requiert Windows XP ou Windows 2000 et est livré avec le support pour les bases de données SQL Server et MSDE (Microsoft Data Engine). Pour télécharger l'outil, allez à  http://www.asp. net et sélectionnez l'onglet Web Matrix en haut de la page. Voici les sept points forts de Web Matrix.

Lire l'article
Le nouveau Visual Studio .Net

Le nouveau Visual Studio .Net

par Michael Otey - Mis en ligne le 24/11/2004 - Publié en Décembre 2003

Visual Studio .NET a été accueilli sans enthousiasme dans sa première année. A cela, deux raisons principales : le marasme économique et la difficulté des développeurs pour apprendre les nouveaux langages Microsoft .NET ...Avec Visual Studio .NET 2003, Microsoft entend bien accélérer le rythme d'adoption du produit dans les entreprises. Voici sept nouvelles fonctions importantes de Visual Studio .NET 2003, pour les développeurs base de données.

Lire l'article
Trop, c’est combien ?

Trop, c’est combien ?

par Jeffrey Bane - Mis en ligne le 29/09/2004 - Publié en Octobre 2003

En conception de base de données, la bonne relation est primordiale

Si le rôle de l'administrateur et du développeur de bases de données modernes se limitait à  coder SQL et à  assurer de bonnes sauvegardes, nous dormirions tous probablement mieux et pourrions consacrer davantage de temps à  nos loisirs. Malheureusement, nous devons aussi avant tout mettre en oeuvre des bases de données efficaces...Cette tâche est l'une des plus délicates dans le monde des bases de données, car la conception et la mise en oeuvre d'une base de données est un exercice lourd de conséquences positives ou négatives.
Le temps et l'expérience aidant, on atteint une certaine aisance malgré l'ampleur de la tâche. Et vous atteignez un point dans votre courbe d'apprentissage de développement de base de données où vous maîtrisez bien l'application des relations many-to-many (M:N) (de plusieurs à  plusieurs) entre les tables. Parfois même, vous vous sentez tellement à  l'aise que vous avez tendance à  abuser de ces relations.
Si vous êtes un développeur de bases de données débutant, la relation M:N risque de vous intimider. Mais, après plusieurs utilisations, vous constaterez qu'elle est relativement simple à  identifier, concevoir et mettre en oeuvre. En général, parvenue à  ce point de maîtrise, la courbe d'apprentissage se heurte à  un mur. Très peu de développeurs et de concepteurs de bases de données se risquent au-delà  des relations « Big 3 » : one to one (1:1), one to many (1:M) et M:N, pour découvrir les autres types de relations pouvant exister dans un schéma relationnel. Peu de gens explorent, mais moins encore maîtrisent, des types de relations plus obscures du genre tertiaire ou nomenclature. Pourtant, ces relations ne sont que de simples extensions des trois types de relations avec lesquelles vous vous sentez à  l'aise. Par exemple, une relation nomenclature n'est rien d'autre qu'une entité qui a des relations M:N avec elle-même. Dans cette relation, une entité pièces est constituée d'autres pièces qui, à  leur tour, sont constituées de - vous l'aviez deviné - encore d'autres pièces. Mais, si l'on comprend les relations M:N, on est tout près de comprendre la relation nomenclature.
Ces types de relations moins usuelles ne doivent pas constituer un mystère dans vos schémas de bases de données. Pour démystifier ces relations, voyons la relation supertype- subtype sous-utilisée et souvent incorrectement mise en oeuvre. Elle est aussi connue sous le nom de relation superclass-subclass. Si vous avez déjà  pratiqué le développement orienté objet, vous connaissez cette relation, dans laquelle plusieurs entités partapartagent certains attributs, mais pas tous.
A noter que dans cet article, je couvre principalement la mise en oeuvre physique d'une relation supertype- subtype, en expliquant la logique de ce type de relation et en soulignant les gains de performances spectaculaires qu'elle permet. Pour une explication approfondie des relations supertype- subtype au niveau logique, voir l'article classique de Michel Poolet « Supertypes and Subtypes », mai 1999, sur www.itpro.fr.

Lire l'article
9 conseils en services d’analyse

9 conseils en services d’analyse

par Tom Chester - Mis en ligne le 14/04/2004

Essayez ces meilleures pratiques non orthodoxes mais efficaces dans votre prochain projet

Voilà  4 ans que Microsoft a redéfini le marché OLAP en introduisant Analysis Services (dénommé à  l'origine OLAP Services), la base de données analytique multidimensionnelle intégrée dans SQL Server. Dans ce laps de temps, j'ai rassemblé une liste d'astuces et de bonnes pratiques moins connues qui peuvent grandement aider les développeurs d'Analysis Services. Ces neuf conseils et techniques, qui vont du banal au sublime, vont à  contre-courant de la pratique courante. Mais cette dernière n'est pas forcément la meilleure, et l'une de ces astuces pourrait bien déterminer la réussite de votre prochain projet.

Lire l'article
Log Explorer 3.03

Log Explorer 3.03

par Ron Talmage - Mis en ligne le 14/04/2004

Récupérez sélectivement les données du journal de transactions

Lumigent Technologies vient d'annoncer une nouvelle version de Log Explorer, l'un des produits tierce partie les plus vendus dans l'espace SQL Server. Log Explorer lit un journal de transactions SQL Server 2000 ou 7.0 et décode les informations en un format lisible. Log Explorer permet d'analyser des historiques de transactions, mais il permet surtout de récupérer sélectivement des données. Cette dernière faculté particulièrement précieuse est encore améliorée dans la nouvelle release, Log Explorer 3.03.

Lire l'article
Nager dans le .Net Connection Pool

Nager dans le .Net Connection Pool

par par William Vaughn - Mis en ligne le 24/08/2004 - Publié en Décembre 2003

Concevez et configurez votre connection pool .NET en utilisant du bon sens, des requêtes ordinaires, et une poignée de propriétés SqlClient peu connues

En tant qu'instructeur et consultant en ADO.NET et Visual Basic (VB), on m'interroge souvent sur l'utilisation des pools de connexion d'ADO.NET...Ces questions viennent de clients, d'étudiants, de newsgroups et de serveurs de listes. Les questions posées sont du genre :

  • Comment puis-je activer et désactiver le connection pool ?
  • Combien de connexions sont déjà  dans le pool ?
  • ADO.NET et ADO semblent se bloquer après environ 100 connexions. Pourquoi ne peuvent-ils pas ouvrir davantage de connexions ?
  • Comment puis-je reconnaître l'utilisateur exécutant le code dans la chaîne de connexion sans épuiser rapidement les connexions ?
  • Comment puis-je m'assurer que seules les personnes autorisées ont accès à  la base de données et continuer à  tirer parti du connection pool ?
  • Comment puis-je partager une connexion commune entre différentes parties de mon application ?
Après avoir lu cet article, vous connaîtrez les réponses à  ces questions et à  beaucoup d'autres portant sur le connection-pool. J'explique comment connecter correctement les applications au serveur et, plus important, comment les en déconnecter quand le connection pool gère vos connexions. Dans un prochain article, je poursuivrai en expliquant comment superviser l'activité du mécanisme de connectionpooling (aussi appelé pooler) et comment être certain que l'application utilise le pooler correctement - de préférence avant qu'il ne déborde et n'endommage votre système.

Lire l'article
Actualités – Juin 2004

Actualités – Juin 2004

Les actualités SQL Server pour le mois de Juin 2004

Lire l'article
Database Editor Tool Kit for Desktop

Database Editor Tool Kit for Desktop

Isotupa Consulting annonce Database Editor Tool Kit for Desktop, logiciel pour les développeurs et intégrateurs systèmes.

Cette solution permet de mettre en place des applications rapidement.

Lire l'article
Actualités – Mai 2004

Actualités – Mai 2004

Les actualités SQL Server pour le mois de Mai 2004

Lire l'article
AppDetective 3.1.8contre les vulnérabilités

AppDetective 3.1.8contre les vulnérabilités

Application Security annonce AppDetective 3.1.8, logiciel d'évaluation des vulnérabilités qui peut vérifier trois nouvelles vulnérabilités SQL Server : « named pipe hijacking », « named pipe » Deni de services (DoS), les problèmes dans les appels de procédures locales (LPC).

En outre, AppDetective peut vérifier si vous avez installé un patch qui empêche d'indiquer un nom de compte sur lequel SQL Server fonctionne.

Lire l'article
Arbres XML : Pas à  pas

Arbres XML : Pas à  pas

par Julian Watson - Mis en ligne le 19/05/2004

Comment renvoyer des données sous forme de XML hiérarchique

Les bases de données relationnelles stockent souvent leurs données dans une structure arborescente ou hiérarchique, où chaque élément est associé à  un autre, selon une relation parentenfant.L'exemple le plus courant est la structure ou organigramme de direction d'une société comme celle que montre la figure 1. La hiérarchie a généralement une profondeur arbitraire et chaque élément ne contient des informations que sur sa position relative dans l'arbre. A en juger par les nombreuses questions des newsgroups, une exigence courante se dessine : utiliser SQL Server pour renvoyer la totalité de l'arbre en format XML. Par exemple, beaucoup doivent afficher une hiérarchie sur une page ou un rapport Web. La figure 2 montre un arbre affiché en mode XML.
Bien que le support XML de SQL Server 2000 soit souple, il ne permet pas de renvoyer XML hiérarchique, selon une profondeur arbitraire. Mais on peut obtenir ce résultat grâce à  la commande FOR XML EXPLICIT T-SQL.
Certaines techniques d'accès à  des données hiérarchiques par l'intermédiaire de T-SQL peuvent devenir très complexes. Cet article explique les techniques et bâtit le T-SQL en petites étapes pour en faciliter la compréhension. En cours de trajet, j'aborde des méthodes comme l'utilisation de SQL dynamique et je révèle quelques trucs et astuces, y compris comment utiliser des tables temporaires au lieu d'UNIONs dans vos instructions FOR XML EXPLICIT pour réduire la taille et la complexité de ces instructions. L'article suppose une bonne connaissance de XML sur SQL Server 2000 et l'utilisation de la table universelle.

Lire l'article
SQL Server 2000 64 bits Enterprise Edition

SQL Server 2000 64 bits Enterprise Edition

par Michael Otey - Mis en ligne le 19/05/2004

Avez-vous besoin du surcroît de puissance de SQL Server 2000 64 bits Enterprise Edition ?

Depuis sa release 7.0 en 1998, SQL Server a pris sa vitesse de croisière, éliminant les obstacles qui freinaient l'adoption des versions SQL Server précédentes dans l'entreprise.Une nouvelle technologie de large diffusion, dite vues partitionnées distribuées, a propulsé SQL Server en tête des classements TPC-C pour systèmes base de données en cluster. (TPC-C est un benchmark standard pour systèmes base de données, conçu par le TPC (Transaction Performance Processing Council) qui rassemble tous les principaux fournisseurs de bases de données. Le test TPC-C mesure les transactions par minute - ou tpmC.) SQL Server a aussi fait irruption dans le top 10 de TPC-C pour systèmes non clustered, mais sans damer le pion aux meilleures solutions base de données d'IBM et Oracle qui fonctionnaient, il est vrai, sur un matériel plus puissant. Cela étant, SQL Server a continué à  gagner nettement en évolutivité et la nouvelle SQL Server 2000 64 bits Enterprise Edition (nom de code précédent Liberty) rapproche encore plus SQL Server du sommet en matière d'évolutivité d'entreprise. Examinons donc les fonctions de SQL Server 64 bits et voyons dans quelles conditions il est judicieux de déployer cette nouvelle plate-forme puissante.

Lire l'article
Actualités – Avril 2004

Actualités – Avril 2004

Les actualités SQL Server pour le mois d'Avril 2004

Lire l'article
BizTalk Server 2004, le serveur d’intégration de Microsoft

BizTalk Server 2004, le serveur d’intégration de Microsoft

BizTalk Server 2004, le serveur d'intégration de Microsoft, assure la fonction de chef d'orchestre des échanges inter applicatifs entre les acteurs internes et externe à l'entreprise.

Les développeurs pourront capitaliser sur leur expérience en s'appuyant sur l'environnement de développement unifié Visual Studio .NET intégré à BizTalk Server 2004.

Lire l'article
Testez par unités vos procédures stockées

Testez par unités vos procédures stockées

par Dan Sawyer - Mis en ligne le 21/01/2004

Mettez en forme votre code de procédure

Imaginez ceci : vous venez juste de finir le débogage de la dernière procédure stockée pour la dernière application SQL Server du département. Etes-vous satisfait de votre travail ? Etesvous certain que votre code T-SQL sera à  la hauteur des attentes des utilisateurs ? Quid des fonctionnalités que vous avez placées dans le code ? ...

Imaginez ceci : vous venez juste de finir le débogage de la dernière procédure stockée pour la dernière application SQL Server du département. Etes-vous satisfait de votre travail ? Etesvous certain que votre code T-SQL sera à  la hauteur des attentes des utilisateurs ? Quid des fonctionnalités que vous avez placées dans le code ? Avezvous couvert tous les aspects de la gestion ? Chaque fonction tient-elle ses promesses comme prévu dans tous les scénarios d'exploitation normaux?

Même si vous pouvez répondre par oui à  toutes ces questions, le moment de relâcher votre effort n'est pas encore venu. Qu'en est-il des suites possibles ? Avez-vous testé les conditions d'erreur courantes qui ont causé des problèmes par le passé ? Et qu'en est-il des gestionnaires d'erreurs ? Sont-ils eux-mêmes impeccables ? Si vous vous sentez faiblards dans l'un de ces domaines, il vaut peut-être mieux réévaluer la manière dont vos procédures stockées sont testées par unités.
Contrairement aux tests système que les testeurs professionnels effectuent après qu'une application ait été entièrement codée, le test par unités recherche les erreurs dans des modules individuels, comme les procédures stockées, tout au long du développement de ces modules. Le test par unités n'est pas difficile mais, pour être efficace, il exige du planning, de la documentation et, par-dessus tout, une compréhension partagée de certains principes de base. Donc, avant de plonger dans le processus de test, commençons par dissiper quelques préjugés courants sur le test par unités, qui nuisent souvent à  son efficacité.

Lire l'article
Audit des bases de données MS SQL Server 7 et 2000

Audit des bases de données MS SQL Server 7 et 2000

iNetsoft propose un outil pour l'audit des bases de données MS SQL Server 7 et 2000 : OmniAudit de l'éditeur américain Krell Software.

OmniAudit permet d'identifier de manière automatique et transparente toutes les modifications apportées aux données dans vos bases de données Microsoft SQL Server 7.0 ou 2000.

Lire l'article
Dénicher des profils et des tendances

Dénicher des profils et des tendances

par Christine Y. Mato et Greg Meyer - Mis en ligne le 17/03/2004

Une application géologique de data warehousing et de data mining avec SQL Server 2000

Pour notre master's degree program en Management of Information Systems, nous avons dû réaliser un projet d'analyse visant à  apprendre les nuances du data mining en utilisant des données « réelles ». Notre travail précédent utilisait des données qui avaient été nettoyées afin que les élèves utilisateurs obtiennent tous les mêmes résultats...Notre école avait choisi SQL Server 2000 parce qu'il offre la fonctionnalité d'une base de données d'entreprise associée à  un faible prix et à  une maintenance facile. Nous étions libres de choisir le sujet d'analyse. Beaucoup d'autres élèves ont choisi les analyses de marketing ou de vente, mais comme nous avions un bagage de sciences naturelles, nous avons préféré les données géologiques et biologiques. En créant un data warehouse et en y pratiquant le data mining, nous avons constaté que SQL Server 2000 fournit un moyen rapide pour observer statistiquement les données géologiques.
Les scientifiques du monde entier amassent sans cesse de grandes quantités de données géologiques. C'est à  partir de ces sources que nous avons obtenu nos données échantillon. Comme SQL Server est plus facile à  utiliser que la méthodologie statistique traditionnelle, nous avons décidé de rassembler les sources de données existantes dans un data warehouse SQL Server. Nous avons dû aussi utiliser SQL Server pour vérifier les analyses originales des données géologiques, qui avaient été effectuées par des méthodes statistiques usuelles. Nous avons construit deux data warehouses à  partir de deux sources de données géologiques différentes. Ces sources étaient comparativement petites parce que notre projet était académique ; mais nous pensons que les constatations garderaient toute leur pertinence quelle que soit la taille de l'ensemble de données. Un ensemble de données constitué de plus de 20 fichiers provenait d'une étude de Eastern Continental Shelf qui avait été collectée et analysée par le United States Geological Survey (USGS) entre 1955 et 1970. La seconde base de données contenait les résultats d'une étude des effets de la décomposition de l'enfouissement de six espèces de bois différentes aux Bahamas et dans le Golfe du Mexique. La quantité de bois qui se conserve ou se désagrège dans l'eau dans le monde est phénoménale. La décomposition du bois produit des gaz à  effet de serre, mais ce phénomène cesse quand le bois est enfoui. Cette étude est intéressante parce qu'elle procure aux scientifiques des informations supplémentaires précieuses sur les sources d'émission d'hydrocarbures dans notre atmosphère.

Lire l'article
Actualités – Novembre 2003

Actualités – Novembre 2003

Les actualités SQL Server pour le mois de Novembre

Lire l'article
Beaucoup d’ADO pour rien

Beaucoup d’ADO pour rien

par William Vaughn - Mis en ligne le 17/03/2004

Parmi les moyens que les développeurs désirent le plus, on trouve une manière éprouvée de déterminer les meilleurs moyens pour tester et établir des valeurs NULL dans leurs applications - quel que soit leur langage.Par exemple, quand ils doivent signifier que les dates DateShipped et Date- Died ont été atteintes et ne sont pas connues, la plupart des développeurs de bases de données relationnelles doivent définir ces données et d'autres colonnes de données similaires pour permettre des valeurs NULL. A noter qu'une valeur NULL dans une colonne de données n'est pas la même chose qu'une chaîne vide ou NULL ou tout autre occupant qui peut servir à  montrer que la valeur n'est pas connue. Le langage que vous utilisez peut traiter une chaîne vide ou une valeur placeholder (comme Unknown) comme une chaîne ou une valeur valide et peut stocker un NULL comme une valeur « connue » dans la base de données. Le concept de l'état NULL existe dans les bases de données relationnelles depuis leur création et les NULL ont toujours suscité un traitement spécial. Sans trop m'étendre sur la pertinence qu'il y a à  utiliser des NULL, j'estime que NULL est un meilleur placeholder que BHOM (Beats the Hell Out of Me) que j'utilisais quand j'enseignais la programmation dans l'armée US.
En ADO classique, les développeurs sont confrontés à  des valeurs NULL parce qu'ils ne peuvent pas attribuer un NULL à  une variable numérique, une chaîne, la propriété Value d'un contrôle TextBox, ou tout contrôle qui n'accepte un type de données variant (que l'on peut mettre à  NULL). Si l'on oublie de traiter les valeurs NULL et si l'on essaie d'attribuer un NULL à  un contrôle TextBox, Visual Basic (VB) 6.0 émet un message d'erreur Invalid Use of NULL (94). Mais ADO.NET et Visual Basic .NET prennent mieux en charge les valeurs NULL. Quand on travaille avec le CLR (Common Language Runtime) et les langages .NET, ADO.NET permet de stocker, de définir, et de tester des valeurs NULL de diverses manières - beaucoup plus qu'avec ADO classique. Cet article utilise Visual Basic .NET pour présenter la façon dont ADO.NET et Visual Basic .NET traitent la valeur NULL.

Lire l'article
Diviser et conquérir

Diviser et conquérir

par Edward Whalen, Geoff Langos et Alexander Stamenkovich - Mis en ligne le 26/11/2003

Reconception architecturale + réplication transactionnelle = performance écrasante

Les DBA savent que le premier pas, pour déterminer la viabilité et la capacité à  long terme d'un système, consiste à  effectuer des mesures de supervision des performancesLes DBA savent que le premier pas, pour déterminer la viabilité et la capacité à  long terme d'un système, consiste à  effectuer des mesures de supervision des performances. C'est dans cet esprit que, voilà  plusieurs années, nous avons conçu un programme chargé de suivre les variations des performances dans le système de traitement d'un centre d'appel sous Windows NT et SQL Server 7.0. Au début, nous avons constaté que le Performance Monitor nous donnait bien un programme chargé de suivre les variations des performances dans le système de traitement d'un centre d'appel sous Windows NT et SQL Server 7.0. Au début, nous avons constaté que le Performance Monitor nous donnait bien long terme en prenant des instantanés chaque demi-heure de certaines mesures comme l'utilisation de la CPU et des I/O, le nombre d'utilisateurs et de processus, les traitements de commandes, et les transactions. Nous avons rangé ces mesures dans une base de données SQL Server. L'année où nous avons commencé notre programme de supervision, nous n'avons recueilli les données que pour quelques mois consécutifs. Et constaté ainsi que les données glanées pendant une période aussi courte ne produisaient que des informations à  court terme: trop peu de points de données pour dessiner une tendance. En revanche, l'année suivante, quand nous avons supervisé des tranches de temps plus longues, les données recueillies ont révélé des tendances significatives. En une année, nous avons observé une hausse inquiétante de l'utilisation de la CPU que nous avons attribuée à  une augmentation des fonctions applicatives personnalisées dans le centre et à  l'ajout de nombreux utilisateurs du système.

Lire l'article