Le meilleur de Web Matrix
par Michael Otey - Mis en ligne le 20/10/2004 - Publié en Octobre 2003
Web Matrix est un outil de développement
d'application graphique destiné
au nouveau framework applicatif
Web ASP.NET de Microsoft. Téléchargeable
gratuitement, il inclut un sousensemble
des fonctions de développement
de Visual Studio .NET.C'est aussi
un excellent moyen de se mettre dans
le bain en utilisant ASP.NET sans acquérir
une copie complète de Visual
Studio .NET. Web Matrix requiert
Windows XP ou Windows 2000 et est livré
avec le support pour les bases de
données SQL Server et MSDE
(Microsoft Data Engine). Pour télécharger
l'outil, allez à http://www.asp.
net et sélectionnez l'onglet Web Matrix
en haut de la page. Voici les sept points
forts de Web Matrix.
Le nouveau Visual Studio .Net
par Michael Otey - Mis en ligne le 24/11/2004 - Publié en Décembre 2003
Visual Studio .NET a été accueilli
sans enthousiasme dans sa première
année. A cela, deux raisons principales
: le marasme économique et la
difficulté des développeurs pour
apprendre les nouveaux langages
Microsoft .NET ...Avec Visual Studio
.NET 2003, Microsoft entend bien accélérer
le rythme d'adoption du produit
dans les entreprises. Voici sept
nouvelles fonctions importantes de
Visual Studio .NET 2003, pour les développeurs
base de données.
Trop, c’est combien ?
par Jeffrey Bane - Mis en ligne le 29/09/2004 - Publié en Octobre 2003
En conception de base de données, la bonne relation est primordiale
Si le rôle de l'administrateur et du
développeur de bases de données modernes
se limitait à coder SQL et à assurer
de bonnes sauvegardes, nous
dormirions tous probablement mieux
et pourrions consacrer davantage de
temps à nos loisirs. Malheureusement,
nous devons aussi avant tout mettre en
oeuvre des bases de données efficaces...Cette tâche est l'une des plus délicates
dans le monde des bases de données,
car la conception et la mise en oeuvre
d'une base de données est un exercice
lourd de conséquences positives ou
négatives.
Le temps et l'expérience aidant, on
atteint une certaine aisance malgré
l'ampleur de la tâche. Et vous atteignez
un point dans votre courbe d'apprentissage
de développement de base de
données où vous maîtrisez bien l'application
des relations many-to-many
(M:N) (de plusieurs à plusieurs) entre
les tables. Parfois même, vous vous
sentez tellement à l'aise que vous avez
tendance à abuser de ces relations.
Si vous êtes un développeur de
bases de données débutant, la relation
M:N risque de vous intimider. Mais,
après plusieurs utilisations, vous constaterez
qu'elle est relativement simple
à identifier, concevoir et mettre en
oeuvre. En général, parvenue à ce point
de maîtrise, la courbe d'apprentissage
se heurte à un mur. Très peu de développeurs
et de concepteurs de bases
de données se risquent au-delà des relations
« Big 3 » : one to one (1:1), one
to many (1:M) et M:N, pour découvrir
les autres types de relations pouvant
exister dans un schéma relationnel.
Peu de gens explorent, mais moins encore
maîtrisent, des types de relations
plus obscures du genre tertiaire ou nomenclature.
Pourtant, ces relations ne
sont que de simples extensions des
trois types de relations avec lesquelles
vous vous sentez à l'aise. Par exemple,
une relation nomenclature n'est rien
d'autre qu'une entité qui a des relations
M:N avec elle-même. Dans cette
relation, une entité pièces est constituée
d'autres pièces qui, à leur tour,
sont constituées de - vous l'aviez deviné
- encore d'autres pièces. Mais, si
l'on comprend les relations M:N, on
est tout près de comprendre la relation
nomenclature.
Ces types de relations moins
usuelles ne doivent pas constituer un
mystère dans vos schémas de bases de
données. Pour démystifier ces relations,
voyons la relation supertype-
subtype sous-utilisée et souvent incorrectement
mise en oeuvre. Elle est
aussi connue sous le nom de relation
superclass-subclass. Si vous avez déjà
pratiqué le développement orienté objet,
vous connaissez cette relation,
dans laquelle plusieurs entités partapartagent
certains attributs, mais pas tous.
A noter que dans cet article, je
couvre principalement la mise en
oeuvre physique d'une relation supertype-
subtype, en expliquant la logique
de ce type de relation et en soulignant
les gains de performances spectaculaires
qu'elle permet. Pour une explication
approfondie des relations supertype-
subtype au niveau logique, voir
l'article classique de Michel Poolet
« Supertypes and Subtypes », mai 1999,
sur www.itpro.fr.
9 conseils en services d’analyse
par Tom Chester - Mis en ligne le 14/04/2004
Essayez ces meilleures pratiques non orthodoxes mais efficaces dans votre
prochain projet
Voilà 4 ans que Microsoft a redéfini
le marché OLAP en introduisant
Analysis Services (dénommé à l'origine
OLAP Services), la base de données
analytique multidimensionnelle intégrée
dans SQL Server. Dans ce laps de temps, j'ai rassemblé une liste d'astuces
et de bonnes pratiques moins
connues qui peuvent grandement aider
les développeurs d'Analysis
Services. Ces neuf conseils et techniques,
qui vont du banal au sublime,
vont à contre-courant de la pratique
courante. Mais cette dernière n'est
pas forcément la meilleure, et l'une
de ces astuces pourrait bien déterminer
la réussite de votre prochain
projet.
Log Explorer 3.03
par Ron Talmage - Mis en ligne le 14/04/2004
Récupérez sélectivement les données du journal de transactions
Lumigent Technologies vient d'annoncer
une nouvelle version de Log
Explorer, l'un des produits tierce partie
les plus vendus dans l'espace SQL
Server. Log Explorer lit un journal de transactions SQL Server 2000 ou 7.0 et
décode les informations en un format
lisible. Log Explorer permet d'analyser
des historiques de transactions, mais il
permet surtout de récupérer sélectivement
des données. Cette dernière faculté
particulièrement précieuse est
encore améliorée dans la nouvelle release,
Log Explorer 3.03.
Nager dans le .Net Connection Pool
par par William Vaughn - Mis en ligne le 24/08/2004 - Publié en Décembre 2003
Concevez et configurez votre connection pool .NET en utilisant du bon sens,
des requêtes ordinaires, et une poignée de propriétés SqlClient peu connues
En tant qu'instructeur et consultant
en ADO.NET et Visual Basic (VB), on
m'interroge souvent sur l'utilisation
des pools de connexion d'ADO.NET...Ces questions viennent de clients,
d'étudiants, de newsgroups et de serveurs
de listes. Les questions posées
sont du genre :
- Comment puis-je activer et désactiver le connection pool ?
- Combien de connexions sont déjà dans le pool ?
- ADO.NET et ADO semblent se bloquer après environ 100 connexions. Pourquoi ne peuvent-ils pas ouvrir davantage de connexions ?
- Comment puis-je reconnaître l'utilisateur exécutant le code dans la chaîne de connexion sans épuiser rapidement les connexions ?
- Comment puis-je m'assurer que seules les personnes autorisées ont accès à la base de données et continuer à tirer parti du connection pool ?
- Comment puis-je partager une connexion commune entre différentes parties de mon application ?
Database Editor Tool Kit for Desktop
Isotupa Consulting annonce Database Editor Tool Kit for Desktop, logiciel pour les développeurs et intégrateurs systèmes.
Cette solution permet de mettre en place des applications rapidement.
Lire l'article
AppDetective 3.1.8contre les vulnérabilités
Application Security annonce AppDetective 3.1.8, logiciel d'évaluation des vulnérabilités qui peut vérifier trois nouvelles vulnérabilités SQL Server : « named pipe hijacking », « named pipe » Deni de services (DoS), les problèmes dans les appels de procédures locales (LPC).
En outre, AppDetective peut vérifier si vous avez installé un patch qui empêche d'indiquer un nom de compte sur lequel SQL Server fonctionne.
Lire l'article
Arbres XML : Pas à pas
par Julian Watson - Mis en ligne le 19/05/2004
Comment renvoyer des données sous forme de XML hiérarchique
Les bases de données relationnelles
stockent souvent leurs données dans
une structure arborescente ou hiérarchique,
où chaque élément est associé
à un autre, selon une relation parentenfant.L'exemple le plus courant est la
structure ou organigramme de direction
d'une société comme celle que
montre la figure 1. La hiérarchie a généralement
une profondeur arbitraire
et chaque élément ne contient des informations
que sur sa position relative
dans l'arbre. A en juger par les nombreuses
questions des newsgroups,
une exigence courante se dessine : utiliser
SQL Server pour renvoyer la totalité
de l'arbre en format XML. Par
exemple, beaucoup doivent afficher
une hiérarchie sur une page ou un rapport
Web. La figure 2 montre un arbre
affiché en mode XML.
Bien que le support XML de SQL
Server 2000 soit souple, il ne permet
pas de renvoyer XML hiérarchique, selon
une profondeur arbitraire. Mais on
peut obtenir ce résultat grâce à la commande
FOR XML EXPLICIT T-SQL.
Certaines techniques d'accès à des
données hiérarchiques par l'intermédiaire
de T-SQL peuvent devenir très
complexes. Cet article explique les
techniques et bâtit le T-SQL en petites
étapes pour en faciliter la compréhension.
En cours de trajet, j'aborde des
méthodes comme l'utilisation de SQL
dynamique et je révèle quelques trucs
et astuces, y compris comment utiliser
des tables temporaires au lieu
d'UNIONs dans vos instructions FOR
XML EXPLICIT pour réduire la taille et
la complexité de ces instructions.
L'article suppose une bonne connaissance
de XML sur SQL Server 2000 et
l'utilisation de la table universelle.
SQL Server 2000 64 bits Enterprise Edition
par Michael Otey - Mis en ligne le 19/05/2004
Avez-vous besoin du surcroît de puissance de SQL Server 2000
64 bits Enterprise Edition ?
Depuis sa release 7.0 en 1998, SQL
Server a pris sa vitesse de croisière, éliminant
les obstacles qui freinaient l'adoption
des versions SQL Server précédentes dans
l'entreprise.Une nouvelle technologie de
large diffusion, dite vues partitionnées
distribuées, a propulsé SQL Server en tête
des classements TPC-C pour systèmes base
de données en cluster. (TPC-C est un
benchmark standard pour systèmes base de
données, conçu par le TPC (Transaction
Performance Processing Council) qui rassemble
tous les principaux fournisseurs de
bases de données. Le test TPC-C mesure les
transactions par minute - ou tpmC.) SQL
Server a aussi fait irruption dans le top 10
de TPC-C pour systèmes non clustered,
mais sans damer le pion aux meilleures solutions
base de données d'IBM et Oracle
qui fonctionnaient, il est vrai, sur un matériel
plus puissant. Cela étant, SQL Server a
continué à gagner nettement en évolutivité
et la nouvelle SQL Server 2000 64 bits
Enterprise Edition (nom de code précédent
Liberty) rapproche encore plus SQL Server
du sommet en matière d'évolutivité d'entreprise.
Examinons donc les fonctions de
SQL Server 64 bits et voyons dans quelles
conditions il est judicieux de déployer cette
nouvelle plate-forme puissante.
BizTalk Server 2004, le serveur d’intégration de Microsoft
BizTalk Server 2004, le serveur d'intégration de Microsoft, assure la fonction de chef d'orchestre des échanges inter applicatifs entre les acteurs internes et externe à l'entreprise.
Les développeurs pourront capitaliser sur leur expérience en s'appuyant sur l'environnement de développement unifié Visual Studio .NET intégré à BizTalk Server 2004.
Lire l'article
Testez par unités vos procédures stockées
par Dan Sawyer - Mis en ligne le 21/01/2004
Mettez en forme votre code de procédure
Imaginez ceci : vous venez juste de finir
le débogage de la dernière procédure
stockée pour la dernière application
SQL Server du département.
Etes-vous satisfait de votre travail ? Etesvous
certain que votre code T-SQL sera
à la hauteur des attentes des utilisateurs
? Quid des fonctionnalités que
vous avez placées dans le code ? ...
Imaginez ceci : vous venez juste de finir le débogage de la dernière procédure stockée pour la dernière application SQL Server du département. Etes-vous satisfait de votre travail ? Etesvous certain que votre code T-SQL sera à la hauteur des attentes des utilisateurs ? Quid des fonctionnalités que vous avez placées dans le code ? Avezvous couvert tous les aspects de la gestion ? Chaque fonction tient-elle ses promesses comme prévu dans tous les scénarios d'exploitation normaux?
Même si vous pouvez répondre par
oui à toutes ces questions, le moment
de relâcher votre effort n'est pas encore
venu. Qu'en est-il des suites possibles
? Avez-vous testé les conditions
d'erreur courantes qui ont causé des
problèmes par le passé ? Et qu'en est-il
des gestionnaires d'erreurs ? Sont-ils eux-mêmes impeccables ? Si vous vous
sentez faiblards dans l'un de ces domaines,
il vaut peut-être mieux réévaluer
la manière dont vos procédures
stockées sont testées par unités.
Contrairement aux tests système
que les testeurs professionnels effectuent
après qu'une application ait été
entièrement codée, le test par unités
recherche les erreurs dans des modules
individuels, comme les procédures
stockées, tout au long du développement
de ces modules. Le test par
unités n'est pas difficile mais, pour être
efficace, il exige du planning, de la documentation
et, par-dessus tout, une
compréhension partagée de certains
principes de base. Donc, avant de plonger
dans le processus de test, commençons
par dissiper quelques préjugés
courants sur le test par unités, qui nuisent
souvent à son efficacité.
Audit des bases de données MS SQL Server 7 et 2000
iNetsoft propose un outil pour l'audit des bases de données MS SQL Server 7 et 2000 : OmniAudit de l'éditeur américain Krell Software.
OmniAudit permet d'identifier de manière automatique et transparente toutes les modifications apportées aux données dans vos bases de données Microsoft SQL Server 7.0 ou 2000.
Lire l'article
Dénicher des profils et des tendances
par Christine Y. Mato et Greg Meyer - Mis en ligne le 17/03/2004
Une application géologique de data warehousing et de data mining avec
SQL Server 2000
Pour notre master's degree program
en Management of Information Systems,
nous avons dû réaliser un projet
d'analyse visant à apprendre les
nuances du data mining en utilisant
des données « réelles ». Notre travail
précédent utilisait des données qui
avaient été nettoyées afin que les
élèves utilisateurs obtiennent tous les
mêmes résultats...Notre école avait
choisi SQL Server 2000 parce qu'il offre
la fonctionnalité d'une base de données
d'entreprise associée à un faible
prix et à une maintenance facile. Nous
étions libres de choisir le sujet d'analyse.
Beaucoup d'autres élèves ont
choisi les analyses de marketing ou de
vente, mais comme nous avions un bagage
de sciences naturelles, nous
avons préféré les données géologiques
et biologiques. En créant un data warehouse
et en y pratiquant le data mining,
nous avons constaté que SQL
Server 2000 fournit un moyen rapide
pour observer statistiquement les données
géologiques.
Les scientifiques du monde entier
amassent sans cesse de grandes quantités
de données géologiques. C'est à
partir de ces sources que nous avons
obtenu nos données échantillon.
Comme SQL Server est plus facile à utiliser
que la méthodologie statistique traditionnelle, nous avons décidé de
rassembler les sources de données
existantes dans un data warehouse
SQL Server. Nous avons dû aussi utiliser
SQL Server pour vérifier les analyses
originales des données géologiques,
qui avaient été effectuées par
des méthodes statistiques usuelles.
Nous avons construit deux data warehouses
à partir de deux sources de
données géologiques différentes. Ces
sources étaient comparativement petites
parce que notre projet était académique
; mais nous pensons que les
constatations garderaient toute leur
pertinence quelle que soit la taille de
l'ensemble de données. Un ensemble
de données constitué de plus de 20 fichiers
provenait d'une étude de
Eastern Continental Shelf qui avait été
collectée et analysée par le United
States Geological Survey (USGS) entre
1955 et 1970. La seconde base de données
contenait les résultats d'une
étude des effets de la décomposition
de l'enfouissement de six espèces de
bois différentes aux Bahamas et dans le
Golfe du Mexique. La quantité de bois
qui se conserve ou se désagrège dans
l'eau dans le monde est phénoménale.
La décomposition du bois produit des
gaz à effet de serre, mais ce phénomène
cesse quand le bois est enfoui.
Cette étude est intéressante parce
qu'elle procure aux scientifiques des
informations supplémentaires précieuses
sur les sources d'émission
d'hydrocarbures dans notre atmosphère.
Beaucoup d’ADO pour rien
par William Vaughn - Mis en ligne le 17/03/2004
Parmi les moyens que les développeurs
désirent le plus, on trouve une
manière éprouvée de déterminer les
meilleurs moyens pour tester et établir
des valeurs NULL dans leurs applications
- quel que soit leur langage.Par
exemple, quand ils doivent signifier
que les dates DateShipped et Date-
Died ont été atteintes et ne sont pas
connues, la plupart des développeurs
de bases de données relationnelles
doivent définir ces données et d'autres
colonnes de données similaires pour
permettre des valeurs NULL. A noter
qu'une valeur NULL dans une colonne
de données n'est pas la même chose
qu'une chaîne vide ou NULL ou tout
autre occupant qui peut servir à montrer
que la valeur n'est pas connue. Le
langage que vous utilisez peut traiter
une chaîne vide ou une valeur placeholder
(comme Unknown) comme
une chaîne ou une valeur valide et
peut stocker un NULL comme une valeur
« connue » dans la base de données.
Le concept de l'état NULL existe
dans les bases de données relationnelles
depuis leur création et les NULL
ont toujours suscité un traitement spécial.
Sans trop m'étendre sur la pertinence
qu'il y a à utiliser des NULL, j'estime
que NULL est un meilleur
placeholder que BHOM (Beats the
Hell Out of Me) que j'utilisais quand
j'enseignais la programmation dans
l'armée US.
En ADO classique, les développeurs
sont confrontés à des valeurs
NULL parce qu'ils ne peuvent pas attribuer
un NULL à une variable numérique,
une chaîne, la propriété Value
d'un contrôle TextBox, ou tout
contrôle qui n'accepte un type de données
variant (que l'on peut mettre à
NULL). Si l'on oublie de traiter les valeurs
NULL et si l'on essaie d'attribuer
un NULL à un contrôle TextBox, Visual
Basic (VB) 6.0 émet un message d'erreur
Invalid Use of NULL (94). Mais
ADO.NET et Visual Basic .NET prennent
mieux en charge les valeurs NULL.
Quand on travaille avec le CLR
(Common Language Runtime) et les
langages .NET, ADO.NET permet de
stocker, de définir, et de tester des valeurs
NULL de diverses manières -
beaucoup plus qu'avec ADO classique.
Cet article utilise Visual Basic .NET
pour présenter la façon dont ADO.NET
et Visual Basic .NET traitent la valeur
NULL.
Diviser et conquérir
par Edward Whalen, Geoff Langos et Alexander Stamenkovich - Mis en ligne le 26/11/2003
Reconception architecturale + réplication transactionnelle = performance écrasante
Les DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performancesLes DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performances. C'est dans cet esprit que,
voilà plusieurs années, nous avons conçu un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien long terme en prenant des instantanés
chaque demi-heure de certaines mesures
comme l'utilisation de la CPU et
des I/O, le nombre d'utilisateurs et de
processus, les traitements de commandes,
et les transactions. Nous avons
rangé ces mesures dans une base de
données SQL Server. L'année où nous
avons commencé notre programme de
supervision, nous n'avons recueilli les
données que pour quelques mois consécutifs.
Et constaté ainsi que les données
glanées pendant une période aussi
courte ne produisaient que des informations
à court terme: trop peu de points
de données pour dessiner une tendance.
En revanche, l'année suivante, quand nous avons supervisé des tranches de
temps plus longues, les données recueillies
ont révélé des tendances significatives.
En une année, nous avons observé
une hausse inquiétante de
l'utilisation de la CPU que nous avons attribuée
à une augmentation des fonctions
applicatives personnalisées dans le
centre et à l'ajout de nombreux utilisateurs
du système.
Les plus consultés sur iTPro.fr
- Agents IA : de l’expérimentation à la gouvernance, le nouveau rôle des CTO
- Alerte sur les escroqueries reposant sur les deepfakes
- Explosion des interactions vocales avec l’IA générative d’ici 2028
- Les entreprises doivent revoir leur stratégie de résilience des données en profondeur
- Microsoft Patch Tuesday Octobre 2025
Sur le même sujet
ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
10 grandes tendances Business Intelligence
Les projets d’intégration augmentent la charge de travail des services IT
La blockchain en pratique
