Administrer tous les browsers Web de l’entreprise avec IEAK
La modification d'un tout petit paramètre sur le PC de tous vos utilisateurs peut 
simplifier l'administration quotidienne, mais la taille du parc machine de votre 
entreprise et le travail qui s'empile sur votre bureau risquent fort de ne pas 
vous permettre de procéder à  ce petit changement. Une fonction peu connue d'Internet 
Explorer (IE), baptisée configuration automatique, peut résoudre ce problème et 
contribuer à  faire baisser le coût global de possession (TCO).
Les OS modernes ont atteint un niveau de complexité parfois difficile à  gérer 
et les administrateurs doivent souvent évaluer les modifications d'infrastructure 
au cas par cas. 
Malheureusement, il leur faut bien faire le lien entre les changements logiques 
et le coût de leur mise en oeuvre.
Parfois, il suffit d'une petite modification sur tous les ordinateurs de la société 
pour améliorer l'administration quotidienne, mais intervenir sur tous les postes 
de travail est souvent impossible. Avec la configuration automatique du kit d'administration 
de Microsoft Internet Explorer (IEAK pour Internet Explorer Administration Kit), 
peut résoudre ce problème et contribuer à  faire baisser le coût global de possession 
(TCO). Cette fonction permet, en quelques clics de souris et frappes de touches 
sur une machine, de modifier les paramètres de l'application sur les milliers 
d'ordinateurs de votre organisation. 
                SQL Server 2000 : Le modèle OIM
Un groupe d'éditeurs et d'entreprises utilisatrices a formalisé les types de métadonnées 
pour les entrepôts de données. C'est devenu l'OIM (Open Information Model)
Avant les efforts de normalisation de Microsoft, les éditeurs et la communauté 
informatique ne parvenaient guère à  se mettre d'accord sur le type de métadonnées 
qu'un entrepôt de données devait contenir. 
Par la suite, Microsoft a entrepris de réunir les principaux éditeurs et les entreprises 
utilisatrices pour déterminer ces types de métadonnées. A l'instar du modèle objet 
pour une application, le modèle d'information pour un référentiel définit le genre 
de métadonnées stockées dans l'entrepôt de données, et la manière dont ces données 
sont organisées.
Ces efforts ont conduit à  la définition de l'OIM (Open Information Model). Celui-ci 
contient les définitions d'approximativement 300 types d'objets et des relations 
entre ces types d'objets. La documentation de ces types représente une tâche laborieuse 
; le groupe a pour mission de définir et de documenter clairement chaque type 
ainsi que ses caractéristiques et relations nécessaires. 
Etant donné que le modèle d'information définit les métadonnées en termes de types 
d'objets et de relations, la recherche d'une technologie de modélisation d'objets 
appropriée est la solution évidente. Le groupe a choisi UML (Unified Modeling 
Language) pour documenter et publier le modèle d'information. Le standard OIM 
constitue le langage commun pour décrire les informations contenues dans un entrepôt 
de données.
En juillet 1999, Microsoft a transféré la propriété du standard OIM à  la MDC (Meta 
Data Coalition), un organisme indépendant qui se consacre à  la création de normes 
communes facilitant l'échange d'informations entre systèmes (métadonnées). Au 
fur et à  mesure que la MDC va faire évoluer le modèle, elle va encourager et aider 
les autres éditeurs à  prendre en charge le standard OIM au sein de leurs outils 
respectifs. La MDC publie les formats XML (Extensible Markup Language) comme méthode 
d'échange de données entre différents outils utilisant le standard OIM. Ce dernier 
limite la complexité de l'extraction et de l'insertion des données de/dans Microsoft 
Repository et les outils d'autres éditeurs. 
La version actuellement validée du standard OIM (initialement soumise par Microsoft 
et ses éditeurs partenaires) est la 1.0 ; une proposition de version 1.1 a été 
soumise en novembre 1999, et devrait en toute logique être validée en 2000. Les 
exemples et descriptions présentés dans le présent article s'appuient sur la version 
1.1. Ces exemples nécessitent la version 3 de Microsoft Repository, disponible 
avec SQL Server 2000. La version 2 de Repository ne supporte pas les collections 
ni les propriétés héritées, que le standard OIM MDC utilise intensivement.
Le standard OIM couvre de nombreux domaines, dont : 
· L'analyse et la conception d'UML, les extensions UML, les éléments génériques, 
les types de données communs et la modélisation entités-relations
· Objets et composants : description des composants 
· Base de données et entrepôts de données : schémas de bases de données relationnelles, 
transformations de données, schémas OLAP, schémas de bases de données orientés 
enregistrements, schémas XML et définitions des rapports
· Ingénierie de processus de gestion : objectifs commerciaux, règles et processus, 
éléments organisationnels.
· Gestion de la connaissance : descriptions des connaissances et définitions sémantiques
D'un point de vue data warehousing, les schémas de bases de données relationnelles, 
les transformations de données et les modèles de schémas OLAP sont les plus appropriés. 
On peut télécharger chaque modèle en tant que fichier .mdl depuis le site Web 
de la MDC, puis utiliser un outil de conception comme Visual Modeler ou Rational 
Rose pour le visualiser.
Chaque objet figurant dans un référentiel peut avoir trois propriétés : un nom 
(255 caractères au maximum), une courte description (255 caractères au maximum) 
et des commentaires (de longueur pour ainsi dire illimitée). Ces zones, qui sont 
la source d'une grand
                Mettez un tigre dans votre firewall
Indispensables pour sécuriser un réseau connecté à l'Internet, les firewalls ne suffisent plus pour garantir une protection suffisante. Ce sont en effet des systèmes statiques imposant un ensemble particulier de règles et permettant, par conséquent, à des pirates d'utiliser des paquets valides pour attaquer un réseau et en compromettre la sécurité. Pour une protection complète, surtout de Windows NT et du protocole IP, il vous faut plus qu'un simple firewall. Pour situer les problèmes potentiels, avant que des hackers (les intrus qui pénètrent les systèmes avec des intentions généralement malveillantes) ne les exploitent à l'intérieur ou à l'extérieur de votre réseau, vous avez le choix entre plusieurs outils de sécurité, tels que les scanners de ports, tests de vulnérabilité, analyseurs de journaux et autres détecteurs d'intrusion.
Lire l'article
                Commerce électronique : le marché aux puces
Beaucoup d'entreprises considèrent toujours les cartes à  puce comme une technologie 
futuriste. C'est peut-être le cas de la vôtre. Pour Windows 2000, en revanche, 
elles sont d'ores et déjà  une réalité bien actuelle, et bénéficieront donc d'un 
support extrêmement intégré.
Cet article présente les cartes à  puce, en expliquant leur importance et leur 
fonctionnement et comment commencer à  les utiliser dans Windows 2000. Nous détaillerons 
plus particulièrement la configuration d'une connexion avec la carte à  puce GemSAFE 
de Gemplus et le lecteur GCR410. Et comme cette technologie n'est pas parfaite 
non plus, nous verronségalement un certain nombre de risques qui lui sont inhérents.
Les cartes à  puce permettent de créer une infrastructure à  clé publique (PKI pour 
public key infrastructure), laquelle facilite, à  son tour, l'e-commerce. Une PKI 
permet d'atteindre un niveau de confiance pour les transactions électroniques, 
au moins égal à  celui de l'univers du papier et de la signature manuscrite. Une 
PKI peut garantir l'intégrité des messages, la confidentialité et le non-reniement. 
Vous ne pouvez pas nier avoir envoyé un message, s'il est signé de votre certificat 
numérique, puisque votre clé publique vérifie votre signature. 
Si une clé publique vérifie avec succès une signature, la seule personne qui a 
pu envoyer le message est celle qui détient la clé publique. La pierre angulaire 
de la sécurité d'une PKI est que la clé privée associée à  un certificat numérique 
doit rester privée. Sinon, un hacker peut utiliser une clé privée pour contrefaire 
facilement les transactions.
Les cartes à  puce permettent de créer une infrastructure à  clé publique 
(PKI), laquelle facilite, à  son tour, l'e-commerce 
                Intégrité référentielle avec SQL Server
par Kalen Delaney
La maintenance des relations logiques entre les tables est un élément essentiel de la gestion de base de données. Voici comment utiliser les nouvelles méthodes d'application de l'intégrité référentielle dans SQL Server 2000.Le maintien de relations solides est primordial.
La création et le maintien de relations logiques entre les tables constituent une partie fondamentale du travail avec des bases de données relationnelles. La plupart des bases de données doivent entretenir certaines relations, sous peine de corruption logique des données. Lorsque de telles relations existent, on dit que ces données disposent d'une intégrité référentielle. L'une des tables est la table référencée et l'autre, la table de référence ; les valeurs de la table de référence doivent correspondre aux valeurs de la table référencée. (Certaines utilisateurs qualifient cette relation de tables parent/enfant. Toutefois, cette terminologie implique une hiérarchie évitée par le modèle relationnel). SQL Server peut mettre en oeuvre automatiquement l'intégrité référentielle à  travers des contraintes de clés étrangères que vous aurez préalablement définies. Cette fonction est appelée intégrité référentielle déclarative (en anglais "Declarative Referential Integrity" ou DRI) en raison de sa présence dans la définition de la table. On peut également utiliser d'autres fonctions, comme les déclencheurs, pour imposer des relations ; on parle alors d'intégrité référentielle de procédure. Dans cet article, je présente comment gérer l'intégrité référentielle dans SQL Server, en accordant une attention particulière aux nouvelles fonctions intéressantes de SQL Server 2000.
	SQL Server 7.0 et les versions précédentes disposaient d'une seule méthode pour traiter les tentatives de violation des contraintes de clés étrangères. Si un utilisateur tente de modifier les données d'une table d'une manière qui pourrait violer l'intégrité référentielle (telle qu'elle est définie dans les clés étrangères), SQL Server empêche cette modification et renvoie un message d'erreur. SQL Server 2000 dispose d'une nouvelle fonction cascade pouvant traiter les violations de l'intégrité référentielle d'une autre manière, comme je vais vous le démontrer.
	Pour commencer, analysons rapidement un exemple permettant de clarifier ce que représente l'intégrité référentielle. La base de données Northwind dispose d'une table appelée Orders, et d'une autre, appelée Order Details. Dans la table Orders, la colonne OrderId représente la clé primaire identifiant chaque commande de manière unique. La table Order Details possède également une colonne OrderId mais, dans cette table, la colonne est une clé étrangère qui doit correspondre à  un OrderId existant de la table Orders. Dans cet exemple, la table Orders est la table référencée et la table Order Details est la table de référence. Si on définit une contrainte de clé étrangère pour mettre en oeuvre la relation entre les tables Orders et les Order Details, SQL Server vérifie que la modification de l'une de ces tables ne viole pas la relation. Si par exemple on essaye de supprimer un enregistrement de la table Orders alors que l'OrderId de cet enregistrement existe dans la table Order Details, la suppression violera la contrainte d'intégrité référentielle. Tenter de mettre à  jour une colonne OrderId de la table Orders lorsque la valeur d'origine, et non la nouvelle valeur, existe dans les Order Details, constitue également une violation. En outre, SQL Server doit vérifier chaque insertion dans Order Details pour s'assurer que le nouvel OrderId existe dans la table Orders, et doit vérifier toutes les mises à  jour de la colonne OrderId dans Order Details.
                Partager les connexions Internet
Le routage IP du LAN vers le WAN est un thème récurrent depuis plusieurs années. 
Cet article fait le point sur les aptitudes de Windows NT à  router le trafic IP. 
En1992, j'ai décidé d'établir mon entreprise sur le Web. Je me suis donc adressé 
à  un ISP pour me procurer 256 adresses IP. L'entreprise devait héberger ses propres 
serveurs Web et de messagerie et il fallait par conséquent des connexions Internet 
24 x 7. Au lieu d'acheter un routeur LAN-WAN de Cisco Systems ou autres constructeurs, 
je trouvai l'expérience beaucoup plus enrichissante de construire moi-même un 
routeur. 
Ce premier routeur devait servir à  traiter OS/2 2.0 et TCP/IP pour OS/2. Dès que 
Windows NT se mit à  supporter le routage IP, je remplaçai OS/2 par NT. Puis je 
rédigeai une série d'articles pour Windows 2000 Magazine pour expliquer comment 
faire d'un système NT un routeur LAN-WAN. 
es articles continuent à  générer une importante quantité de courrier, décrivant 
tous le même scénario et posant constamment la même question : J'ai 
un ordinateur chez moi connecté à  Internet par une liaison ADSL/modem câble/RNIS. 
J'ai aussi plusieurs autres machines chez moi. 
Comment configurer mon PC connecté à  Internet pour partager sa liaison Internet 
avec les autres machines ?
Après la publication des premiers articles, j'ai revu la question deux fois 
- d'abord lorsque Microsoft a sorti le code de routage amélioré RRAS (dit Steelhead), 
puis pour la sortie de Proxy Server 2.0. RRAS n'était pas la bonne réponse pour 
les télétravailleurs, car il exigeait que chaque machine ait une adresse IP fournie 
par l'ISP. Or, la création d'adresses aléatoires ne fonctionnait pas pour des 
machines domestiques. Proxy Server contournait le problème mais en posait un autre 
en raison des frais occasionnés - dans les 1000 dollars.
Avec Windows 98 SE ou Windows 2000 Professional, il suffit de quelques 
clics de souris et de rebooter pour profiter facilement du routage
  
 Mais avec Windows 98 Second Edition (Win98SE) ou Windows 2000 Professional, 
il suffit de quelques clics de souris et de rebooter les PC pour profiter facilement 
du routage. Win98SE devait être disponible au moment où vous lirez cet article 
et Windows 2000 Pro et Windows 2000 Server sortiront probablement très bientôt. 
Malheureusement Microsoft n'offrira pas Win98SE à  tout le monde - comme les versions 
OSR (Version de service OEM) de Win95, il ne sera disponible qu'avec l'achat d'un 
nouvel ordinateur. Mais si vous pouvez attendre jusqu'à  la sortie de Windows 2000 
ou si vous achetez un nouveau PC, le routage facile c'est pour bientôt. 
                Contrôlez vos services d’annuaire avec un proxy LDAP
Ces dernières années les services d'annuaire ont vu leur cote monter dans les 
entreprises. Le succès grandissant de Novell avec Novell Directory Services (NDS) 
et le lancement par Microsoft d'Active Directory (AD) ont été des raisons suffisantes 
pour décider un grand nombre d'entreprises à  explorer le potentiel des services 
d'annuaire dans leurs environnements. 
L'interface proxy LDAP (Lightweight Directory Access Protocol) séduit les entreprises 
en leur offrant un large éventail d'informations d'identité grâce à  une réplique 
virtuelle, sans la consommation de CPU impliquée par une duplication des données 
et la propagation des changements à  travers un réseau.
En 1995 LDAPv2 a inauguré un protocole d'accès d'annuaire standard et, en 1997, 
LDAPv3 a étendu le protocole en lui ajoutant plusieurs fonctions. 
Pour tout savoir sur LDAP, voir les RFC (Request for Comments) 1 777, pour LDAPv2, 
et 2 251, pour LDAPv3, de l'IETF à  l'adresse 
http://www.ietf.org/rfc.html
Les éditeurs ont immédiatement commencé à  développer des produits LDAP.
Par exemple, Microsoft a permis la consultation d'Exchange Server au moyen de 
LDAP. Dans d'autres produits compatibles LDAP, les éditeurs s'appuient sur un 
annuaire LDAP disponible pour stocker des données sur les utilisateurs, leurs 
profils et des informations de configuration.
Par exemple, les produits SiteMinder de Netegrity et FireWall-1 de Check Point 
Software Technologies utilisent soit des services d'annuaires propriétaires, soit 
un service d'annuaire d'éditeur tiers, comme Netscape Directory Server, pour stocker 
des informations sur les utilisateurs et les stratégies.
Pour un produit maintenant une base de données d'utilisateurs ou un annuaire interne, 
il ne faut que quelques efforts de développement pour permettre la consultation 
de la base de données ou de l'annuaire via LDAP. En revanche l'utilisation d'annuaires 
LDAP est plus difficile car les produits LDAP comptent sur une entreprise pour 
avoir un annuaire supportant les besoins spécifiques des applications. 
La fonctionnalité LDAP rend aussi plus difficile le support entre produits. 
Lorsque AD aura acquis une position de force et offrira un niveau de service garanti 
et des informations sur lesquelles les autres applications pourront s'appuyer, 
on assistera probablement à  une forte reprise de l'activité LDAP. 
Actuellement, trois éditeurs proposent des serveurs proxy LDAP autonomes : Innosoft 
International, avec ILPS (Innosoft LDAP Proxy Server), MaXware Benelux avec MLPS 
(MaXware LDAP Proxy Server) et NEXOR avec DBA (Directory Boundary Agent).
La médiation LDAP peut aider à  garder le contrôle lorsqu'il s'agit d'accorder 
l'accès à  plusieurs ressources compatibles LDAP, en l'absence de solution de métaannuaire 
intégrale ou d'une maîtrise totale des ressources compatibles LDAP, dont il faut 
autoriser l'accès. 
Nous allons examiner les services proxy LDAP liés aux services d'annuaire, un 
certain nombre de serveurs proxy LDAP disponibles, ainsi que les limites et les 
avantages de l'utilisation d'un proxy LDAP. Je donnerai également quelques conseils 
sur l'opportunité d'une implémentation de services proxy.
Un proxy LDAP est un médiateur entre un client LDAP et une ou plusieurs 
ressources compatibles LDAP, généralement des serveurs  
                Comment se faire payer on-line
Les options de paiement électronique se multiplient : faites votre choix avec 
précaution. 
Que votre entreprise soit traditionnelle ou un 
commerce on-line, les clients doivent vous payer vos produits et services. Une 
entreprise traditionnelle se sentira probablement plus à  l'aise en recevant des 
espèces et des chèques.
Toutefois, bien que l'argent liquide soit en principe une valeur sûre, un chèque 
est moins sûr. 
En effet, même après avoir réceptionné un chèque, on ne peut pas encore être certain 
de l'encaisser. Ce n'est que quelques jours plus tard, lorsque la banque encaissera 
le chèque que l'on a déposé que l'on peut être sûr d'avoir été payé.
Le paiement par le biais de certaines transactions financières électroniques offre 
plus de garanties.
De plus, pour les entreprises on-line, être capable de gérer les modes de paiement 
électroniques est une nécessité Les banques préfèrent les transactions électroniques 
car elles sont plus efficaces et moins chères à  gérer. Avec l'EDI, par exemple, 
une entreprise cliente peut envoyer un ordre de paiement à  sa banque afin que 
celle-ci transfère des fonds à  la banque du fournisseur électroniquement. La banque 
réceptrice notifie le fournisseur de la date et du montant du transfert à  l'avance, 
de sorte que l'entreprise puisse organiser et planifier sa trésorerie. 
Cependant, nous devons désormais faire face à  un nouveau défi : les informations 
concernant les ordres de paiement et de versement circulent sur l'Internet.
Quelles sont les possibilités de paiement que les consommateurs et les entreprises 
peuvent utiliser sur le Web, et quels sont leurs degrés de fiabilité ? 
Les banques prévoient deux types de paiement pour les transactions de commerce 
électronique : des mécanismes de paiement en temps réel (porte-monnaie électroniques, 
cartes à  puce) et des mécanismes de paiement différés (chèques électroniques, 
cartes de paiement, cartes de crédit).
La moitié des différends et fraudes liés à  l'usage des cartes de crédit concernent 
des transactions on-line, qui ne représentent que 2% des volumes 
                Et si le e-business vous mettait sur la paille ?
Réfléchissez-y à  deux fois avant de vous engager dans l'aventure du e-business 
En matière de e-business, ou commerce électronique, il est difficile de distinguer 
la réalité des mirages.
Partout, ce ne sont qu'articles sur ses avantages potentiels et sur comment « 
tout le monde s'y met ».
Mais, en réalité, tout le monde n'est pas en train de sauter dans le train du 
e-business. Beaucoup d'éventuels investisseurs se méfient de cette nouvelle manière 
de faire des affaires, se demandant s'ils peuvent lutter sur ce nouveau e-marché, 
qui évolue et change rapidement.
Ces 
Saint-Thomas ont bien raison d'hésiter. D'après le U.S. Department of Commerce, 
le commerce électronique représente moins de deux pour cent du chiffre d'affaires 
total réalisé en Amérique du Nord.
Le lancement dans l'aventure e-business au mauvais moment, avec de mauvaises 
applications et des attentes irréalistes, peut réellement 
conduire à  la catastrophe
 
Face à  de tels chiffres, difficile de croire les avertissements des 
prophètes du e-commerce selon lesquels, faute de se connecter sur-le-champ, la 
faillite guette. En réalité, le lancement dans l'aventure e-business au mauvais 
moment, avec de mauvaises applications et des attentes irréalistes, peut réellement conduire à  la catastrophe. 
Une prudente expectative semble être l'attitude la plus sage, car elle permet 
de voir comment diverses autres entreprises ont confié au Web leurs diverses fonctions 
commerciales.
                Le pouvoir du filtrage de paquets
Sans une forme de firewall, le réseau d'une entreprise est grand ouvert à quiconque se connecte au même réseau public. Le filtrage des paquets est une des méthodes les plus courantes pour construire un firewall. Cette technique permet de contrôler le mouvement des paquets IP selon leur contenu. Comme son nom l'indique, le filtrage de paquets filtre les paquets IP en fonction d'un ensemble de règles définies au niveau des routeurs ou de toute unité de capable de router des paquets, comme Windows NT Server. On peut définir des règles de filtrage de paquets pour un ensemble constitué d'adresses de serveur, de protocoles, d'applications, de directions de connexion et de types de messages. Les spécificités de la mise en oeuvre du filtrage dépendent de votre équipement et des fournisseurs. Pour comprendre le filtrage de paquets, il faut connaître les relations entre les couches de protocole TCP/IP. Il faut également comprendre comment le filtrage de paquet dépend des divers protocoles TCP/IP.
Lire l'article
                Publier des applications sur le Web avec ICA
De nombreuses entreprises adoptent Windows NT Server 4.0, Terminal Server Edition 
et Citrix Metaframe pour déployer leurs applications Windows vers leurs utilisateurs. 
Avec les solutions centrées sur le serveur, les entreprises ont découvert qu'elles 
pouvaient déployer des applications actuelles complètes vers pratiquement tous 
les clients de leur réseau - tout en consommant une bande passante raisonnable 
pour cela. 
En fait, certaines sociétés préfèrent permettre à  leurs employés et clients d'accéder 
à  leurs applications de coeur de métier en utilisant une connexion Internet existante. 
L'architecture ICA de Citrix permet cela. ICA est un standard permettant de fournir 
des applications d'entreprise à  une grande variété de plates-formes clientes et 
de réseaux. Avec ICA, le serveur distingue la logique de l'application de l'interface 
utilisateur et n'envoie que l'interface de l'application au client. L'application 
tourne entièrement sur le serveur.
Les applications déployées avec ICA consomment jusqu'à  10 fois moins de bande 
passante que ce qu'elles réclament normalement - entre 10 et 20 Ko par session 
utilisateur environ.Mettre des applications publiées à  disposition des bonnes 
personnes sans pour autant ouvrir des brèches béantes dans votre réseau est une 
tâche essentielle et stratégique. Pour cela, vous devez comprendre comment offrir 
les applications à  des clients légers Windows NT à  travers un firewall, mais vous 
devez également savoir comment préserver un haut niveau de sécurité.
En tant qu'ingénieur réseau, je suis nerveux dès que l'on me parle d'ouvrir quelque 
port que ce soit d'un firewall. Pour préserver la sécurité de votre réseau, il 
faut savoir comment fonctionne ICA, comment fournir des sessions ICA aux clients 
à  travers différents types de firewalls, et comment configurer votre firewall 
et les paramètres ICA pour minimiser le danger. 
                Construire un help desk avec Netmeeting
La plupart des utilisateurs connaissent NetMeeting pour ses fonctions audio et 
vidéo, souvent décevantes compte tenu de la qualité des transmissions sur une 
connexion lente. Cependant, NetMeeting offre de nombreuses autres fonctions qui 
peuvent s'avérer très pratiques pour votre entreprise.
Microsoft fournit NetMeeting 3.01 comme un outil gratuit permettant de communiquer 
sur un réseau avec des images et de la voix en temps réel, l'échange ou l'annotation 
de documents sur un tableau blanc, le transfert de fichiers, la discussion basée 
sur l'échange de textes (chat), le partage d'applications Windows entre utilisateurs 
distants et la connexion distante à  d'autres ordinateurs.
Mais ces fonctions exigent des capacités réseau que n'ont pas de nombreuses entreprises. 
En revanche, le produit comporte d'autres fonctions moins connues et très utiles, 
notamment pour l'assistance aux utilisateurs.
Par exemple, NetMeeting peut simplifier votre vie grâce à  l'accès distant et au 
partage d'applications qu'il permet, sans devoir acquérir une solution spécifique 
payante. NetMeeting est un outil génial pour le personnel de support aux utilisateurs 
ou pour que des employés situés dans des bureaux distants puissent collaborer 
sur un projet. 
Un bref survol de NetMeeting permet de comprendre ses fonctions et de voir vous 
pouvez vous servir de NetMeeting dans votre LAN comme outils de help desk. 
                Optimiser NT et IIS pour les pages ASP
Les pages actives ASP sont utilisées par de nombreuses entreprises, d'Internet aux intranets d'entreprise et de nombreux administrateurs système choisissent Windows NT Server et Internet Information Server pour les faire tourner. Cependant, Windows NT et IIS doivent être optimisés pour offrir de bonnes performances.
Si vous voulez tirer le meilleur des applications ASP (Active Server Pages), vous 
rencontrerez le succès en configurant Windows NT Server pour en faire une plate-forme 
efficace pour Internet Information Server (IIS) et en faisant quelques modifications 
simples mais essentielles à  la configuration d'IIS afin qu'il aide vos serveurs 
à  fonctionner de façon optimale.
Souvenez-vous qu'il vous faut tester vos applications et optimiser l'environnement 
de votre serveur à  mesure que vous faites les changements. Faites une check-list 
des paramètres de vos serveurs afin d'être sûr que vous avez configuré chaque 
serveur correctement. Automatisez l'installation de vos serveurs autant que vous 
le pouvez pour configurer les serveurs rapidement et sans risque d'erreur. 
Si tous vos serveurs ont la même configuration matérielle, vous pouvez envisager 
d'utiliser Norton Ghost, ou tout autre utilitaire équivalent de réplication automatique, 
pour installer vos nouveaux serveurs. Si vous utilisez un utilitaire pour répliquer 
les serveurs, assurez-vous que l'utilitaire vous permet de créer un SID pour chaque 
serveur. 
En outre, testez le processus de réplication sur un seul système avant de créer 
plusieurs serveurs. Personne ne veut répliquer un système dont les applications 
sont mal paramétrées. Il est possible également que vous rencontriez des problèmes 
avec la métabase d'IIS sur les systèmes répliqués si le SID change. Si de tels 
problèmes devaient survenir, vous pourriez devoir réinstaller IIS sur la machine 
concernée. 
                Gérer la charge des serveurs Web
Au fur et à  mesure du développement du commerce électronique, les entreprises 
sont de plus en plus nombreuses à  compter sur leurs sites Web pour communiquer 
avec les clients. Un site Web très performant, délivrant rapidement et en toute 
fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial 
pour un commerce électronique prospère et compétitif.
Les clients potentiels ne seront pas enclins à  retourner sur un site Web, s'ils 
sont frustrés par sa lenteur et se heurtent à  des retards importants ou à  des 
défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre 
de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement 
l'amélioration des performances de son site Web. 
Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter 
la bande passante Internet, utiliser un équipement de réseau rapide, concevoir 
des applications Web efficaces, optimiser et mettre à  niveau les logiciels et 
les matériels des serveurs Web, et utiliser une technologie de Web-caching. 
Il est également possible d'améliorer les performances d'un site Web en ajoutant 
des serveurs Web et des sites et en mettant en miroir le contenu entre tous les 
serveurs et les sites. Cette méthode permet de partager la charge globale entre 
les serveurs et les sites et de réduire le retard d'exécution des informations, 
occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer 
pour faire de la place à  de nouveaux serveurs. 
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger 
un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour 
équilibrer la charge entre les serveurs Web, on fait traditionnellement appel 
à  la fonction " à  tour de rôle " du DNS qui permet de distribuer équitablement 
les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont 
tous accessibles à  égalité.
Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où 
les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple, 
un système Windows 2000 Server avec deux processeurs Pentium III à  450 MHz et 
2 Go de mémoire devrait traiter plus de charge dans un environnement à  équilibrage 
de charge qu'un système Windows NT Server avec un processeur Pentium II à  300 
MHz et 256 Mo de mémoire. 
Or la fonction " à  tour de rôle " de DNS traite ces deux systèmes à  égalité ; 
elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si 
le serveur est en marche ou arrêté.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger 
un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment, 
des éditeurs indépendants ont développé des load balancers ou équilibreurs de 
charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément 
entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des 
serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou 
site en cas de défaillance.
Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de 
charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce 
qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes 
à  prendre en considération avant de faire son choix. 
                Les performances d’Exchange 2000
Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien 
connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre 
des performances optimales grâce à  la distribution des fichiers et depuis, pas 
grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store 
(IS) jusqu'à  la limite théorique de 16 To, mais le serveur de messagerie conserve 
ses caractéristiques essentielles. 
Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant 
la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory 
Store, leurs journaux de transactions, la copie sur disques de Windows NT et le 
répertoire de travail MTA (Message Transfer Agent).
Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie 
bénéficie des améliorations suivantes :
* L'architecture de l'IS a nettement évolué, passant du simple partitionnement 
de bases de données privées et publiques à  un point où elle permet, théoriquement, 
d'exécuter jusqu'à  90 bases de données sur un seul serveur.
* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles 
pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News 
Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange 
2000 que pour les précédentes versions d'Exchange Server.
* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.
* Active Directory (AD) de Windows 2000 remplace le Directory Store.
* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace 
l'ancien MTA basé sur X.400.
Ces améliorations font partie d'une solution customisable que les solutions tierces 
étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus, 
fax, workflow, gestion de documents et autres fonctions qui ne font pas partie 
du serveur de base. 
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement 
les performances. Les concepteurs de systèmes vont devoir à  présent se poser une 
question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes 
de configurations systèmes et matériels. 
Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange 
2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement 
les performances 
                SSL et la cryptographie
Historiquement, SSL est un protocole mis au point par Netscape pour la sécurisation des communications sur le Web. Tous les acteurs du marché ont accepté ce protocole et le supportent, en attendant l'arrivée d'un standard international. Ce standard appelé TLS (Transport Layer Security), basé sur SSL, est mis au point par le l'IETF (Internet Engineering Task Force) et a été publié il y a peu de temps (TLS 1.0). Tous les éditeurs significatifs supportent ou ont annoncé leur intention de supporter TLS 1.0.Afin de comprendre ce qu'est SSL, il est indispensable de maîtriser les concepts de cryptographie qui en constituent les fondations.
Lire l'article
                Sybase : une stratégie d’entreprise
Fondée en 1984, la société Sybase s'est rapidement fait connaître en tant qu'éditeur 
de SGBDR. Les performances impressionnantes, la simplicité de mise en oeuvre et 
la stabilité de SQLServer sont largement reconnues sur le marché. Sybase a acquis 
une image de société à  la pointe de la technologie grâce notamment à  l'introduction 
des procédures stockées et des triggers, aujourd'hui supportés par tous les grands 
éditeurs de SGBD.
avec une simple station Sun, sans le moindre incident d'exploitation pendant des 
mois (en ne redémarrant le serveur qu'une ou deux fois par an pour des mises à  
jour du système d'exploitation). 
Ce niveau de performance et de stabilité a permis à  Sybase de conquérir rapidement 
le marché bancaire et celui de l'assurance - les banques de Wall Street ont par 
exemple presque toutes choisi ce SGBDR.
Après dix ans de croissance et de succès, Sybase a connu des revers et de sérieuses 
difficultés pendant plusieurs années. Les difficultés n'étaient pas que financières 
et les incidents de migration vers les nouvelles releases de Sybase se sont succédés.
Pendant cette période délicate la société a multiplié les nouveaux produits et 
acquisitions de sociétés, sans réellement réussir à  redresser la situation... 
jusqu'à  l'année dernière. Il faut remarquer que même au plus fort de la tempête 
les clients traditionnels de Sybase n'ont pas abandonné et sont restés fidèles, 
donnant ainsi au marché un signe clair de la confiance à  long terme qu'ils avaient 
dans la société et dans les produits.
A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits 
et profondément changé son approche du marché. 
Ce bouleversement a été un véritable succès pour la société d'Emeryville. Sybase 
a renoué avec les bénéfices en 1999 et fait cette année là  un chiffre d'affaires 
record de 872 M$. Après la pluie, le beau temps…
A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits 
et profondément changé son approche du marchéSybase est à  présent restructuré 
en quatre divisions : Internet Application Division (IAD), Information Anywhere 
(I-Anywhere, anciennement MEC, Mobile Embedded Computing), Business Intelligence 
(BI) et Enterprise Solution Division (ESD). Si cette dernière division (qui inclut 
le traditionnel moteur de base de données) reste un pilier de la stratégie de 
Sybase, l'évolution de la société vers le développement de solutions pour la Net-Economie 
place la division IAD dans une position stratégique. 
                10 trucs pour récupérer votre espace disques
La plupart des nouveaux systèmes Windows NT sont dotés de quantités prodigieuses d’espace disque local ; mais tout le monde n’a pas la chance d’utiliser un de ces monstres. Beaucoup d’entre nous gèrent des systèmes sur lesquels l’espace disque est un bien précieux. Ce mois-ci je vous fais part de quelques astuces pour récupérer l’espace disque dur.
Lire l'article
                Optimiser les sous-systèmes disques
Des performances ! Tout le monde veut que les serveurs et les stations de travail NT tournent le plus vite possible. Or l’optimisation d’un sous-système disque est importante pour améliorer les performances globales d’une solution NT.Cet article décrit comment obtenir des performances maximales des ressources supplémentaires ajoutées lors de la mise en œuvre de sous-systèmes disques et de grappes RAID supplémentaires, sans tenir compte des mises au point matérielles spécifiques à tel ou tel constructeur. Pour optimiser rapidement le sous-système disque (RAID matériel ou logiciel), on peut faire appel à des outils intégrés de Windows NT ou à un freeware. Pour réaliser cette tâche, il importe de comprendre les caractéristiques individuelles de performances des disques ou de la technologie RAID, selon le choix que vous avez fait, et les charges de travail de votre sous-système disque existant. Ces informations vous permettront d’équilibrer les charges de votre sous-système disque et d’optimiser la taille des unités d’allocation des disques. Enfin, comme l’accroissement des performances peut varier en fonction de l’environnement informatique, j’expliquerai comment j’ai optimisé et testé mon sous-système disques.
Lire l'article
                Optimiser les performances de NTFS
Système de fichier moderne et fiable, NTFS peut être amélioré grâce au tuning  et mieux adapté aux besoins propres à chaque entreprise. Cet article décrit des  mesures pour évaluer et optimiser les performances des volumes NTFS.En 1993, Microsoft a lancé Windows NT 3.1 et, avec lui, un nouveau système de  fichier FAT conçu pour améliorer les possibilités du nouvel OS. Conçu à l’origine  par Gary Kumura et Tom Miller, membres de l’équipe de développement originale  de NT, NTFS s’appuie sur la sécurité de NT pour améliorer les caractéristiques  d’efficacité et de récupération de FAT. 
 Ces fonctions font de NTFS le système de fichier de prédilection pour les disques  de grands volumes des serveurs de réseau. On trouve toujours le système FAT sur  les disques de nombreux systèmes qui en ont besoin (par exemple les partitions  multi OS ou les serveurs NT basés sur RISC) ; mais les limites de ce système en  ont fait un canard boiteux dans l’univers NT moderne.
 Si vous voulez satisfaire aux impératifs de sécurité, de performances et de capacité  propres à la plupart des organisations, NTFS est le seul choix possible.NTFS est  un système de fichier robuste, autocorrectif, qui offre plusieurs fonctions personnalisables  ayant une incidence sur son fonctionnement dans un environnement donné. 
 Certains paramètres sont généraux et d’autres spécifiques à certains volumes NTFS  et un certain nombre peuvent se contrôler et s’optimiser. En examinant les besoins  de stockage spécifiques à un système et en adaptant ensuite les volumes NT en  conséquence, il est possible d’augmenter significativement les performances de  disques des systèmes. Cet article décrit plusieurs méthodes pour évaluer et augmenter  les performances de NTFS.
