RDP ou ICA : encore une victime de la vitesse
Tout le monde le sait dans le domaine automobile, la vitesse tue. Mais ce qui est vrai pour les voitures s'applique également à l'informatique, particulièrement aux deux principales technologies de clients légers offertes aux utilisateurs de Windows NT.Le slogan " la vitesse tue " convient très bien aujourd'hui à la technologie du client léger ou thin client, bien que dans un registre légèrement différent (je doute que quiconque ne succombe pour avoir utilisé un produit trop rapide ou trop lent). Le slogan colle particulièrement bien à la rivalité entre deux implémentations concurrentes des clients légers pour Windows NT : ICA (Independent Computing Architecture) de Citrix et RDP (Remote Desktop Protocol) de Microsoft. En effet, si l'un des deux (ou en l'occurrence les protocoles sous-jacents) l'emporte par la vitesse, le client le plus lent mourra, sera enterré et vite oublié.
Pourquoi la vitesse est-elle si importante sur ce marché ? Dans la technologie du client léger, un serveur central pousse tous les bits, qui composent l'image du bureau, jusqu'au client via le réseau. Par exemple, lorsque l'on démarre, redimensionne ou arrête les applications du bureau, le serveur doit pousser tous les bits affectés pour repeindre l'écran du client léger. Il n'est pas difficile d'imaginer qu'il faut une bonne dose de bande passante pour déplacer des bits d'affichage.
Comme l'interaction client-serveur est très gourmande en bande passante, l'efficacité du client est extrêmement importante. On peut convenir sans risque que dans un environnement de type réseau local, le client ICA et le client RDP offrent des performances similaires. Dans un environnement WAN ou dans un environnement commuté, le client ICA offre de meilleures performances que le client RDP, car Citrix a développé son client ICA pour les connexions modem lentes.
Comme l'interaction client-serveur est très gourmande en bande passante, l'efficacité du client est extrêmement importante
Une fois dressé ce tableau général, l'examen détaillé de chaque client se complique. Par exemple, le client ICA supporte le son, mais pas le client RDP. Or l'ajout du son demande plus de bande passante. De même le client ICA pour Windows 32 bits peut mettre en mémoire cache les bits des icônes, ce qui, théoriquement, accélère les opérations d'affichage. Les clients RDP pour Windows 16 et 32 bits ne peuvent pas mettre en mémoire ces mêmes bitmaps.
Un autre facteur vient compliquer l'étude des performances : le système d'exploitation des clients. Par exemple, un client ICA tournant sur un terminal avec un OS propriétaire risque d'être plus rapide qu'un client ICA tournant sur un terminal Windows CE. De même un client RDP tournant sur un terminal Windows NT ou Windows 95 sera sans doute plus rapide que ce même client RDP sur un terminal Windows CE. Comparer la rapidité de différentes implémentations de client léger n'est donc pas évident.
Lire l'article
Linux : les mauvaises nouvelles …
Comme nous l'avons vu dans l'article " NT versus Linux : les trois avantages de Linux " du mois dernier, Linux a des forces, mais essayez de l'utiliser et vous lui découvrirez également des faiblesses. Dans les recherches que j'ai eu l'occasion de faire sur Linux, j'ai découvert que la chose la plus redoutable de l'utilisation de l'OS est son installation. De nombreux utilisateurs m'ont dit qu'après avoir installé Linux, l'OS est stable et fiable et, dans une certaine mesure, mon expérience confirme cette impression. Mais ne vous y trompez pas : l'installation de Linux est un cauchemar ! J'ai installé cinq versions de distibution de Linux - SuSE Linux beta 6.3, Red Hat Linux 6.0, OpenLinux 2.3 de Cadera System's, Corel Linux et Slackware Linux 7.0 de LinuxMafia - sur plusieurs systèmes. Les cinq versions de distribution sont similaires mais ont des routines d'installation différentes. J'ai eu de nombreux problèmes en installant toutes les versions.
Lire l'article
NUMA : vers de très gros AS/400
Avec NUMA (Non-Uniform Memory Access), les systèmes AS/400 pourraient supporter
des centaines ou des milliers de processeurs
Voilà des années que le débat fait rage chez IBM sur l'utilisation de NUMA (Non-Uniform
Memory Access) - une architecture mémoire permettant de bâtir de très grands systèmes
avec de nombreux processeurs. Les partisans avançaient que NUMA permet à un grand
nombre de processeurs de fonctionner comme un système unique, tout en conservant
la simplicité de programmation et d'administration d'un petit système.
Pour ses opposants, une architecture NUMA, trop complexe, ne permettrait jamais
de construire de très grands systèmes. Selon eux, les technologies Cluster étaient
seules valables en la matière.
NUMA
permet à un grand nombre de processeurs de fonctionner comme un système unique,
tout en conservant la simplicité d'un petit système
Pendant les 10 dernières années, les adversaires de NUMA
ont imposé leur point de vue. Les plus grands systèmes d'IBM, le RS/6000 SP et
le S/390 Sysplex, sont effectivement des systèmes en cluster.
Certaines des plus grandes installations d'AS/400, elles aussi, utilisent cette
même technique. Mais, récemment, Big Blue a commencé à penser autrement. La plupart
d'entre nous ont probablement entendu parler du projet lancé en 1995 par le Department
of Energy (DOE) visant à créer les plus gros et plus puissants ordinateurs du
monde. Les grands de l'informatique (dont IBM, SGI et Sun) collaborent avec les
laboratoires nationaux du DOE pour créer ces super-ordinateurs.
Début 1999, IBM a livré les derniers éléments d'un super-ordinateur appelé Blue
Pacific, au Lawrence Livermore National Laboratory de DOE en Californie. Blue Pacific est un hyper-cluster constitué de trois systèmes RS/6000 SP
avec 5856 processeurs PowerPC. C'est la plus grosse installation de RS/6000 SP
jamais construite et elle revendique le titre d'ordinateur le plus rapide au monde.
Toujours cette année, SGI a livré un super-ordinateur appelé Blue Mountain au
Los Alamos National Laboratory de DOE au Nouveau Mexique. Blue Mountain est un
très grand système SGI Origin2000 doté de 6144 processeurs. Bien que les tests
de ces deux monstres ne soient pas encore terminés, Blue Pacific et Blue Mountain
ont atteint les mêmes niveaux de performances. Mais il est intéressant de constater
qu'IBM utilise les technologies cluster pour Blue Pacific, tandis que SGI utilise
les technologies NUMA pour Blue Mountain.
Ceux qui, chez IBM, prétendaient que NUMA était inférieur au cluster, en ont pris
un coup. A tel point que, en juillet, IBM a annoncé la conclusion
d'un accord avec Sequent Computer Systems visant à acquérir toutes les actions
de Sequent pour fusionner avec elle. Rappelons que Sequent développe, fabrique
et vend de grands serveurs de bases de données basés Intel, sous Unix ou Windows
NT.
A l'heure actuelle, ces serveurs vont jusqu'à 64 processeurs avec les technologies
NUMA et le chiffre de 256 est déjà envisagé. Non seulement IBM vendra les serveurs
actuels de Sequent, NUMA-Q 1000 et 2000, mais Big Blue envisage aussi d'intégrer
les technologies NUMA de Sequent dans ses propres serveurs. Et l'AS/400 dans tout
çà ?
Les nouvelles fonctions de sécurité d’IIS 5.0
Microsoft Internet Information Server 5.0 comporte une foule de nouvelles fonctions,
et notamment un traitement amélioré des comptes des utilisateurs et des ordinateurs,
une meilleure exécution des applications des utilisateurs, ainsi que des fonctions
de sécurité perfectionnées.
Etant donné que de nombreux utilisateurs vont commencer à utiliser Windows 2000,
lui aussi porteur d'améliorations majeures en termes de sécurité, et qu'IIS 5.0
est quatre à cinq fois plus rapide qu'IIS 4.0, il était grand temps de consacrer
un article aux nouvelles fonctions de sécurité de la dernière version d'IIS. Celles-ci
facilitent la configuration de la sécurité des applications et, grâce aux nouvelles
technologies comme Kerberos, améliorent la cohérence de l'utilisation de la sécurité
d'IIS avec d'autres systèmes.
L'utilisation d'IIS 5.0 commence par son installation sur Windows 2000. Pour tester
IIS 5.0, j'ai utilisé la beta de Windows 2000 Server. La configuration de Windows
2000 a un impact sur l'utilisation d'IIS 5.0 et sur le fonctionnement des fonctions
de sécurité du logiciel. Le serveur IIS 5.0 peut être configuré comme contrôleur
de domaine ou installé dans un domaine Windows 2000 existant. En d'autres termes
on peut l'installer sur n'importe quelle machine du domaine.
Une fois IIS 5.0 installé, j'ai utilisé Microsoft Visual InterDev 6.0 pour créer
un nouveau répertoire virtuel, tâche que rendent pénible les Extensions FrontPage
Server. Windows 2000 m'a obligé à me connecter par le biais de Visual InterDev
et a vérifié le compte d'utilisateur utilisé par l'OS pour créer le répertoire.
En dehors de mon ID de logon et de mon mot de passe, je n'ai eu besoin d'aucune
information de plus sur Windows 2000. Ce processus correspond à celui d'IIS 4.0
pour créer un répertoire virtuel et travailler avec les fonctions de sécurité.
L'accès aux paramètres de sécurité se fait par le Gestionnaire des services
Internet comme dans IIS 4.0 de Windows NT 4.0
Vues partitionnées distribuées (partie I)
par Kalen Delaney et Itzik Ben-Gan
NDLR : cet article est le premier d'une série de trois sur les Vues partitionnées distribuées de SQL Server 2000.
Les environnements OLTP (OnLine Transaction Processing) et
les bases de données des grands sites Web sont en général constitués de
nombreuses requêtes individuelles, interrogeant ou manipulant une quantité de
données relativement petite. Quand la taille du système augmente, et que les
utilisateurs font de plus en plus de requêtes base de données, les
administrateurs essaient habituellement d'améliorer les temps de réponse en
augmentant la puissance des serveurs. On peut alors ajouter des CPU, remplacer
ses CPU par des CPU plus rapides, ajouter de la mémoire, renforcer le réseau
ou ajouter des disques durs plus rapides, avec de meilleurs contrôleurs. Mais
à un certain moment, on va épuiser les ressources disponibles car les limites
de la machine seront atteintes; à moins que ce ne soit votre budget. SQL Server
2000 apporte une solution à la demande sans cesse grandissante en puissance de
traitement : l'expansion horizontale. Cette solution consiste à fractionner de gigantesques tables
en tables plus petites (chacune étant un sous ensemble, ou partition, de la
table d'origine) et à les faire coexister sur des serveurs distincts. Chaque
serveur peut être géré indépendamment, mais ensemble, ces serveurs forment
une fédération. Pour accéder à une donnée sur n'importe laquelle des
partitions, on définit une vue du même nom sur tous les serveurs, ce qui rend
transparent le fait que les données sont distribuées sur plusieurs noeuds. Un
utilisateur ou une application connectés aux serveurs peut passer des
instructions DML (Data Manipulation Language : langage de manipulation de
données) comme SELECT, INSERT, UPDATE et DELETE sur cette vue comme s'il
interrogeait la table d'origine. SQL Server 2000 intercepte les instructions
et les reroute vers les serveurs appropriés. Cette configuration distribue la
charge de traitement entre tous les membres de la fédération.
Apprenez à utiliser les techniques liées à la stratégie d'expansion horizontale de Microsoft
SQL Server 7.0 permet de créer des vues partitionnées locales. Avec SQL Server 7.0, on peut également créer des vues partitionnées sur de multiples serveurs, mais on ne peut pas les modifier, ce qui limite beaucoup leur utilité. De plus, avec SQL Server 7.0 ainsi que les versions précédentes, toute vue basée sur une opération UNION ne peut être mise à jour, qu'elle se trouve sur un serveur unique ou soit distribuée sur de multiples serveurs. SQL Server 2000 remédie à cette restriction en permettant aux utilisateurs de mettre à jour certains types de vues basée sur la commande UNION, et introduit de nouvelles techniques d'optimisation pour la mise en place des vues partitionnées. Nous allons présenter ces nouvelles techniques d'optimisation dans cet article, et vous montrer comment mettre en place et modifier des vues partitionnées distribuées.
Lire l'article
Bâtir des routages IP redondants
Le succès du commerce électronique repose largement sur le routage IP, qui achemine
les informations de l'e-business d'une entreprise à l'autre. Sans mécanisme de
routage IP redondant et à tolérance de panne, l'e-business d'une entreprise ne
peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation,
interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise
n'a pas d'autre méthode pour accéder à l'Internet
Pour atteindre et conserver un avantage concurrentiel en commerce électronique,
il vous faut intégrer un routage IP redondant dans votre infrastructure Internet.
Il existe divers moyens pour cela et l'un des plus courants est d'installer des
routeurs et des connexions Internet redondants. La présence de plusieurs routeurs
sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs
Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à divers ISP (c'est-à -dire le multihoming) permettent
de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une
liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering
Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP
redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol),
qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles
par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router
Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent
à créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet.
Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits
d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure
de commerce électronique, il est indispensable de bien comprendre les bases du
fonctionnement de ces protocoles dans les configurations de routage IP redondantes.
Partager les connexions Internet
Le routage IP du LAN vers le WAN est un thème récurrent depuis plusieurs années.
Cet article fait le point sur les aptitudes de Windows NT à router le trafic IP.
En1992, j'ai décidé d'établir mon entreprise sur le Web. Je me suis donc adressé
à un ISP pour me procurer 256 adresses IP. L'entreprise devait héberger ses propres
serveurs Web et de messagerie et il fallait par conséquent des connexions Internet
24 x 7. Au lieu d'acheter un routeur LAN-WAN de Cisco Systems ou autres constructeurs,
je trouvai l'expérience beaucoup plus enrichissante de construire moi-même un
routeur.
Ce premier routeur devait servir à traiter OS/2 2.0 et TCP/IP pour OS/2. Dès que
Windows NT se mit à supporter le routage IP, je remplaçai OS/2 par NT. Puis je
rédigeai une série d'articles pour Windows 2000 Magazine pour expliquer comment
faire d'un système NT un routeur LAN-WAN.
es articles continuent à générer une importante quantité de courrier, décrivant
tous le même scénario et posant constamment la même question : J'ai
un ordinateur chez moi connecté à Internet par une liaison ADSL/modem câble/RNIS.
J'ai aussi plusieurs autres machines chez moi.
Comment configurer mon PC connecté à Internet pour partager sa liaison Internet
avec les autres machines ?
Après la publication des premiers articles, j'ai revu la question deux fois
- d'abord lorsque Microsoft a sorti le code de routage amélioré RRAS (dit Steelhead),
puis pour la sortie de Proxy Server 2.0. RRAS n'était pas la bonne réponse pour
les télétravailleurs, car il exigeait que chaque machine ait une adresse IP fournie
par l'ISP. Or, la création d'adresses aléatoires ne fonctionnait pas pour des
machines domestiques. Proxy Server contournait le problème mais en posait un autre
en raison des frais occasionnés - dans les 1000 dollars.
Avec Windows 98 SE ou Windows 2000 Professional, il suffit de quelques
clics de souris et de rebooter pour profiter facilement du routage
Mais avec Windows 98 Second Edition (Win98SE) ou Windows 2000 Professional,
il suffit de quelques clics de souris et de rebooter les PC pour profiter facilement
du routage. Win98SE devait être disponible au moment où vous lirez cet article
et Windows 2000 Pro et Windows 2000 Server sortiront probablement très bientôt.
Malheureusement Microsoft n'offrira pas Win98SE à tout le monde - comme les versions
OSR (Version de service OEM) de Win95, il ne sera disponible qu'avec l'achat d'un
nouvel ordinateur. Mais si vous pouvez attendre jusqu'à la sortie de Windows 2000
ou si vous achetez un nouveau PC, le routage facile c'est pour bientôt.
Au coeur de la gestion du stockage – Première partie
L'évolution de la gestion du stockage de Windows NT débute avec DOS ; le premier OS de Microsoft. Avec l'augmentation de la taille des disques durs, DOS a du s'adapter. Pour cela, une des premières décisions prises par Microsoft a été de permettre à DOS de créer de multiples partitions, ou disques logiques, sur un même disque physique.Avec l'introduction des disques logiques, DOS a pu formater chaque partition avec un type de système de fichiers différent (FAT12 ou FAT 16) et affecter à chaque partition une lettre d'unité différente. DOS 3 et 4 étaient sévèrement limités quant à la taille et au nombre de partitions que l'on pouvait créer, mais avec DOS 5, le système de partitions est arrivé à sa pleine maturité : on pouvait diviser un disque en autant de partition de quelque taille que ce fût. Windows NT a emprunté le système des partitions du DOS afin d'assurer la compatibilité des disques avec DOS et Windows 3.x, et pour que l'équipe de développement de NT puisse s'appuyer sur des composants éprouvés pour la gestion des disques.
Dans Windows NT, Microsoft a fait évoluer les concepts de base du système de partitionnement de base du DOS pour supporter les fonctions de gestion des disques des OS d'entreprise : le spanning de disques et la tolérance aux pannes. Dès la première version de Windows NT, les administrateurs système ont pu créer des volumes comprenant plusieurs partitions.
Cette possibilité permet de créer de grands volumes consistant en partitions réparties sur plusieurs disques physiques et permet la mise en œuvre de la tolérance de panne grâce à la redondance logicielle des données. Le support du partitionnement de Windows NT est assez souple pour supporter la plupart des besoins de gestion du stockage, mais ce support comporte plusieurs inconvénients. Un de ces inconvénients est que la plupart des modifications de configuration des disques nécessitent un redémarrage pour entrer en vigueur. Dans l'environnement actuel des serveurs, qui doivent rester on-line pendant des mois, voire des années, tout redémarrage (même planifié) est un problème majeur.
Autre inconvénient, le Registre de Windows NT stocke les informations avancées de configuration des disques. Ce choix a pour conséquence de compliquer le déplacement des informations de configuration lorsque l'on déplace des disques d'un serveur à un autre. Il est facile de perdre des informations de configuration lorsque vous devez réinstaller le disque. Enfin, le fait que NT exige que chaque volume ait une unique lettre d'unité dans la tranche A à Z, fixe un plafond au nombre de volumes locaux et distants qu'un utilisateur puisse créer.
Windows 2000 élimine bon nombre de limitations des tâches de gestion du stockage de NT 4.0Windows 2000 élimine bon nombre de limitations des tâches de gestion du stockage de NT 4.0 avec une nuée de nouvelles améliorations en la matière. Depuis les points de montage de volumes, qui permettent de supprimer la limite du nombre de volumes possibles, au support intégré de la migration des fichiers, en passant par le stockage hors connexion ou la gestion du stockage sans redémarrage, Windows 2000 place sa gestion du stockage à un niveau équivalent à celui des UNIX les plus évolués. Détaillons les internes de la gestion du stockage dans Windows NT et 2000.
Thorn Europhane : ERP et Terminal Server au centre du nouveau SI
Pour bâtir son nouveau système d'information multisite, le groupe Thorn a opté pour la mise en place de l'ERP Baan. Les problèmes de communications de données entre les filiales ont pu être résolus grâce à l'architecture Terminal Server/Metaframe.La décision de mettre en oeuvre une informatique de gestion commune au niveau du groupe Thorn est née il y a trois ans, et répondait à une double contrainte. D'une part, les difficultés de consolidations de chiffres, et d'autres parts les problèmes de communication entre les différentes filiales, au sein d'environnements informatiques très hétérogènes. " Il devenait primordial de mettre en oeuvre un modèle de gestion plus cohérent au niveau du groupe, de rationaliser les systèmes d'informations des différentes filiales, et faire en sorte qu'ils passent le cap de l'an 2000. " explique Gérard L'hote, directeur administratif et financier chez Thorn Europhane. C'est le progiciel de gestion intégré Baan qui sera retenu, après la phase de Business Re Engineering, pour supporter une rénovation complète du système d'information de l'entreprise : de la gestion comptable, financière, commerciale, à la gestion de production. " Nous avons fait le choix de l'ERP Baan car c'était alors, le seul produit du marché susceptible de nous aider à bâtir un système d'information multisite transfrontières, en nous apportant une réponse métier adaptée à notre problématique de GPAO. " souligne Gérard L'hote. Quant à l'intégrateur Origin, il sera chargé de la mise en oeuvre complète de l'ERP. " Origin est aujourd'hui le premier intégrateur Baan sur le marché, mais c'est aussi la seule société de services capable d'apporter une réponse internationale à notre problématique d'implémentation. " précise Gérard L'hote.
A partir du mois de juin 1998, un modèle commun d'implémentation a été choisi pour l'ensemble des pays concernés (Angleterre, Suède, France et Allemagne). A charge de ces filiales, d'adapter ensuite la solution à leurs besoins propres de gestion, via des personnalisations et des développements spécifiques.
" L'architecture AS400 nous posait de gros problèmes de communications entre sites à cause du protocole SNA "
Basée en Angleterre, l'usine de production de Spennymoor sera la première à finaliser la mise en oeuvre de la gestion de production. Elle sera suivie par son homologue allemande, qui optera pour une démarche Big Bang du fait de sa configuration multisite. La France vient quant à elle de terminer l'implémentation de la solution par la mise en oeuvre du dernier module de gestion commerciale.
Lire l'article
Administrer les variables d’environnement de Windows NT
Dans les groupes de discussion, reviennent fréquemment des questions sur les variables d'environnement. Les administrateurs Windows NT ont souvent du mal à accéder aux informations stockées par ces variables. Pour définir et lire des variables d'environnement sur les machines NT il existe plusieurs techniques. Cet article explique comment un administrateur NT expérimenté peut gérer des variables système et utilisateur avec les utilitaires du Kit de ressources de Windows NT Server 4.0, des fichiers batch et des applications VBScript (Visual Basic).
Lire l'article
XML et les technologies de scripting de Microsoft
Il y a un peu plus d'un an, interrogé sur l'impact qu'allait avoir XML sur les technologies de script de Windows, j'avais répondu que XML allait certainement jouer un rôle crucial pour le développement des applications Web, mais qu'il n'affecterait pas l'univers des scripts d'administration de systèmes. Or Windows Scripting Host 2.0 m'a donné tort. Egalement baptisé Windows Script 5.1, Windows Scripting Host 2.0 (WSH) comporte de nouvelles fonctions puissantes dépendant d'un nouveau type de fichier et d'un nouveau format. Vous voulez savoir quel type de fichier ? Alors, suivez-moi. WSH 2.0 comprend de nouvelles fonctions telles que, par exemple, le support des fichiers inclus, plusieurs moteurs de script, de nouveaux outils. Parmi ces nouvelles fonctions, plusieurs dépendent du nouveau format de fichier Windows Script (WS). Les fichiers WS de WSH 2.0 ne sont pas de simples fichiers ASCII contenant du code VBScript, Jscript ou d'autres langages de script compatibles ActiveX. Ce sont des applications XML (Extensible Markup Language) structurées par Microsoft selon le schéma WS XML. Le nouveau type de fichier et le nouveau format créent un cadre d'écriture de script amélioré et puissant. Examinons le schéma WS XML et les nouvelles fonctions qu'il apporte.
Lire l'article
Naviguer dans la résolution de noms 2ème Partie
Même les administrateurs Windows NT les plus chevronnés ne maîtrisent pas parfaitement le processus de résolution des noms des réseaux Windows. On ne saurait le leur reprocher. Qui pourrait s'y retrouver dans ce monde truffé de standards de serveurs de noms, d'ordres de résolution de clients modifiables, de serveurs WINS auto-destructeurs, de service packs et de correctifs modifiant la résolution des noms et d'une avalanche d'articles Microsoft contradictoires. Le seul espoir si l'on veut maîtriser la résolution de noms Windows est de comprendre la méthodologie sous-jacente pour pouvoir régler les problèmes lorsqu'ils surviennent sur un réseau. (Dans l'article " Naviguer dans la résolution de noms, Partie 1 " de septembre 2000, nous avons vu les bases de la résolution des noms, décrit les causes cachées et les malentendus communs liés à la résolution des noms et proposé un certain nombre de solutions pour des situations spécifiques). J'ai trouvé quelques solutions pour atténuer les malheurs de la résolution des noms.
Lire l'article
Contrôlez vos services d’annuaire avec un proxy LDAP
Ces dernières années les services d'annuaire ont vu leur cote monter dans les
entreprises. Le succès grandissant de Novell avec Novell Directory Services (NDS)
et le lancement par Microsoft d'Active Directory (AD) ont été des raisons suffisantes
pour décider un grand nombre d'entreprises à explorer le potentiel des services
d'annuaire dans leurs environnements.
L'interface proxy LDAP (Lightweight Directory Access Protocol) séduit les entreprises
en leur offrant un large éventail d'informations d'identité grâce à une réplique
virtuelle, sans la consommation de CPU impliquée par une duplication des données
et la propagation des changements à travers un réseau.
En 1995 LDAPv2 a inauguré un protocole d'accès d'annuaire standard et, en 1997,
LDAPv3 a étendu le protocole en lui ajoutant plusieurs fonctions.
Pour tout savoir sur LDAP, voir les RFC (Request for Comments) 1 777, pour LDAPv2,
et 2 251, pour LDAPv3, de l'IETF à l'adresse
http://www.ietf.org/rfc.html
Les éditeurs ont immédiatement commencé à développer des produits LDAP.
Par exemple, Microsoft a permis la consultation d'Exchange Server au moyen de
LDAP. Dans d'autres produits compatibles LDAP, les éditeurs s'appuient sur un
annuaire LDAP disponible pour stocker des données sur les utilisateurs, leurs
profils et des informations de configuration.
Par exemple, les produits SiteMinder de Netegrity et FireWall-1 de Check Point
Software Technologies utilisent soit des services d'annuaires propriétaires, soit
un service d'annuaire d'éditeur tiers, comme Netscape Directory Server, pour stocker
des informations sur les utilisateurs et les stratégies.
Pour un produit maintenant une base de données d'utilisateurs ou un annuaire interne,
il ne faut que quelques efforts de développement pour permettre la consultation
de la base de données ou de l'annuaire via LDAP. En revanche l'utilisation d'annuaires
LDAP est plus difficile car les produits LDAP comptent sur une entreprise pour
avoir un annuaire supportant les besoins spécifiques des applications.
La fonctionnalité LDAP rend aussi plus difficile le support entre produits.
Lorsque AD aura acquis une position de force et offrira un niveau de service garanti
et des informations sur lesquelles les autres applications pourront s'appuyer,
on assistera probablement à une forte reprise de l'activité LDAP.
Actuellement, trois éditeurs proposent des serveurs proxy LDAP autonomes : Innosoft
International, avec ILPS (Innosoft LDAP Proxy Server), MaXware Benelux avec MLPS
(MaXware LDAP Proxy Server) et NEXOR avec DBA (Directory Boundary Agent).
La médiation LDAP peut aider à garder le contrôle lorsqu'il s'agit d'accorder
l'accès à plusieurs ressources compatibles LDAP, en l'absence de solution de métaannuaire
intégrale ou d'une maîtrise totale des ressources compatibles LDAP, dont il faut
autoriser l'accès.
Nous allons examiner les services proxy LDAP liés aux services d'annuaire, un
certain nombre de serveurs proxy LDAP disponibles, ainsi que les limites et les
avantages de l'utilisation d'un proxy LDAP. Je donnerai également quelques conseils
sur l'opportunité d'une implémentation de services proxy.
Un proxy LDAP est un médiateur entre un client LDAP et une ou plusieurs
ressources compatibles LDAP, généralement des serveurs
Un stockage sans limites
Parmi les changements les plus subtils - et néanmoins des plus significatifs - introduits par Microsoft dans Windows 2000 il faut citer NTFS. Bien qu'identique à lui-même en apparence, NTFS bénéficie en réalité de nouvelles fonctions qui donnent aux administrateurs de plus grandes capacités pour gérer le stockage sur les réseaux d'entreprise.Windows 2000 Magazine a déjà largement traité ces capacités, notamment le chiffrement, la journalisation et l'utilisation des points d'analyse. Bien qu'ils n'aient l'air de rien, ces points d'analyse (ou reparse points) activent l'une des fonctions les plus avancées du stockage en réseau - le stockage hiérarchique. L'utilisation du stockage hiérarchique permet d'avoir - théoriquement - un espace de stockage illimité disponible à tout moment pour un système donné. Grâce à Microsoft cette technologie est à présent très facile à installer et à administrer.
Lire l'article
Les 4 outils freeware indispensables
Personne n'apprécie de se voir offrir quelque chose pour découvrir ensuite qu'il y a un loup. Dans la jungle des logiciels gratuits, de nombreux pièges attendent le téléchargeur innocent. Au début, tout va bien et il semble que le fournisseur donne tout gratuitement. Par la suite, on se rend souvent compte que l'on a affaire en réalité à une version de démo, un shareware ou, plus dangereux, du « snareware » ou « Spamware » - des programmes qui infiltrent votre carnet d'adresse ou votre messagerie. Si l'on sait où chercher, il est possible de découvrir une poignée d'utilitaires gratuits pour Windows NT qui faciliteront votre travail et vous permettront de résoudre des problèmes courants. N'en attendez pas de miracles cependant et soyez conscient qu'il est difficile de trouver des produits freeware déployables sur un réseau. Après une période échevelée de chasse sur le net, de téléchargement et de test de freeware, voici ma liste d'utilitaires gratuits les plus utiles pour la plate-forme Windows NT.
Lire l'article
Le service d’équilibrage des charges de Windows NT
Les sites Web reposant sur des applications sophistiquées sont confrontés à deux
problèmes principaux : la fiabilité et la montée en charge. Les utilisateurs ont
besoin d'un accès fiable aux applications Web, y compris celles de l'intranet
de leur entreprise.
L'augmentation du trafic à la fois sur les sites Internet et intranet est venue
renforcer le problème de la capacité des applications à croître : le trafic d'un
site Web peut passer de 1.000 à 80.000 hits par jour. L'utilisation d'un seul
serveur pour garantir la fiabilité est problématique, car en cas d'arrêt du serveur,
les applications s'arrêtent également.
De plus un serveur unique offre un potentiel limité de montée en charge.Les premières
solutions mises en place par les webmestres et les administrateurs systèmes pour
accroître la fiabilité et l'évolutivité faisaient appel à des périphériques matériels
comme le routeur DNS. Celui-ci distribuait aléatoirement, " à tour de rôle " les
requêtes aux différents serveurs du réseau pour équilibrer la charge.
Cette méthode fonctionnait bien avec les premiers sites HTML et même avec certains
sites hébergeant avec les premières applications Web. Mais l'arrivée d'applications
Web dotées de fonctions plus sophistiquées, telles que le support de session Internet
Information Server, qui stocke des informations sur le serveur entre les sessions
d'un utilisateur, a mis à mal la solution du routeur. Ce dernier est en effet
incapable d'assurer l'équilibrage des charges nécessaire aux applications Web
modernes.
Pour résoudre les problèmes de fiabilité et de montée en charge, les éditeurs
ont développé des logiciels comme Convoy Cluster Software de Valence Research
pour les serveurs NT. Fin 1998, Microsoft a acquis Valence Research et l'a rebaptisé
Windows NT Load Balancing Service (WLBS) 2.2. WLBS est fourni gratuitement aux
utilisateurs de l'édition Entreprise de Windows NT Server 4.0. (Pour l'obtenir,
allez à http://www.microsoft.com/ntserver/all/downloads.asp#windowsntserverfeatures).
Fin 1998, Microsoft a acquis Valence Research et l'a rebaptisé Windows NT Load
Balancing Service
WLBS tourne également sur la version normale de Windows NT Server 4.0, mais il
n'est pas intégré à la licence de cette version. En revanche, lorsque vous passerez
à Windows 2000, sachez que WLBS ne fonctionnera que sur Windows 2000 Advanced
Server et Windows 2000 Datacenter Server. Pour se servir de WLBS, il faut donc
disposer de la bonne version et de la bonne licence de Windows NT, sans oublier
d'adopter la bonne version de Windows 2000.
Les outils d’administration à distance du Kit de ressources
Les administrateurs système n'ont guère le
temps de visiter chaque machine d'un réseau. Ils ont donc besoin d'outils d'administration
de Windows NT Server 4.0, capables d'exécuter des scripts complexes simultanément
sur plusieurs ordinateurs distants.
Certains administrateurs considèrent les progiciels de contrôle à distance, comme
pcAnywhere de Symantec ou Timbuktu Pro de Netopia comme des solutions satisfaisantes.
Ces applications de contrôle à distance conviennent particulièrement bien pour
prendre le contrôle d'un PC, permettre l'interaction bi-univoque pour guider un
utilisateur dans une tâche compliquée, accomplir une configuration isolée ou régler
des problèmes avec des taches impossibles à accomplir à distance par le biais
de scripts.
Mais ce que je me propose, c'est d'effectuer simultanément chaque tâche administrative
sur plusieurs machines simultanément à partir de l'invite de commande dans un
environnement scripté. Pour cela, j'utilise les outils d'administration à distance
du Kit de ressources de Microsoft Windows NT Server 4.0, y compris le Supplément
4. Pour tous les lecteurs qui veulent en faire autant, j'ai dressé la liste des
outils que je trouve les plus utiles dans mes tâches administratives quotidiennes.
Microsoft Site Server 3,0 édition Commerce électronique
L'édition Commerce électronique de Microsoft Site Server 3.0 simplifie la création d'une vitrine Internet en fournissant aux développeurs un ensemble d'outils et de possibilités, comme, par exemple, des boutiques types pour servir de modèles. Pour plus de personnalisation ou l'intégration à l'existant, des modèles peuvent être modifiés ou créés de toute pièce.
Microsoft Site Server édition Commerce électronique (SSCE) permet de presque tout
faire très facilement. Ses assistants peuvent générer votre site vitrine à partir
de zéro avec des mécanismes de base pour récolter des informations sur les acheteurs
et les commandes, le stockage dans des bases de données et le traitement des commandes.
SSCE comprend des outils intégrés de publicité et de promotion et des outils d'administration
des vitrines.
Ces outils, combinés à des snap-in d'éditeurs tiers - calcul des taxes, coûts
d'expédition, paiement - facilitent la création d'une vitrine de base et le démarrage
d'une activité commerciale.Mais, pour comprendre SSCE et s'en servir pour créer
une solution plus sophistiquée s'intégrant aux systèmes et aux bases de données
de l'entreprise, il faut se retrousser ses manches et jeter un coup d'oeil sous
le capot. A y regarder de plus près, on découvre que SSCE contient plusieurs technologies
et structures essentielles : pages actives ASP (Active Server Pages), objets COM
et pipeline de traitement des commandes.
La plupart des pages d'un site Web SSCE sont des ASP côté serveur, contenant un
script qui manipule un jeu d'objets COM fourni par Microsoft avec SSCE. Le logiciel
les utilise pour recueillir des informations sur l'acheteur, extraire et enregistrer
des données dans la base de données sous-jacente et traiter la commande du client
grâce à un pipeline de traitement de commande (OPP pour Order Processing Pipeline).
Les pipelines de traitement de commandes suivent les mêmes étapes que la caissière
d'un magasin
Comment se faire payer on-line
Les options de paiement électronique se multiplient : faites votre choix avec
précaution.
Que votre entreprise soit traditionnelle ou un
commerce on-line, les clients doivent vous payer vos produits et services. Une
entreprise traditionnelle se sentira probablement plus à l'aise en recevant des
espèces et des chèques.
Toutefois, bien que l'argent liquide soit en principe une valeur sûre, un chèque
est moins sûr.
En effet, même après avoir réceptionné un chèque, on ne peut pas encore être certain
de l'encaisser. Ce n'est que quelques jours plus tard, lorsque la banque encaissera
le chèque que l'on a déposé que l'on peut être sûr d'avoir été payé.
Le paiement par le biais de certaines transactions financières électroniques offre
plus de garanties.
De plus, pour les entreprises on-line, être capable de gérer les modes de paiement
électroniques est une nécessité Les banques préfèrent les transactions électroniques
car elles sont plus efficaces et moins chères à gérer. Avec l'EDI, par exemple,
une entreprise cliente peut envoyer un ordre de paiement à sa banque afin que
celle-ci transfère des fonds à la banque du fournisseur électroniquement. La banque
réceptrice notifie le fournisseur de la date et du montant du transfert à l'avance,
de sorte que l'entreprise puisse organiser et planifier sa trésorerie.
Cependant, nous devons désormais faire face à un nouveau défi : les informations
concernant les ordres de paiement et de versement circulent sur l'Internet.
Quelles sont les possibilités de paiement que les consommateurs et les entreprises
peuvent utiliser sur le Web, et quels sont leurs degrés de fiabilité ?
Les banques prévoient deux types de paiement pour les transactions de commerce
électronique : des mécanismes de paiement en temps réel (porte-monnaie électroniques,
cartes à puce) et des mécanismes de paiement différés (chèques électroniques,
cartes de paiement, cartes de crédit).
La moitié des différends et fraudes liés à l'usage des cartes de crédit concernent
des transactions on-line, qui ne représentent que 2% des volumes
NAS ou SAN, que choisir ?
La consolidation du stockage d'entreprise a le vent en poupe, parce qu'elle accroît l'efficacité, diminue la redondance et simplifie la gestion. Qui n'a pas entendu parler de l'importance du stockage pour les entreprises et de ces deux technologies de stockage dont on parle tant en ce moment : le NAS (Network Attached Storage) et le SAN (Storage Area Network).Les périphériques NAS sont des dispositifs de stockage - de gros serveurs spécialisés que l'on connecte au réseau - qui n'exécutent qu'une tâche et fonctionnent très bien : ils livrent très rapidement les fichiers. La capacité des grands dispositifs NAS est de l'ordre du téraoctet. Les SAN sont, quant à eux, des réseaux multiserveur, multistockage pouvant dépasser les 400 To. Un SAN sert de réseau secondaire à un LAN. Chaque serveur devant accéder au SAN est relié au LAN par une connexion fibre channel. Ce réseau secondaire soulage le réseau principal des charges massives de transfert des données, puisque le trafic de sauvegarde a lieu entre périphériques de stockage à l'intérieur du SAN. Les dispositifs NAS et les SAN ont des fonctions nettement différentes. Le premier peut effectuer certaines fonctions qu'un SAN ne peut pas effectuer et un SAN offre l'évolutivité. Examinons les technologies du NAS et du SAN et les scénarios dans lesquels l'une est préférable à l'autre.
Lire l'articleLes plus consultés sur iTPro.fr
- De la donnée brute à l’actif stratégique : une approche produit
- Sous pression, les CIO entrent dans l’ère de la responsabilité IA
- FOCUS : optimisation du Cloud grâce à l’intelligence Artificielle
- Alliée ou menace ? Comment l’IA redessine le paysage cyber
Articles les + lus
Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
Pourquoi Shopify Plus s’impose dans la transformation du e-commerce B2B
Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA
Alliée ou menace ? Comment l’IA redessine le paysage cyber
CES 2026 : l’IA physique et la robotique redéfinissent le futur
À la une de la chaîne Tech
- Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
- Pourquoi Shopify Plus s’impose dans la transformation du e-commerce B2B
- Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA
- Alliée ou menace ? Comment l’IA redessine le paysage cyber
- CES 2026 : l’IA physique et la robotique redéfinissent le futur
