
Optimiser les sous-systèmes disques
Des performances ! Tout le monde veut que les serveurs et les stations de travail NT tournent le plus vite possible. Or l’optimisation d’un sous-système disque est importante pour améliorer les performances globales d’une solution NT.Cet article décrit comment obtenir des performances maximales des ressources supplémentaires ajoutées lors de la mise en œuvre de sous-systèmes disques et de grappes RAID supplémentaires, sans tenir compte des mises au point matérielles spécifiques à tel ou tel constructeur. Pour optimiser rapidement le sous-système disque (RAID matériel ou logiciel), on peut faire appel à des outils intégrés de Windows NT ou à un freeware. Pour réaliser cette tâche, il importe de comprendre les caractéristiques individuelles de performances des disques ou de la technologie RAID, selon le choix que vous avez fait, et les charges de travail de votre sous-système disque existant. Ces informations vous permettront d’équilibrer les charges de votre sous-système disque et d’optimiser la taille des unités d’allocation des disques. Enfin, comme l’accroissement des performances peut varier en fonction de l’environnement informatique, j’expliquerai comment j’ai optimisé et testé mon sous-système disques.
Lire l'article
Microsoft a-t-il des ambitions pour le clustering sous NT ?
Au Labo, nous avons toujours accordé une grande importance au besoin de clustering dans les entreprises, de la PME à la multinationale. Aussi quand Microsoft a annoncé, en 1996, son projet de clustering Windows NT en deux phases, nous avons imaginé que la haute disponibilité allait s'étendre à tous les bureaux, et même à tous les PC.
Lire l'article
L’installateur de SMS
Microsoft Systems Management Server comporte un installateur qui aide les administrateurs
systèmes à automatiser la distribution des applications. Ce programme de SMS permet
un déploiement cohérent et efficace des logiciels vers les utilisateurs sans imposer
d'installation manuelle sur chaque ordinateur.
L'installateur de SMS fonctionne comme Sysdiff de Windows NT. Il commence par
prendre une photographie du système et installe le logiciel. Puis il refait une
autre photographie et recherche les différences entre les répertoires et les registres.
En mode Expert d'installation, l'installateur compile les différences dans un
fichier exécutable (.exe) et il ne reste plus qu'à créer une tâche SMS pour pousser
le fichier vers les systèmes cibles.
Le mode Expert d'installation est une interface graphique permettant d'installer
le progiciel via une série de boîtes de dialogue. L'installateur de SMS possède
également un mode Editeur de script, qui permet de créer des scripts complets
ou d'éditer les scripts existants.
Pour l'utiliser, Il faut apprendre un nouveau langage de script et passer beaucoup
de temps à écrire, tester et déboguer les scripts.
C'est pourquoi je ne recommande pas son utilisation. Dans les cas où l'installateur
de SMS n'est pas suffisamment puissant, il est préférable d'acheter un produit
tiers tel que WinINSTALL 6.0 de Seagate Software. (Pour en savoir plus sur WinINSTALL,
voir l'encadré " WinINSTALL 6.0 "). L'installateur de SMS est fourni gratuitement
avec SMS et répondra probablement à vos besoins en matière de distribution d'applications.

NT versus Linux : les trois avantages de Linux
Les nouveaux OS m'ont toujours fasciné. J'adore les essayer, en espérant en trouver
un qui soit fiable, souple et compatible. Au cours des 20 dernières années, j'ai
utilisé de nombreux OS et aucun n'a répondu à toutes mes attentes.
Depuis 20 ans que j'essaie de nouveaux systèmes d'exploitation, j'ai eu l'occasion
d'en utiliser plus d'un. J'ai ainsi pu tester notamment CP/M de Digital Research
et ses successeurs CP/M-86 et MP/M ; TRSDOS, l'OS des systèmes TRS-80 ; TOS de
l'Atari 520 ; GEM d'Amiga ; P-System de l'Université de Californie de San Diego
(une première approche de type Java de l'indépendance vis à vis de la machine)
; WM/386 d'IGC, Microsoft Windows/386 et DesQ de Quarterdeck (trois tentatives
de construire un OS DOS multitâche) ; IBM OS/2 ; VINES de Banyan ; Novell NetWare
; et, bien sur, Windows NT.
Aucun de ces OS ne m'a apporté toutes les fonctions que je recherchais. Certains
ont échoué à cause de limites techniques, d'autres ont pâti d'un manque de reconnaissance
du marché.
Dans certains cas, pour les deux raisons. Linux est le dernier en date des OS
à fort potentiel. Linus Torvalds a créé ce système proche d'UNIX en 1991 alors
qu'il était étudiant, et des milliers d'autres programmeurs l'ont enrichi depuis.
Une des raisons de l'attention et de l'intérêt suscité par Linux au cours des
2 dernières années et que tant de gens ont donné de leur temps pour travailler
sur cet OS (autrement dit, peut de développeurs de Linux sont payés pour leur
effort).
J'ai beaucoup appris sur Linux récemment car je prépare un livre destiné aux experts
NT afin de leur faire découvrir ce qu'est Linux, ce qu'il peut faire et comment
il peut faciliter la vie des administrateurs NT.
Parmi les forces de Linux que j'ai découvertes : sa capacité à opérer en tant
que serveur sans nécessiter d'interface graphique, ses outils intégrés puissants
et sa nature contrôlable à distance. Les interface graphiques consomment les ressources
de la machine, privant le système de mémoire et de CPU au détriment des applications

Naviguer dans la résolution de noms ( Partie 1 )
La question le plus souvent posée aux consultants réseau est ce qui, dans la mise en réseau de Windows, pose le plus de problèmes. La réponse est sans détour : la résolution des noms, avec son indissociable cortège de maux - mauvaises performances, incapacité des clients ou des applications à se connecter aux serveurs, listes d'exploration incomplètes et obscurs messages d'erreur aux problèmes de résolution des noms d'ordinateurs en adresses IP. Pour vous aider à venir à bout de ces maladies, cet article propose une initiation à la résolution des noms, explique certaines causes, peu connues, des problèmes de résolution de noms et règle un malentendu courant sur le sujet.
Lire l'article
Mettez un tigre dans votre firewall
Indispensables pour sécuriser un réseau connecté à l'Internet, les firewalls ne suffisent plus pour garantir une protection suffisante. Ce sont en effet des systèmes statiques imposant un ensemble particulier de règles et permettant, par conséquent, à des pirates d'utiliser des paquets valides pour attaquer un réseau et en compromettre la sécurité. Pour une protection complète, surtout de Windows NT et du protocole IP, il vous faut plus qu'un simple firewall. Pour situer les problèmes potentiels, avant que des hackers (les intrus qui pénètrent les systèmes avec des intentions généralement malveillantes) ne les exploitent à l'intérieur ou à l'extérieur de votre réseau, vous avez le choix entre plusieurs outils de sécurité, tels que les scanners de ports, tests de vulnérabilité, analyseurs de journaux et autres détecteurs d'intrusion.
Lire l'article
Optimiser les performances de NTFS
Système de fichier moderne et fiable, NTFS peut être amélioré grâce au tuning et mieux adapté aux besoins propres à chaque entreprise. Cet article décrit des mesures pour évaluer et optimiser les performances des volumes NTFS.En 1993, Microsoft a lancé Windows NT 3.1 et, avec lui, un nouveau système de fichier FAT conçu pour améliorer les possibilités du nouvel OS. Conçu à l’origine par Gary Kumura et Tom Miller, membres de l’équipe de développement originale de NT, NTFS s’appuie sur la sécurité de NT pour améliorer les caractéristiques d’efficacité et de récupération de FAT.
Ces fonctions font de NTFS le système de fichier de prédilection pour les disques de grands volumes des serveurs de réseau. On trouve toujours le système FAT sur les disques de nombreux systèmes qui en ont besoin (par exemple les partitions multi OS ou les serveurs NT basés sur RISC) ; mais les limites de ce système en ont fait un canard boiteux dans l’univers NT moderne.
Si vous voulez satisfaire aux impératifs de sécurité, de performances et de capacité propres à la plupart des organisations, NTFS est le seul choix possible.NTFS est un système de fichier robuste, autocorrectif, qui offre plusieurs fonctions personnalisables ayant une incidence sur son fonctionnement dans un environnement donné.
Certains paramètres sont généraux et d’autres spécifiques à certains volumes NTFS et un certain nombre peuvent se contrôler et s’optimiser. En examinant les besoins de stockage spécifiques à un système et en adaptant ensuite les volumes NT en conséquence, il est possible d’augmenter significativement les performances de disques des systèmes. Cet article décrit plusieurs méthodes pour évaluer et augmenter les performances de NTFS.

De plus en plus évolutif :SQL Server 7.0
A l’approche de 2000, l’un des plus grands défis à relever pour Microsoft avec Windows NT est celui de l’évolutivité. C’est d’ailleurs ce challenge qui a servi de directive principale au développement de SQL Server 7.0.SQL Server 6.5 est, certes, une excellente base de données départementale, mais beaucoup d’utilisateurs savent bien, au fond, que le logiciel n’est pas suffisamment évolutif à l’échelon d’une entreprise. Voilà pourquoi beaucoup d’éditeurs de d’ERP ne supportent SQL Server 6.5 qu’à contrecœur (voire pas du tout), en ne le recommandant que pour les petites implémentations SQL Server 7.0 bouleverse radicalement la situation. Microsoft a revu le produit de fond en comble. De nombreuses améliorations architecturales ont boosté l’évolutivité de SQL Server 7.0 dans l’arène de l’entreprise. Résultat, les éditeurs d’ERP l’ont aussitôt adopté. Détaillons les principales améliorations de l’évolutivité de SQL Server 7.0.
Lire l'article
Trois façons de maigrir
Dans notre numéro de mai 1998, nous avions testé les beta 1 de Terminal Server et de MetaFrame de Citrix Systems ainsi que la MaxStation de Maxspeed pour l'article " Enfants de l'Hydre ". Depuis, les environnement NT multiutilisateurs ont évolué. Voici donc les pages " minceur " que tout bon magazine se doit de proposer pour l'été.
Lire l'article
Mesurer et administrer les performances des applications NT Workstation
Quand il s'agit d'obtenir des performances maximales de Windows NT Workstation 4.0, la première chose qui vient à l'esprit est qu'il suffit d'éliminer le shell de l'explorateur, d'utiliser une interface d'invite de commandes et de ne pas exécuter ces fichues applications graphiques. Moyennant quoi NT Workstation va décoller. C'est ce que j'appelle la " mentalité table rase ", d'ailleurs répandue chez les disciples d'UNIX, persuadés, parfois non sans raison, que les applications graphiques sont cause de ralentissement. En fait, les performances du noyau de Windows NT n'ont aucune importance, puisque Windows NT Workstation fonctionne dans un environnement graphique et exécute des applications graphiques. Dans la plupart des cas, on ne peut pas désactiver le shell de l'Explorateur Windows sans invalider la fonctionnalité du système. Il est donc temps de réexaminer d'un oeil neuf comment mesurer et gérer les performances des postes de travail Windows NT afin de profiter au maximum de cet investissement. Pour commencer, les compteurs de l'analyseur de performances permettent d'identifier les applications posant des problèmes, ce qui est un point de départ très utile. Par ailleurs, certains utilitaires du Kit de ressources de Windows NT Workstation 4.0 aident à mesurer et à surveiller les problèmes de performances.
Lire l'article
Une nouvelle étape pour le groupe RMH
La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.
Lire l'article
Commerce électronique : le marché aux puces
Beaucoup d'entreprises considèrent toujours les cartes à puce comme une technologie
futuriste. C'est peut-être le cas de la vôtre. Pour Windows 2000, en revanche,
elles sont d'ores et déjà une réalité bien actuelle, et bénéficieront donc d'un
support extrêmement intégré.
Cet article présente les cartes à puce, en expliquant leur importance et leur
fonctionnement et comment commencer à les utiliser dans Windows 2000. Nous détaillerons
plus particulièrement la configuration d'une connexion avec la carte à puce GemSAFE
de Gemplus et le lecteur GCR410. Et comme cette technologie n'est pas parfaite
non plus, nous verronségalement un certain nombre de risques qui lui sont inhérents.
Les cartes à puce permettent de créer une infrastructure à clé publique (PKI pour
public key infrastructure), laquelle facilite, à son tour, l'e-commerce. Une PKI
permet d'atteindre un niveau de confiance pour les transactions électroniques,
au moins égal à celui de l'univers du papier et de la signature manuscrite. Une
PKI peut garantir l'intégrité des messages, la confidentialité et le non-reniement.
Vous ne pouvez pas nier avoir envoyé un message, s'il est signé de votre certificat
numérique, puisque votre clé publique vérifie votre signature.
Si une clé publique vérifie avec succès une signature, la seule personne qui a
pu envoyer le message est celle qui détient la clé publique. La pierre angulaire
de la sécurité d'une PKI est que la clé privée associée à un certificat numérique
doit rester privée. Sinon, un hacker peut utiliser une clé privée pour contrefaire
facilement les transactions.
Les cartes à puce permettent de créer une infrastructure à clé publique
(PKI), laquelle facilite, à son tour, l'e-commerce

Les SAN tirent leur épingle du jeu
Récemment, Scott McNealy, PDG de Sun Microsystems, a déclaré " Le stockage n’est pas une industrie ; c’est une fonction du serveur " Pour EMC et Data General, il s’agit pourtant bel et bien d’une industrie - et d’une industrie qui marche incroyablement bien.Quand on sait que 50 % de l’investissement en infrastructure effectués par une entreprise sont destinés au stockage (certains analystes vont même jusqu’à 70 %), on comprend assez bien l’importance de ce marché. L’e-commerce, le datawarehousing, le datamining, le multimédia et les transactions OLTP consomment rapidement les ressources de stockage et pèsent lourdement sur les réseaux des entreprises.
Ces technologies contribuent aussi à susciter un intérêt pour le développement de la technologie du SAN (Storage Area Network) qui consolide et gère les données et décharge le trafic du réseau vers un sous-système.L’émergence de la technologie Fibre Channel (FC) facilite considérablement la mise en œuvre des SAN, entraînant du même coup plusieurs nouveaux acteurs sur le marché avec des offres telles que des sous-systèmes disques, des commutateurs, des interconnexions, des systèmes de sauvegarde et de récupération, des bibliothèques sur CD-ROM et des lecteurs de bandes.
Pour les constructeurs les SAN sont une aubaine, avec un marché mondial qui progressera de 4 milliards de dollars environ en 1998 à 17 milliards en 2000, selon Strategic Research. IDC prévoit pour sa part que le marché global du stockage atteindra 50 milliards de dollars en 2002 et celui du SAN 11 milliards de dollars en 2003.
L’avenir du SAN et le développement des standards FC sont inexorablement liés car Fibre Channel augmente considérablement les possibilités de connectivité des SAN et permet la distribution à distance.
Les trois organismes qui définissent les standards FC en ce moment sont Fibre Alliance, sous l’égide d’EMC, la SNIA (Storage Networking Industry Association) et l’IETF (Internet Engineering Task Force), à qui revient en dernier lieu la décision des standards qui seront adoptés. L’avenir des SAN dépend de ces organismes.
L’avenir du SAN et le développement des standards Fibre Channel sont inexorablement liés

Stockage performant des données
Pour obtenir des traitements performants, tout le monde pense à choisir un bon schéma physique pour les données d'une base. Mais il faut aussi stocker les données d'une manière acceptable pour les durées de sauvegarde, restauration et réorganisation. Voici quelques conseils. Le but de cet article est d'offrir quelques conseils en matière de sauvegarde et non de faire le tour du sujet. Nous n'y traiterons donc pas du choix des matériels (disques et streamers en mode RAID, divers types de cartouches, robots de stockage, réseaux d'accès aux données NAS/SAN et réseaux d'accès aux périphériques de sauvegarde.
Lire l'article
PPTP est-il sûr ?
Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts
dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir
des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes
de PPTP ?
Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés
en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de
PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par
des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN
pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point
Tunneling Protocol " (http://www.counterpane.com/pptppaper.html),
une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus
tard, L0pht Heavy Industries, (http://www.L0pht.com)
a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable
de déduire les mots de passe d'utilisateurs à partir des questions/réponses traversant
la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article "
Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft
était en train de développer les mises à jour de la spécification PPTP et les
versions du code consécutives. En août 1998, Microsoft a sorti trois corrections
pour PPTP et d'autres mises à jour de DUN.
Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant
la sécurité du système
L'an dernier, on a eu beaucoup de mal à suivre l'évolution des choses tant
la confusion était grande entre les déclarations des hackers et les réponses de
Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre
à cette question, je vais détailler les faiblesses de PPTP et expliquer comment
Microsoft a réussi à les corriger avec les améliorations successives de la mise
à jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.

Le top 10 des commandes batch
Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.
Lire l'article
Bâtir des routages IP redondants
Le succès du commerce électronique repose largement sur le routage IP, qui achemine
les informations de l'e-business d'une entreprise à l'autre. Sans mécanisme de
routage IP redondant et à tolérance de panne, l'e-business d'une entreprise ne
peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation,
interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise
n'a pas d'autre méthode pour accéder à l'Internet
Pour atteindre et conserver un avantage concurrentiel en commerce électronique,
il vous faut intégrer un routage IP redondant dans votre infrastructure Internet.
Il existe divers moyens pour cela et l'un des plus courants est d'installer des
routeurs et des connexions Internet redondants. La présence de plusieurs routeurs
sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs
Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à divers ISP (c'est-à -dire le multihoming) permettent
de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une
liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering
Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP
redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol),
qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles
par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router
Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent
à créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet.
Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits
d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure
de commerce électronique, il est indispensable de bien comprendre les bases du
fonctionnement de ces protocoles dans les configurations de routage IP redondantes.

Partager les connexions Internet
Le routage IP du LAN vers le WAN est un thème récurrent depuis plusieurs années.
Cet article fait le point sur les aptitudes de Windows NT à router le trafic IP.
En1992, j'ai décidé d'établir mon entreprise sur le Web. Je me suis donc adressé
à un ISP pour me procurer 256 adresses IP. L'entreprise devait héberger ses propres
serveurs Web et de messagerie et il fallait par conséquent des connexions Internet
24 x 7. Au lieu d'acheter un routeur LAN-WAN de Cisco Systems ou autres constructeurs,
je trouvai l'expérience beaucoup plus enrichissante de construire moi-même un
routeur.
Ce premier routeur devait servir à traiter OS/2 2.0 et TCP/IP pour OS/2. Dès que
Windows NT se mit à supporter le routage IP, je remplaçai OS/2 par NT. Puis je
rédigeai une série d'articles pour Windows 2000 Magazine pour expliquer comment
faire d'un système NT un routeur LAN-WAN.
es articles continuent à générer une importante quantité de courrier, décrivant
tous le même scénario et posant constamment la même question : J'ai
un ordinateur chez moi connecté à Internet par une liaison ADSL/modem câble/RNIS.
J'ai aussi plusieurs autres machines chez moi.
Comment configurer mon PC connecté à Internet pour partager sa liaison Internet
avec les autres machines ?
Après la publication des premiers articles, j'ai revu la question deux fois
- d'abord lorsque Microsoft a sorti le code de routage amélioré RRAS (dit Steelhead),
puis pour la sortie de Proxy Server 2.0. RRAS n'était pas la bonne réponse pour
les télétravailleurs, car il exigeait que chaque machine ait une adresse IP fournie
par l'ISP. Or, la création d'adresses aléatoires ne fonctionnait pas pour des
machines domestiques. Proxy Server contournait le problème mais en posait un autre
en raison des frais occasionnés - dans les 1000 dollars.
Avec Windows 98 SE ou Windows 2000 Professional, il suffit de quelques
clics de souris et de rebooter pour profiter facilement du routage
Mais avec Windows 98 Second Edition (Win98SE) ou Windows 2000 Professional,
il suffit de quelques clics de souris et de rebooter les PC pour profiter facilement
du routage. Win98SE devait être disponible au moment où vous lirez cet article
et Windows 2000 Pro et Windows 2000 Server sortiront probablement très bientôt.
Malheureusement Microsoft n'offrira pas Win98SE à tout le monde - comme les versions
OSR (Version de service OEM) de Win95, il ne sera disponible qu'avec l'achat d'un
nouvel ordinateur. Mais si vous pouvez attendre jusqu'à la sortie de Windows 2000
ou si vous achetez un nouveau PC, le routage facile c'est pour bientôt.

Au coeur de la gestion du stockage – Première partie
L'évolution de la gestion du stockage de Windows NT débute avec DOS ; le premier OS de Microsoft. Avec l'augmentation de la taille des disques durs, DOS a du s'adapter. Pour cela, une des premières décisions prises par Microsoft a été de permettre à DOS de créer de multiples partitions, ou disques logiques, sur un même disque physique.Avec l'introduction des disques logiques, DOS a pu formater chaque partition avec un type de système de fichiers différent (FAT12 ou FAT 16) et affecter à chaque partition une lettre d'unité différente. DOS 3 et 4 étaient sévèrement limités quant à la taille et au nombre de partitions que l'on pouvait créer, mais avec DOS 5, le système de partitions est arrivé à sa pleine maturité : on pouvait diviser un disque en autant de partition de quelque taille que ce fût. Windows NT a emprunté le système des partitions du DOS afin d'assurer la compatibilité des disques avec DOS et Windows 3.x, et pour que l'équipe de développement de NT puisse s'appuyer sur des composants éprouvés pour la gestion des disques.
Dans Windows NT, Microsoft a fait évoluer les concepts de base du système de partitionnement de base du DOS pour supporter les fonctions de gestion des disques des OS d'entreprise : le spanning de disques et la tolérance aux pannes. Dès la première version de Windows NT, les administrateurs système ont pu créer des volumes comprenant plusieurs partitions.
Cette possibilité permet de créer de grands volumes consistant en partitions réparties sur plusieurs disques physiques et permet la mise en œuvre de la tolérance de panne grâce à la redondance logicielle des données. Le support du partitionnement de Windows NT est assez souple pour supporter la plupart des besoins de gestion du stockage, mais ce support comporte plusieurs inconvénients. Un de ces inconvénients est que la plupart des modifications de configuration des disques nécessitent un redémarrage pour entrer en vigueur. Dans l'environnement actuel des serveurs, qui doivent rester on-line pendant des mois, voire des années, tout redémarrage (même planifié) est un problème majeur.
Autre inconvénient, le Registre de Windows NT stocke les informations avancées de configuration des disques. Ce choix a pour conséquence de compliquer le déplacement des informations de configuration lorsque l'on déplace des disques d'un serveur à un autre. Il est facile de perdre des informations de configuration lorsque vous devez réinstaller le disque. Enfin, le fait que NT exige que chaque volume ait une unique lettre d'unité dans la tranche A à Z, fixe un plafond au nombre de volumes locaux et distants qu'un utilisateur puisse créer.
Windows 2000 élimine bon nombre de limitations des tâches de gestion du stockage de NT 4.0Windows 2000 élimine bon nombre de limitations des tâches de gestion du stockage de NT 4.0 avec une nuée de nouvelles améliorations en la matière. Depuis les points de montage de volumes, qui permettent de supprimer la limite du nombre de volumes possibles, au support intégré de la migration des fichiers, en passant par le stockage hors connexion ou la gestion du stockage sans redémarrage, Windows 2000 place sa gestion du stockage à un niveau équivalent à celui des UNIX les plus évolués. Détaillons les internes de la gestion du stockage dans Windows NT et 2000.

Thorn Europhane : ERP et Terminal Server au centre du nouveau SI
Pour bâtir son nouveau système d'information multisite, le groupe Thorn a opté pour la mise en place de l'ERP Baan. Les problèmes de communications de données entre les filiales ont pu être résolus grâce à l'architecture Terminal Server/Metaframe.La décision de mettre en oeuvre une informatique de gestion commune au niveau du groupe Thorn est née il y a trois ans, et répondait à une double contrainte. D'une part, les difficultés de consolidations de chiffres, et d'autres parts les problèmes de communication entre les différentes filiales, au sein d'environnements informatiques très hétérogènes. " Il devenait primordial de mettre en oeuvre un modèle de gestion plus cohérent au niveau du groupe, de rationaliser les systèmes d'informations des différentes filiales, et faire en sorte qu'ils passent le cap de l'an 2000. " explique Gérard L'hote, directeur administratif et financier chez Thorn Europhane. C'est le progiciel de gestion intégré Baan qui sera retenu, après la phase de Business Re Engineering, pour supporter une rénovation complète du système d'information de l'entreprise : de la gestion comptable, financière, commerciale, à la gestion de production. " Nous avons fait le choix de l'ERP Baan car c'était alors, le seul produit du marché susceptible de nous aider à bâtir un système d'information multisite transfrontières, en nous apportant une réponse métier adaptée à notre problématique de GPAO. " souligne Gérard L'hote. Quant à l'intégrateur Origin, il sera chargé de la mise en oeuvre complète de l'ERP. " Origin est aujourd'hui le premier intégrateur Baan sur le marché, mais c'est aussi la seule société de services capable d'apporter une réponse internationale à notre problématique d'implémentation. " précise Gérard L'hote.
A partir du mois de juin 1998, un modèle commun d'implémentation a été choisi pour l'ensemble des pays concernés (Angleterre, Suède, France et Allemagne). A charge de ces filiales, d'adapter ensuite la solution à leurs besoins propres de gestion, via des personnalisations et des développements spécifiques.
" L'architecture AS400 nous posait de gros problèmes de communications entre sites à cause du protocole SNA "
Basée en Angleterre, l'usine de production de Spennymoor sera la première à finaliser la mise en oeuvre de la gestion de production. Elle sera suivie par son homologue allemande, qui optera pour une démarche Big Bang du fait de sa configuration multisite. La France vient quant à elle de terminer l'implémentation de la solution par la mise en oeuvre du dernier module de gestion commerciale.
Lire l'article