> Tech
NT versus Linux : les trois avantages de Linux

NT versus Linux : les trois avantages de Linux

Les nouveaux OS m'ont toujours fasciné. J'adore les essayer, en espérant en trouver un qui soit fiable, souple et compatible. Au cours des 20 dernières années, j'ai utilisé de nombreux OS et aucun n'a répondu à  toutes mes attentes. Depuis 20 ans que j'essaie de nouveaux systèmes d'exploitation, j'ai eu l'occasion d'en utiliser plus d'un. J'ai ainsi pu tester notamment CP/M de Digital Research et ses successeurs CP/M-86 et MP/M ; TRSDOS, l'OS des systèmes TRS-80 ; TOS de l'Atari 520 ; GEM d'Amiga ; P-System de l'Université de Californie de San Diego (une première approche de type Java de l'indépendance vis à  vis de la machine) ; WM/386 d'IGC, Microsoft Windows/386 et DesQ de Quarterdeck (trois tentatives de construire un OS DOS multitâche) ; IBM OS/2 ; VINES de Banyan ; Novell NetWare ; et, bien sur, Windows NT.
Aucun de ces OS ne m'a apporté toutes les fonctions que je recherchais. Certains ont échoué à  cause de limites techniques, d'autres ont pâti d'un manque de reconnaissance du marché.

Dans certains cas, pour les deux raisons. Linux est le dernier en date des OS à  fort potentiel. Linus Torvalds a créé ce système proche d'UNIX en 1991 alors qu'il était étudiant, et des milliers d'autres programmeurs l'ont enrichi depuis. Une des raisons de l'attention et de l'intérêt suscité par Linux au cours des 2 dernières années et que tant de gens ont donné de leur temps pour travailler sur cet OS (autrement dit, peut de développeurs de Linux sont payés pour leur effort).
J'ai beaucoup appris sur Linux récemment car je prépare un livre destiné aux experts NT afin de leur faire découvrir ce qu'est Linux, ce qu'il peut faire et comment il peut faciliter la vie des administrateurs NT.

Parmi les forces de Linux que j'ai découvertes : sa capacité à  opérer en tant que serveur sans nécessiter d'interface graphique, ses outils intégrés puissants et sa nature contrôlable à  distance. Les interface graphiques consomment les ressources de la machine, privant le système de mémoire et de CPU au détriment des applications

Lire l'article
Naviguer dans la résolution de noms ( Partie 1 )

Naviguer dans la résolution de noms ( Partie 1 )

La question le plus souvent posée aux consultants réseau est ce qui, dans la mise en réseau de Windows, pose le plus de problèmes. La réponse est sans détour : la résolution des noms, avec son indissociable cortège de maux - mauvaises performances, incapacité des clients ou des applications à  se connecter aux serveurs, listes d'exploration incomplètes et obscurs messages d'erreur aux problèmes de résolution des noms d'ordinateurs en adresses IP. Pour vous aider à  venir à  bout de ces maladies, cet article propose une initiation à  la résolution des noms, explique certaines causes, peu connues, des problèmes de résolution de noms et règle un malentendu courant sur le sujet.

Lire l'article
Mettez un tigre dans votre firewall

Mettez un tigre dans votre firewall

Indispensables pour sécuriser un réseau connecté à  l'Internet, les firewalls ne suffisent plus pour garantir une protection suffisante. Ce sont en effet des systèmes statiques imposant un ensemble particulier de règles et permettant, par conséquent, à  des pirates d'utiliser des paquets valides pour attaquer un réseau et en compromettre la sécurité. Pour une protection complète, surtout de Windows NT et du protocole IP, il vous faut plus qu'un simple firewall. Pour situer les problèmes potentiels, avant que des hackers (les intrus qui pénètrent les systèmes avec des intentions généralement malveillantes) ne les exploitent à  l'intérieur ou à  l'extérieur de votre réseau, vous avez le choix entre plusieurs outils de sécurité, tels que les scanners de ports, tests de vulnérabilité, analyseurs de journaux et autres détecteurs d'intrusion.

Lire l'article
Optimiser les performances de NTFS

Optimiser les performances de NTFS

Système de fichier moderne et fiable, NTFS peut être amélioré grâce au tuning et mieux adapté aux besoins propres à chaque entreprise. Cet article décrit des mesures pour évaluer et optimiser les performances des volumes NTFS.En 1993, Microsoft a lancé Windows NT 3.1 et, avec lui, un nouveau système de fichier FAT conçu pour améliorer les possibilités du nouvel OS. Conçu à l’origine par Gary Kumura et Tom Miller, membres de l’équipe de développement originale de NT, NTFS s’appuie sur la sécurité de NT pour améliorer les caractéristiques d’efficacité et de récupération de FAT.
Ces fonctions font de NTFS le système de fichier de prédilection pour les disques de grands volumes des serveurs de réseau. On trouve toujours le système FAT sur les disques de nombreux systèmes qui en ont besoin (par exemple les partitions multi OS ou les serveurs NT basés sur RISC) ; mais les limites de ce système en ont fait un canard boiteux dans l’univers NT moderne.
Si vous voulez satisfaire aux impératifs de sécurité, de performances et de capacité propres à la plupart des organisations, NTFS est le seul choix possible.NTFS est un système de fichier robuste, autocorrectif, qui offre plusieurs fonctions personnalisables ayant une incidence sur son fonctionnement dans un environnement donné.
Certains paramètres sont généraux et d’autres spécifiques à certains volumes NTFS et un certain nombre peuvent se contrôler et s’optimiser. En examinant les besoins de stockage spécifiques à un système et en adaptant ensuite les volumes NT en conséquence, il est possible d’augmenter significativement les performances de disques des systèmes. Cet article décrit plusieurs méthodes pour évaluer et augmenter les performances de NTFS.

Lire l'article
De plus en plus évolutif :SQL Server 7.0

De plus en plus évolutif :SQL Server 7.0

A l’approche de 2000, l’un des plus grands défis à relever pour Microsoft avec Windows NT est celui de l’évolutivité. C’est d’ailleurs ce challenge qui a servi de directive principale au développement de SQL Server 7.0.SQL Server 6.5 est, certes, une excellente base de données départementale, mais beaucoup d’utilisateurs savent bien, au fond, que le logiciel n’est pas suffisamment évolutif à l’échelon d’une entreprise. Voilà pourquoi beaucoup d’éditeurs de d’ERP ne supportent SQL Server 6.5 qu’à contrecœur (voire pas du tout), en ne le recommandant que pour les petites implémentations SQL Server 7.0 bouleverse radicalement la situation. Microsoft a revu le produit de fond en comble. De nombreuses améliorations architecturales ont boosté l’évolutivité de SQL Server 7.0 dans l’arène de l’entreprise. Résultat, les éditeurs d’ERP l’ont aussitôt adopté. Détaillons les principales améliorations de l’évolutivité de SQL Server 7.0.

Lire l'article
Trois façons de maigrir

Trois façons de maigrir

Dans notre numéro de mai 1998, nous avions testé les beta 1 de Terminal Server et de MetaFrame de Citrix Systems ainsi que la MaxStation de Maxspeed pour l'article " Enfants de l'Hydre ". Depuis, les environnement NT multiutilisateurs ont évolué. Voici donc les pages " minceur " que tout bon magazine se doit de proposer pour l'été.

Lire l'article
Mesurer et administrer les performances des applications NT Workstation

Mesurer et administrer les performances des applications NT Workstation

Quand il s'agit d'obtenir des performances maximales de Windows NT Workstation 4.0, la première chose qui vient à  l'esprit est qu'il suffit d'éliminer le shell de l'explorateur, d'utiliser une interface d'invite de commandes et de ne pas exécuter ces fichues applications graphiques. Moyennant quoi NT Workstation va décoller. C'est ce que j'appelle la " mentalité table rase ", d'ailleurs répandue chez les disciples d'UNIX, persuadés, parfois non sans raison, que les applications graphiques sont cause de ralentissement. En fait, les performances du noyau de Windows NT n'ont aucune importance, puisque Windows NT Workstation fonctionne dans un environnement graphique et exécute des applications graphiques. Dans la plupart des cas, on ne peut pas désactiver le shell de l'Explorateur Windows sans invalider la fonctionnalité du système. Il est donc temps de réexaminer d'un oeil neuf comment mesurer et gérer les performances des postes de travail Windows NT afin de profiter au maximum de cet investissement. Pour commencer, les compteurs de l'analyseur de performances permettent d'identifier les applications posant des problèmes, ce qui est un point de départ très utile. Par ailleurs, certains utilitaires du Kit de ressources de Windows NT Workstation 4.0 aident à  mesurer et à  surveiller les problèmes de performances.

Lire l'article
Une nouvelle étape pour le groupe RMH

Une nouvelle étape pour le groupe RMH

La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.

Lire l'article
Commerce électronique : le marché aux puces

Commerce électronique : le marché aux puces

Beaucoup d'entreprises considèrent toujours les cartes à  puce comme une technologie futuriste. C'est peut-être le cas de la vôtre. Pour Windows 2000, en revanche, elles sont d'ores et déjà  une réalité bien actuelle, et bénéficieront donc d'un support extrêmement intégré. Cet article présente les cartes à  puce, en expliquant leur importance et leur fonctionnement et comment commencer à  les utiliser dans Windows 2000. Nous détaillerons plus particulièrement la configuration d'une connexion avec la carte à  puce GemSAFE de Gemplus et le lecteur GCR410. Et comme cette technologie n'est pas parfaite non plus, nous verronségalement un certain nombre de risques qui lui sont inhérents.
Les cartes à  puce permettent de créer une infrastructure à  clé publique (PKI pour public key infrastructure), laquelle facilite, à  son tour, l'e-commerce. Une PKI permet d'atteindre un niveau de confiance pour les transactions électroniques, au moins égal à  celui de l'univers du papier et de la signature manuscrite. Une PKI peut garantir l'intégrité des messages, la confidentialité et le non-reniement.
Vous ne pouvez pas nier avoir envoyé un message, s'il est signé de votre certificat numérique, puisque votre clé publique vérifie votre signature.
Si une clé publique vérifie avec succès une signature, la seule personne qui a pu envoyer le message est celle qui détient la clé publique. La pierre angulaire de la sécurité d'une PKI est que la clé privée associée à  un certificat numérique doit rester privée. Sinon, un hacker peut utiliser une clé privée pour contrefaire facilement les transactions.

Les cartes à  puce permettent de créer une infrastructure à  clé publique (PKI), laquelle facilite, à  son tour, l'e-commerce

Lire l'article
Les SAN tirent leur épingle du jeu

Les SAN tirent leur épingle du jeu

Récemment, Scott McNealy, PDG de Sun Microsystems, a déclaré " Le stockage n’est pas une industrie ; c’est une fonction du serveur " Pour EMC et Data General, il s’agit pourtant bel et bien d’une industrie - et d’une industrie qui marche incroyablement bien.Quand on sait que 50 % de l’investissement en infrastructure effectués par une entreprise sont destinés au stockage (certains analystes vont même jusqu’à 70 %), on comprend assez bien l’importance de ce marché. L’e-commerce, le datawarehousing, le datamining, le multimédia et les transactions OLTP consomment rapidement les ressources de stockage et pèsent lourdement sur les réseaux des entreprises.

Ces technologies contribuent aussi à susciter un intérêt pour le développement de la technologie du SAN (Storage Area Network) qui consolide et gère les données et décharge le trafic du réseau vers un sous-système.L’émergence de la technologie Fibre Channel (FC) facilite considérablement la mise en œuvre des SAN, entraînant du même coup plusieurs nouveaux acteurs sur le marché avec des offres telles que des sous-systèmes disques, des commutateurs, des interconnexions, des systèmes de sauvegarde et de récupération, des bibliothèques sur CD-ROM et des lecteurs de bandes.
Pour les constructeurs les SAN sont une aubaine, avec un marché mondial qui progressera de 4 milliards de dollars environ en 1998 à 17 milliards en 2000, selon Strategic Research. IDC prévoit pour sa part que le marché global du stockage atteindra 50 milliards de dollars en 2002 et celui du SAN 11 milliards de dollars en 2003.

L’avenir du SAN et le développement des standards FC sont inexorablement liés car Fibre Channel augmente considérablement les possibilités de connectivité des SAN et permet la distribution à distance.
Les trois organismes qui définissent les standards FC en ce moment sont Fibre Alliance, sous l’égide d’EMC, la SNIA (Storage Networking Industry Association) et l’IETF (Internet Engineering Task Force), à qui revient en dernier lieu la décision des standards qui seront adoptés. L’avenir des SAN dépend de ces organismes.

L’avenir du SAN et le développement des standards Fibre Channel sont inexorablement liés

Lire l'article
Stockage performant des données

Stockage performant des données

Pour obtenir des traitements performants, tout le monde pense à  choisir un bon schéma physique pour les données d'une base. Mais il faut aussi stocker les données d'une manière acceptable pour les durées de sauvegarde, restauration et réorganisation. Voici quelques conseils. Le but de cet article est d'offrir quelques conseils en matière de sauvegarde et non de faire le tour du sujet. Nous n'y traiterons donc pas du choix des matériels (disques et streamers en mode RAID, divers types de cartouches, robots de stockage, réseaux d'accès aux données NAS/SAN et réseaux d'accès aux périphériques de sauvegarde.

Lire l'article
PPTP est-il sûr ?

PPTP est-il sûr ?

Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes de PPTP ? Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point Tunneling Protocol " (http://www.counterpane.com/pptppaper.html), une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus tard, L0pht Heavy Industries, (http://www.L0pht.com) a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable de déduire les mots de passe d'utilisateurs à  partir des questions/réponses traversant la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article " Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft était en train de développer les mises à  jour de la spécification PPTP et les versions du code consécutives. En août 1998, Microsoft a sorti trois corrections pour PPTP et d'autres mises à  jour de DUN.

Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant la sécurité du système

L'an dernier, on a eu beaucoup de mal à  suivre l'évolution des choses tant la confusion était grande entre les déclarations des hackers et les réponses de Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre à  cette question, je vais détailler les faiblesses de PPTP et expliquer comment Microsoft a réussi à  les corriger avec les améliorations successives de la mise à  jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.

Lire l'article
Le top 10 des commandes batch

Le top 10 des commandes batch

Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.

Lire l'article