> Tech
Plus loin dans le partage de connexions Internet

Plus loin dans le partage de connexions Internet

Par Mark Minasi
Dans l'article " Connecter votre petit réseau à  Internet " du mois dernier, nous avons vu comment utiliser les fonctions natives de traduction d'adresses réseau de Windows 2000 (NAT) pour simuler la fonction de partage des connexions Internet, ICS, similaire mais plus simple. Cet article explique comment utiliser NAT pour augmenter vos possibilité de partage d'une adresse IP routable dans un réseau interne.
Le partage des connexions Internet ICS apparaît non seulement dans Windows 2000 Server, mais également dans Windows 2000 Professionnel, Windows 98 Second Edition et Windows Millenium Edition (Windows Me). NAT, n'est disponible quant à  lui qu'avec Windows 2000 Server. NAT et ICS permettent de partager une adresse routable entre des dizaines d'ordinateurs dans un réseau interne. Ces systèmes internes obtiennent une adresse non routable dans la tranche d'adresses commençant avec 192.169.0.0. Pour utiliser NAT ou ICS pour partager une connexion Internet, il suffit de connecter un ordinateur à  la fois au réseau Internet public routable, et au réseau interne non routable 192.169.0.0. L'ordinateur exécute NAT ou ICS et se comporte comme un routeur. Dans cet article, nous allons voir comment étendre les possibilités de ce routeur.

Lire l'article
Les outils de déploiement applicatif

Les outils de déploiement applicatif

par Tom Iwanski
Le déploiement et le management d'applications desktop sur des réseaux distribués constituent deux des défis les plus complexes et les plus coûteux auxquels sont confrontés les services informatiques. Les entreprises déploient à  grand peine une nouvelle application sans se préoccuper du fardeau que constitueront sa maintenance et son support. Il est vrai que l'adoption rapide de l'informatique distribuée a submergé de nombreux services informatiques dépourvus du personnel ou des outils nécessaires pour répondre aux besoins de leurs clients, toujours plus complexes et plus dispersés.

  Ce dilemme a provoqué la généralisation des analyses de coût de possession et de support des PC. Les termes TCO (Total cost of ownership ou coût total de possession) et ROI (Return on Investment ou Retour sur investissement) n'ont plus de secret pour les dirigeants, encore et toujours choqués par le fait que le coût annuel cumulé d'un seul PC puisse dépasser de plusieurs milliers de francs son prix d'achat initial. Comme le management direct ou indirect des applications desktop absorbe une grande part de cette dépense annuelle, nombreuses sont les entreprises qui s'intéressent à  des outils capables de profiler et de centraliser le déploiement et le management applicatif.

  De nombreux ateliers informatiques - réticents aux nombreux utilitaires de management disparates qui sont rarement interopérables ou qui fragmentent les compétences des informaticiens - ont été séduits par de grandes solutions framework de la part de fournisseurs comme Computer Associates (CA), Tivoli Systems, et BMC Software. D'autres ateliers considèrent que les solutions framework peuvent s'avérer trop coûteuses ou complexes, ou qu'elles font l'impasse sur des fonctions importantes que l'on trouve dans des produits plus petits mais excellents.

  Mon objectif initial était de passer en revue les produits qui couvrent tous les aspects du déploiement et du management applicatif. J'ai donc essayé d'écarter des produits non polyvalents comme les outils de clonage ou de packaging. J'ai également exclu des produits comme des solutions framework et Microsoft SMS (Systems Management Server) dont les fonctionnalités s'étendent à  la gestion des ressources et au help desk. Mais j'ai rapidement constaté que les lignes qui séparent les catégories de produits se sont estompées et que de nombreux produits sont en train d'étendre leurs possibilités. Ainsi, PictureTaker de Lanovation a été strictement un packager, mais la récente release 4.0 comporte des possibilités de déploiement. Symantec a acheté AutoInstall de 20/20 Software pour ajouter des fonctions de packaging et de déploiement à  la version récente de l'utilitaire de clonage de Symantec, Norton Ghost 6.5 Enterprise Edition. Plusieurs des produits acquis pour cette comparaison possèdent quelques fonctionnalités qui vont au-delà  du simple déploiement et management applicatif. Je mentionne les fonctions supplémentaires au fil de cet examen.

  J'ai donc choisi cinq produits jugés représentatifs de la technologie et des méthodes proposées par plus d'une dizaine de fournisseurs qui offrent des solutions de déploiement et de management applicatif. (Le tableau 1 recense huit produits non inclus dans cet examen.) J'ai fait tourner les cinq produits choisis dans le Lab de Windows 2000 Magazine et évalué leurs fonctions. Je commence par une brève introduction de chaque produit, puis passe à  une comparaison plus approfondie de leurs fonctions packaging, distribution et management.

Retrouvez les figures explicatives dans l'edition papier de cet article

Lire l'article
iSeries Tools et la puissance de X : Pourquoi FTP ?

iSeries Tools et la puissance de X : Pourquoi FTP ?

par Tim Massaro

Certains des outils inclus dans iSeries Tools for Developers présentent des fenêtres pendant leur fonctionnement. Avec l'aide de X Window et PASE, ceux-ci fonctionnent directement sur l'iSeries.

La récente PRPQ d'IBM « iSeries Tools for Developers » (5799-PTL) facilite le travail des développeurs qui écrivent des applications pour iSeries, ou qui y en portent. Dans le précédent article de cette série à  propos du nouveau toolset, j'ai examiné l'outil d'édition EZ. Ici, nous parlerons davantage de la manière dont même des utilisateurs Windows peuvent utiliser ces nouveaux éditeurs directement sur l'iSeries sans avoir besoin d'un client Unix et, par conséquent, sans avoir besoin d'échanger par FTP des fichiers entre un hôte et un client. Je montre même comment utiliser ces outils à  partir d'un navigateur Web standard.

Certains des outils inclus dans iSeries Tools for Developers présentent des fenêtres pendant leur fonctionnement. Deux d'entre eux sont les outils d'édition EZ et Emacs. Leurs fenêtres contiennent des barres de défilement, des boutons graphiques, des couleurs - et autres attributs d'un éditeur moderne - et ce, sans qu'aucun logiciel spécial n'ait été chargé sur l'ordinateur de bureau.

Ces applications s'exécutent directement dans la « boîte » iSeries, en modifiant des fichiers dans l'IFS (integrated file system) ou dans des membres de fichiers classiques traditionnels. Elles font cela en utilisant le système X Window et le PASE (Portable Application Solutions Environment) OS/400 pour présenter les fenêtres graphiques via un émulateur de terminal X Window fonctionnant sur le PC. PASE est la portion runtime (exécution) AIX de l'iSeries : elle permet à  du code compilé pour des machines IBM AIX Unix de s'exécuter presque en l'état sur l'iSeries.

Dans un instant, nous verrons de plus près comment ces applications présentent texte et graphiques sur l'ordinateur, directement à  partir de la boîte iSeries.

Retrouvez les figures explicatives sur l'édition papier.

Lire l'article
Events – 2001/10  –  Octobre / Novembre

Events – 2001/10 – Octobre / Novembre

Tous les évenements des mois d'octobre et novembre

Lire l'article
Cas concrets de modernisation d’applications

Cas concrets de modernisation d’applications

on Soule
Trois expériences concrètes démontrent qu'il est parfois préférable de rajeunir un code RPG existant que de le remplacer. L'ambiance était tendue, presque sinistre, quand le directeur informatique annonca la nouvelle. Le projet de remplacement de l'application RPG AS/400 par un nouveau système client/serveur Windows NT avait coûté plusieurs dizaines de millions de francs, pris un an et demi de retard, et semblait voué à  l'échec. Le moment était venu d'arrêter l'acharnement thérapeutique : continuer était trop risqué.
Cette mauvaise nouvelle entraînait bien sûr une question : que faire à  présent ? Comme consultant appelé pour recoller les morceaux, c'est à  moi que l'on posa la question.

Il s'agissait de remplacer une application de traitement transactionnel centralisée avec peu d'accès à  distance. L'information parvenait sous forme imprimée aux agences régionales pour être introduite dans le système AS/400 à  l'aide de terminaux 5250. Le nouveau système avait pour mission de distribuer les applications NT à  des centaines de sites.
Les utilisateurs finaux avaient beaucoup participé à  la conception d'une nouvelle interface Windows (implémentée en Visual Basic) et les chefs de projet souhaitaient que l'on puisse utiliser cette nouvelle interface.

Notre solution : conserver l'application AS/400 en la modernisant. Le projet NT prévoyait un serveur à  chaque site, mais nous avons écarté cette hypothèse trop chère et difficile à  gérer. Nous avons préféré utiliser l'AS/400 existant comme système central, relié aux sites par Internet ou par une liaison fixe, selon la taille et le volume du trafic de chaque site.
Pour faciliter la mise en place, limiter les coûts d'assistance, et offrir l'interface graphique, nous avons opté pour un outil frontal générateur d'applets Java. Nous avons utilisé les images déjà  réalisées en VB, comme modèle pour créer un nouveau frontal graphique en Java, pratiquement identique aux panneaux VB que les utilisateurs souhaitaient. Dupliquer le comportement non modal, orienté événements, de l'application VB, a été un peu plus difficile, mais nous y sommes parvenus en modifiant les programmes RPG de manière à  traiter et acheminer quelques nouvelles requêtes. Comme le frontal graphique fonctionne dans Windows ou dans un navigateur, le déploiement a été facile, quel que soit le type de connexion entre un site et l'AS/400.

Du point de vue gestion, la modernisation de l'application existante présentait plusieurs avantages, dont le plus important, dans le cas présent, était le risque minimum. Le projet NT était à  haut risque, avait utilisé la plus grande partie du temps et de l'argent alloués, et avait échoué. La direction ne voulait surtout pas entendre parler d'une autre proposition scabreuse.
Précisément, le choix de modernisation de l'application était rassurant puisqu'il permettait d'utiliser l'existant en matériel, logiciel et compétences. Il était facile d'estimer les coûts de création et de déploiement de l'application, puisqu'ils étaient fondés sur des technologies et des compétences confirmées. Et notre client dépendait de peu de consultants externes pour pallier des compétences maison absentes.
Résultat : un nouveau système en quelques mois, au lieu de quelques années, pour quelques milliers de dollars, au lieu de quelques millions.

Lire l'article
Alpha 21264 : prenez des RISC

Alpha 21264 : prenez des RISC

Alors que tout le monde attend la puce Merced 64 bits d’Intel et la version 64 bits de Windows NT, Digital Equipment offre un avant-goût de la prochaine génération de l’informatique NT. L’Alpha 21264 est un processeur 64 bits supportant NT. C’est l’une des puces les plus rapides du monde. Et, qui plus est, déjà disponible aujourd’hui.Le 21264 est la toute dernière génération de l’architecture de microprocesseur Alpha. Selon Digital, il devrait dépasser des vitesses d’horloge supérieures à 700 MHz dès cette année, reprenant le leadership de la vitesse au 21164, déjà un Alpha.Alpha est la dernière architecture RISC pour laquelle Microsoft développe encore des versions futures de NT, alors qu’il cesse progressivement de supporter les puces MIPS Rx000 et que le PowerPC NT n’a jamais décollé. La seule autre architecture de CPU supportée par NT est, bien entendu, Intel x86. Malgré la domination du marché par ce dernier, l’Alpha possède un grand avantage sur le x86 : des performances supérieures, en particulier pour les calculs en virgule flottante.

Les systèmes Alpha sont plus rapides et excellent dans les applications d’ingénierie à forte proportion de calculs et les applications scientifiques.Pour dépasser les limites des performances de l’architecture x86, qui a déjà vingt ans, Intel a conclu un partenariat avec HP en 1994, afin de développer une nouvelle architecture de CPU : IA-64 (Intel Architecture-64). Selon Intel, les systèmes utilisant le processeur Merced, le premier processeur à implémenter IA-64, devraient sortir vers la mi 2000. Mais Merced pourrait ne pas être la puce la plus rapide du marché NT en 2000. Car à en croire Digital, au moment où Merced fera son apparition, le 21264 tournera à 1000 MHz (1 gigahertz, GHz). A cette vitesse, il sera nettement plus rapide que Merced, selon des estimations benchmarks de CPU.

Les premiers systèmes 21264 tournent et sont disponibles sous forme d’échantillons. La production en volume devrait commencer mi 99. Il n’y aura donc pas à attendre deux ans les performances 64 bits. Cependant, le 21264 n’atteindra son plein potentiel qu’à la sortie par Microsoft d’une version 64 bits à la fois pour les puces IA-64 et Alpha. (Microsoft espère sortir la version 64 bits de NT en 2000).

Le 21264 n’atteindra son plein potentiel qu’à la sortie par Microsoft d’une version 64 bits à la fois pour les puces IA-64 et AlphaOù est le RISC ?

La course que se livrent les processeurs 21264 et IA-64 n’est pas un simple sujet de bavardage stérile. L’enjeu est ni plus ni moins l’avenir du RISC - pour NT et tous les autres systèmes d’exploitation.En dehors du marché des applications intégrées très spécialisées, le RISC est en recul. Actuellement l’architecture RISC pour PC la plus répandue est la puce PowerPC développée conjointement par IBM, Apple et Motorola. Mais le plus gros client informatique des PowerPC est Apple dont le Macintosh n’a plus désormais que 4 % environ de part de marché des PC selon IDC.

En juin dernier, IBM et Motorola ont annoncé qu’ils mettaient un terme à leur partenariat de sept années et allaient développer séparément les futures puces PowerPC.L’autre architecture RISC d’IBM, la série Power, va fusionner avec le PowerPC. IBM retire progressivement la puce Power en tant qu’architecture distincte. La prochaine puce 64 bits, Power3, est le premier processeur qui unifiera les technologies Power et PowerPC.Pour stopper ses pertes récentes, Silicon Graphics abandonne ses processeurs RISC de la série MIPS Rx000. Le fabricant a annulé les projets de prochaines générations et MIPS Technologies, la structure de conception de Puces de SGI a récemment été &q

Lire l'article
Air France : le décisionnel au service du help desk

Air France : le décisionnel au service du help desk

Le service d'assistance informatique du groupe Air France a implémenté la solution Service Center de Peregrine Systems. Objectif : optimiser la gestion d'un parc informatique hétérogène et améliorer la qualité de service rendue aux 40.000 utilisateurs du système d'information de l'entreprise. La création de tableaux de bords via SAS Web permet en outre d'augmenter la visibilité sur l'activité du service. Quatrième transporteur mondial de passagers avec une flotte de plus 213 appareils, la compagnie Air France a pour ambition à  l'horizon 2002 de devenir l'une des " majors " du transport aérien international. En 1997, la fusion opérée entre Air Inter et Air France implique la convergence des deux systèmes d'informations et notamment la mise en oeuvre d'un système de gestion de parc informatique et de helpdesk unique. " Auparavant, chacune des compagnies disposait de sa propre solution de gestion et d'assistance technique, ce qui n'autorisait pas un maximum de visibilité sur les parcs informatiques existants. Avec cette fusion, il devenait primordial d'homogénéiser la gestion du parc informatique et le service d'assistance aux utilisateurs " explique Jean-Yves Guillet, directeur du département assistance informatique d'Air France. Le groupe dispose d'un parc informatique dense et hétérogène reposant sur des systèmes centraux IBM et Unisys à  Massy, Toulouse, et Valbonne, des serveurs Unix et Windows NT décentralisés, près de 33.000 postes de travail Windows 95/NT et des terminaux Bull C-TOS. Pour apporter une qualité de service optimale aux 40.000 utilisateurs du système d'information, le service d'assistance informatique se structure en 4 pôles d'activités. Le pôle d'assistance technique assure avec 30 personnes l'assistance aux utilisateurs. Alors que les opérateurs de premier niveau interviennent pour la gestion des incidents de base, les techniciens et spécialistes de second et troisième niveau prennent le relais pour résoudre des incidents plus complexes. Les appels concernant les applications commerciales (logiciels de distribution, billetterie, réservation…) sont gérés par un autre pôle d'assistance applicative commerciale. De même, un autre pôle d'assistance applicatives composé de 12 personnes gère les appels relatifs aux utilisateurs des logiciels d'applications aéroportuaires (enregistrement des passagers, embarquement...).

Lire l'article
Distribuer les modifications du registre <BR src=">

Distribuer les modifications du registre

par Kathy Ivens
A chaque fois que je conseille de modifier le registre pour résoudre un problème, on me pose immanquablement la même question : " Comment faire pour effectuer une modification du registre sur plusieurs ordinateurs sans se déplacer sur chaque machine ? " Il existe trois méthodes pour distribuer des modifications du registre à  travers un réseau : l'importation de fichiers de registration (.reg), l'utilisation de regini.exe, ou bien les stratégies de groupe ou les stratégies système.
Avant de décrire les trois méthodes permettant de distribuer les modifications apportées au registre, je me dois de lancer l'avertissement usuel : attention de ne pas mettre la pagaille dans le registre, ce serait dangereux. N'essayez pas de mettre en application une des suggestions ci-dessus, à  moins de bien connaître le registre et d'être un utilisateur expérimenté. Avant de commencer, par mesure de sécurité, utilisez regedit.exe pour exporter une clé. Le fichier exporté porte l'extension .reg. Ainsi, en cas de problèmes consécutifs à  la manipulation de la clé, le dommage sera vite réparé en important de nouveau le fichier dans le registre. (Même si vous préférez travailler avec regedt32, il vaut mieux ouvrir d'abord regedit et exporter la clé qui va être mise au point. Les fonctions export et import de Regedit sont plus facile à  utiliser que les procédures de sauvegarde équivalentes de regedt32).

L'éditeur de stratégies de groupe de Windows 2000 ou l'éditeur de stratégies système de Windows NT et Windows 9x permettent d'appliquer de nombreuses restrictions aux utilisateurs et aux ordinateurs. Cet article part du principe que les changements expliqués ci-dessous n'ont pas encore été effectués sur ces ressources et que les mises au point du registre représentent la meilleure option pour résoudre les problèmes qui se posent à  votre système.

Lire l'article
Gérer les ouvertures et fermetures de sessions dans Windows 2000

Gérer les ouvertures et fermetures de sessions dans Windows 2000

par Randy Franklin Smith
Ce qui est neuf et ce qui l'est un peu moins dans le journal de sécurité Les articles parus sur le journal de sécurité de Windows NT génèrent généralement plus de réactions que tous les autres. Nous avons donc été très sollicités pour écrire une série d'articles similaires sur le journal de sécurité de Windows 2000. Bien que conservant la plus grande partie des fonctionnalités des stratégies d'audit du journal de sécurité de NT, Windows 2000 s'accompagne de plusieurs changements et de nombreuses nouvelles fonctions, notamment quelques développements très intéressants dans l'un des domaines les plus importants du journal de sécurité : le suivi de l'activité d'ouverture et de fermeture de session.

Lire l'article
Stockage magnétique : pour combien de temps encore ?<BR src=">

Stockage magnétique : pour combien de temps encore ?

par Franck G. Soltis
Je regardais récemment l'un des nouveaux Microdrives d'IBM pour mon appareil photo numérique. En 1999, pour la première fois au monde, IBM introduisait le Microdrive, premier disque 1-pouce destiné aux organizers et autres appareils photos numériques. Ce premier disque avait une capacité de 340 Mo. L'été dernier, IBM sortait une version 1 Go de ce disque dur, l'ensemble faisant seulement 36 x 43 x 5 mm (inférieur à  une petite boite d'allumettes) et contenant un disque de 27 mm d'une densité par surface de 15,2 gigabits par pouce carré. La densité par surface est la mesure du nombre de bits que l'on peut " entasser " sur un pouce carré de disque magnétique.
Bien que ce chiffre n'établisse pas un record de densité, il montre bien combien la technologie des disques évolue vite. IBM a enregistré plusieurs records. En mai 1999, les chercheurs d'IBM annonçaient au monde qu'ils avaient poussé le record de densité à  20,3 Gbits/in² en laboratoire. En octobre 1999 IBM battait son propre record en obtenant une densité de 35,3 Gbits/in². En avril 2000 les chercheurs de Fujitsu à  Tokyo annonçaient que leur laboratoire avait atteint une densité de 50 Gbits/in². En seulement un an, l'augmentation de la densité représente une incroyable croissance de 180 %, et ce n'est pas fini. A la suite de ces tests, on constate qu'il s'écoule environ un an avant de retrouver ces densités obtenues dans les laboratoires dans les outils de production.

Depuis 1997, année où IBM a introduit la tête GMR (une tête magnéto-résistive de lecture et d'écriture qui réagissait à  des champs magnétiques de très faible intensité), la densité de bit des disques a doublé chaque année. Un progrès plutôt impressionnant pour une technologie qui date seulement de 1956.

Lire l'article
Exchange 2000 – Comment résoudre les problèmes des clients

Exchange 2000 – Comment résoudre les problèmes des clients

par Paul Robichaux
Ou comment sauver ses utilisateurs du chaosBien sûr, la vie d'un administrateur Exchange Server a des moments palpitants, comme par exemple la découverte du menu au buffet de la MEC (Microsoft Exchange Conference). Mais pour chacune de ces montées d'adrénaline, il faut en passer par dix plaintes d'utilisateur. En tant que service public, je me dois d'explorer des moyens de cerner rapidement et de résoudre les problèmes côté client (et de vous donner plus de temps pour apprécier le buffet…).

Si la fonction a marché précédemment, la défaillance est probablement liée à  une modification ou à  un événement récent

Lire l'article
HP et VA Linux optimisent les techniques d’impression Open Source

HP et VA Linux optimisent les techniques d’impression Open Source

par Mireille Boris
L'amélioration des techniques d'impression Open Source fait de Linux un OS crédible en bureautique et en pré-presse. Le code développé pour les pilotes d'imprimantes est de plus utilisé dans le logiciel embarqué des imprimantes. HP et VA Linux veillent sur ces travaux. La première conférence sur les techniques d'impression Open Source, organisée en août 2000 à  Sunnyvale en Californie, a connu un tel succès qu'il a été décidé d'en faire une manifestation annuelle, relayée par un sommet européen en février 2001. Organisée par Hewlett-Packard (HP) US et VA Linux, elle a réuni des représentants d' IBM, Sun, Canon, Epson, Lexmark, Okidata, Xerox, Microsoft et des développeurs appartenant à  Samba, Ghostscript, LPRng, CUPS, PDQ, SysAPS, Linux Internationalization Initiative, Xfree86, GIMP, GNOME, KDE, Red Hat, Suse, le groupe d'impression IETF.
HP a présenté la méthodologie de développement collaboratif de pilotes d'impression qu'il déploie en interne. Pour ce faire, il a fait appel à  plusieurs projets de développement de pilotes pour imprimantes HP présentés sur Sourceforge (exactement printing.sourceforge.net), le site que VA Linux dédie aux développeurs. Les services professionnels de VA Linux travaillent en conjonction avec HP dans le but d'améliorer le support d'impression de l'imprimante LaserJet de HP sous Linux et Samba (couche logicielle d'échange de fichiers Windows et Linux) et font évoluer la qualité et les fonctionnalités de l'ensemble des techniques d'impression Open Source.
Les pilotes disponibles pour la plupart des imprimantes sont le fruit d'un effort continu. Elles font partie intégrante de la distribution standard, de Suse, Red Hat à  Caldera. On les trouve également sur le site Sourceforge.
La qualité croissante de l'impression sous Linux s'ajoute à  l'existence de cartes graphiques de très bon niveau, en particulier les cartes N'Vidia. Linux ne se limite plus au back office; il devient un OS crédible en bureautique et en pré-presse. Une typographie de type nouveau est en train de naître, les Linuxiens rejetant celle des outils Microsoft, voire Macintosh.

Linux ne se limite plus au back office; il devient un OS crédible en bureautique et en pré-presse.

Le code des pilotes sous Linux sert parallèlement au développement de code embarqué dans les imprimantes elles-mêmes. Le noyau Linux y est souvent utilisé par défaut en raison de sa petite taille. Depuis un an, par exemple, eCOS, OS embarqué de Red Hat, fonctionne avec les imprimantes laser HL-2400CeN et HL-3400CN de Brother International. La portabilité et la conception d'eCOS lui permettent de transposer des applications créées pour la famille d'imprimantes HL-2400CeN et HL-3400CN vers de futures plates-formes, quelque soit le choix d'unité centrale.
Larry Augustin, PDG de VA Linux, a une formation de graphiste. "Notre compétence en stations de travail, nous permet de comprendre les problèmes de pré-presse et de post-presse dans les besoins de stockage multimédia. D'où la maturité de notre offre NAS 2905, plate-forme ouverte, Mac, NT, Linux ", précise Renaud Larsen, VA Linux Europe. Un secteur où VA Linux se retrouve en vive concurrence avec HP.
Rassembleur des initiatives Open Source, VA Linux a lancé l'OSDN Open Source Development Network, un réseau communautaire qui intègre les principaux sites Internet consacrés aux forums de discussions, au développement et à  la distribution des logiciels OpenSource dont www.sourceforge.net, questionexchange.com, www.freshmeat.net, www.themes.org, ww.thinkgeek.com, www.slashdot.org, www.linux.com, etc…

Lire l'article
Les masques de sous-réseau sans classe

Les masques de sous-réseau sans classe

par William Heldman
Quelques trucs et astuces peuvent vous aider à  créer des sous-réseaux à  l'intérieur de votre réseau à  l'aide des masques de sous-réseaux sans classe. Si un réseau utilise un masque de sous-réseau par défaut - 255.0.0.0 pour la Classe A, 255.255.0.0 pour la Classe B ou 255.255.255.0 pour la Classe C - il s'agit d'un domaine dit " classful ", c'est-à -dire un domaine doté de classes. On sait alors qu'on travaille dans un domaine ouvert, sans sous-réseau. En réalité, il vaut mieux dire que le domaine tout entier est un sous-réseau, mais qu'il n'est pas divisé en sous-sous-réseaux.

Un domaine " classful " est souvent très occupé par la circulation intense créée par le trafic du réseau empruntant les mêmes chemins. Les commutateurs, qui opèrent au niveau de la couche de liaison, séparent les domaines de collision, mais ne font rien pour séparer les domaines de multidiffusions (broadcast), puisque celles-ci ont lieu au niveau de la couche réseau.

Un routeur permet de grouper différentes parties d'un réseau en sous-réseaux, afin de diminuer le nombre de broadcasts. Il peut être bon, par exemple, de grouper le matériel d'infrastructure (y compris la batterie de serveurs et les imprimantes) dans un sous-réseau, le département marketing dans un autre, et les services commerciaux dans un autre encore. La constitution de sous-réseaux peut être un outil pratique pour les réseaux supportant une activité intense.

Dans un réseau divisé en sous-réseaux, on a un domaine sans classe avec un masque de sous-réseau sans classe. Celui-ci, également baptisé masque de sous-réseau de longueur variable (VLSM pour Variable Length Subnet Mask), emprunte des bits à  la section hôte d'une adresse IP et les donne à  la section réseau de l'adresse. Les termes " sans classe " et " longueur variable " signifient que les adresses des masques de sous-réseaux ne sont pas conformes au format des Classes A, B et C du protocole IP standard.

Le seul problème que pose la mise en place de sous-réseaux est la nécessité d'effectuer les calculs binaires nécessaires aux adresses des sous-réseaux. Personnellement je préfère travailler le plus possible avec des nombres décimaux. Je vais donc parler du routage interdomaine sans classe CIDR (Classless Inter-Domain Routing) et indiquer une astuce mathématique non binaire très facile. Ces deux informations sont utiles pour aider à  déchiffrer la " notation à  barre oblique " que l'on trouve dans la littérature du support technique et faciliter et accélérer la mise en place de sous-réseaux.

Lire l'article
Un coup d’oeil à  Whistler

Un coup d’oeil à  Whistler

par John Ruley
Whistler est le nom de code du nouveau système d'exploitation 32 bits qui remplacera Windows 2000 Professional et Windows Millennium Edition (Windows Me). Microsoft n'a pas encore livré beaucoup de détails sur Whistler - qui repose sur le noyau de Windows 2000 et de Windows NT -, pas même la date de sa sortie (probablement l'an prochain), mais commence à  dévoiler et à  expliquer certaines de ses caractéristiques. Il s'agit notamment de modifications de l'interface utilisateur, de l'existence d'une version personnelle (c'est-à -dire mono-utilisateur) de la technologie Terminal Services de Windows 2000 Server, et d'une révision drastique du traitement des DLL par les précédentes versions de Windows 32 bits.

Lire l'article
Gérer la croissance de vos applications avec Application Center

Gérer la croissance de vos applications avec Application Center

par David Chernicoff
Si vous avez déjà  été confronté à  l'installation, la configuration ou l'administration de Microsoft Cluster Server ou de Network Load Balancing, vous savez à  quel point cette mission est périlleuse. De plus, malgré sa convivialité améliorée, Windows 2000 n'a pas rendu cette tâche plus facile. Les fournisseurs ont bien compris l'ampleur du problème que représente la configuration de MSCS (Microsoft Cluster Server) et ils proposent désormais une multitude de solutions qui font que les administrateurs système ne sont plus obligés de partir de zéro pour installer un cluster et le faire fonctionner. Mais peu de solutions adressent la complexité de configuration de l'équilibrage de charges des applications avec NLB (Network Load Balancing) et CLB (Component Load Balancing).

L'idée sur laquelle reposent NLB et CLB est simple : si vous voulez accroître les capacités des applications de votre réseau, alors configurez un serveur pour qu'il puisse supporter une application en réseau et ajoutez le serveur dans votre réseau. La possibilité d'utiliser ce type de démarche pour faire monter en charge les applications est une des composantes fondamentales des montées en charge horizontales (scale-out) pour Microsoft et de sa stratégie .NET. Microsoft Application Center 2000 est au coeur de la stratégie .NET de Microsoft. Le rôle de Application Center est d'intégrer et de simplifier la montée en charge des applications, leur gestion et leur disponibilité.

Le clustering de Application Center n'est pas MSCS, mais plutôt un équilibrage de charges réseau associé au clustering d'objets COM+. Bien que le clustering de Application Center n'assure pas le même niveau de tolérance aux pannes que MSCS, il améliore les performances et ne nécessite pas de matériel spécifique contrairement à  MSCS. Application Center n'exige même pas que les serveurs du cluster soient identiques, que ce soit en configuration ou en performances. De plus, Application Center n'offre pas un clustering de type failover à  2 ou 4 voies, il offre le clustering jusqu'à  32 voies que supporte NLB. L'équilibrage de charges COM+ est limité à  8 voies, et la complexité des applications tournant sous Application Center peut cependant limiter le nombre de noeuds du cluster.

Le rôle de Application Center est d'intégrer et de simplifier la montée en charge des applications, leur gestion et leur disponibilité

Lire l'article
Tirer toute la puissance de la console d’administration de Windows 2000 <br src=2ème Partie">

Tirer toute la puissance de la console d’administration de Windows 2000
2ème Partie

par Kathy Ivens
Dans la première partie de cet article parue le mois dernier, nos avons vu les bases de la MMC (Microsoft Management Console). Voici les meilleures surprises que vous réserve la MMC. Il y a trop de fonctions sympathiques dans la MMC pour toutes les faire tenir dans cet article. J'ai donc sélectionné mes favorites.

Lire l'article
Réussir les montées en charge

Réussir les montées en charge

par David Chernicoff
La montée en charge des systèmes est un sujet qui tend à  énerver les administrateurs système. Est-ce que quiconque fait vraiment évoluer un système dans les environnements de production ? Les entreprises considèrent-elles réellement les possibilités d'upgrade des systèmes comme autre chose qu'une simple ligne dans une check-list d'acquisition des machines ? Que font les administrateurs système lorsqu'un serveur ne peut plus répondre aux besoins des utilisateurs ?

Lire l'article
Data Warehouses et Data Marts : quelle différence ?

Data Warehouses et Data Marts : quelle différence ?

par Rick Landon
Les vastes entrepôts de données (datawarehouses) donnent une perspective historique à  votre activité ; les magasins de données (datamart), plus petits, servent à  l'analyse rapide. De nombreuses sociétés s'empressent de mettre en place une solution de business intelligence (BI) à  grand renfort d'entrepôts de données (data warehouse) et de magasins de données (data marts), mais essayez donc de vous faire expliquer les différences essentielles entre ces deux systèmes ! Même les conseillers en BI utilisent indifféremment l'un ou l'autre terme, et les produits de type datamart prétendant être des entrepôts de données ajoutent à  la confusion.

Ce n'est pourtant pas la même chose. Un entrepôt de données contient les données recueillies au niveau de détail le plus bas, à  partir des principaux domaines d'activité d'une entreprise,tandis qu'un magasin de données concerne un seul département ou domaine fonctionnel et contient des données agrégées. Dans cet article, j'explique les fonctions respectives des entrepôts et des magasins, et ose quelques suggestions quant à  l'application pratique de chaque solution.

Un entrepôt de données est une structure qui stocke de vastes quantités de données nettoyées et transformées, provenant des bases de données de production

Lire l'article
Composants : le jeu en vaut-il la chandelle ?

Composants : le jeu en vaut-il la chandelle ?

par Cheryl Ross
Les développeurs se jettent à  corps perdu dans les composants côté client. Mais nombreux sont ceux qui attendent encore que les composants middlewares tiennent leurs promesses. A première vue, le principe des composants semble être la panacée pour résoudre les soucis quotidiens du développeur, tels que les délais de mise en production et la difficulté à  gérer le code. A l'instar de briques de Lego, les composants s'assemblent rapidement et simplement pour permettre aux développeurs de construire et de maintenir rapidement des applications de gestion. Toutefois, à  l'inverse des composants côté client tels les ActiveX et les JavaBeans, qui ont réussi à  fédérer un soutien non négligeable en leur faveur, les développeurs ne se pressent pas vers les composants distribués côté serveur. Ces derniers se révèlent notoirement plus difficiles à  mettre en oeuvre. L'apparition d'un nouveau modèle de composants middlewares dans l'univers de l'informatique distribuée risque de changer sous peu cet état de fait.

Lire l'article
Dilemme : augmenter les effectifs ou les performances machine ?

Dilemme : augmenter les effectifs ou les performances machine ?

par Isabelle Nougier
La société Maurin ne pourrait aujourd'hui plus se passer des produits qui lui ont permis d'absorber un doublement de ses effectifs globaux sans avoir à  augmenter les effectifs de son Service Informatique.Créé en 1871 par Emile Maurin et implanté à  Lyon depuis cette même date, le Groupe Maurin est aujourd'hui l'un des plus grands fournisseurs industriels du pays. Il est dirigé aujourd'hui par la 4ème et la 5ème génération de Maurin (ce qui constitue l'une des fiertés du Groupe), et s'organise autour de 2 sociétés d'exploitation, Emile Maurin et Michaud Chailly, réparties sur 18 sites dispersés sur tout le territoire français.
Le service informatique est quant à  lui centralisé à  Lyon. Il jouit d'une forte culture IBM, et les S/36 des débuts n'ont été remplacés par un AS/400 unique qu'en 1994. Actuellement le matériel se compose d'un AS/400 modèle 620 avec plus de 250 terminaux et une centaine de PC. N'ayant pas succombé aux sirènes des ERP, qu'elle n'exclut toutefois pas d'adopter un jour, la société utilise aujourd'hui un logiciel de gestion issu de l'IBM S/36, développé en interne et modifié pour le passage à  l'an 2000. On notera au passage que la société est déjà  prête pour l'Euro !
40000 dossiers clients et 23000 factures sont traités par mois, 300 personnes sont connectées en permanence , 6 jours sur 7, autant dire que l'informatique est un élément vital pour la société qui se verrait paralysée en cas de rupture de service.

La société ayant doublé ses effectifs et son chiffre d'affaire, il fallait optimiser les performances de l'existant

La société ayant doublé ses effectifs et son chiffre d'affaire en 4 ans, il fallait, pour que l'informatique s'adapte à  cette montée en charge, soit envisager une augmentation de ses propres effectifs (qui étaient et sont toujours de 10 personnes dont 7 au développement, une à  l'exploitation, une pour la micro et une assistante), soit adopter des solutions permettant d'optimiser les performances du matériel existant. C'est la deuxième solution qui a été retenue.
Il fallait donc limiter les pertes de temps dues à  d'éventuels bogues, optimiser les performances de la machine, gérer les pointes d'activité, et assister 2 fois plus d'utilisateurs qu'auparavant ; l'ensemble de ce cahier des charges paraissait satisfait par les solutions logicielles de la société Tango/04. Le Groupe Maurin s'est alors muni de plusieurs modules de la solution VISUAL Control Center de chez Tango/04, à  savoir VISUAL Support Pro, VISUAL Control for Windows, VISUAL Control for pools et VISUAL Control for jobs. Ces modules ont permis d'augmenter considérablement l'efficacité de la gestion de tous les problèmes utilisateurs, et ont permis de d'optimiser les performances de l'AS/400. L'ensemble de ces modules a très vite été complété par Bug Detector, un autre produit Tango/04, permettant le monitoring automatique des messages.

Lire l'article