Plus loin dans le partage de connexions Internet
Par Mark Minasi
Dans l'article " Connecter votre petit réseau à Internet " du mois dernier, nous
avons vu comment utiliser les fonctions natives de traduction d'adresses réseau
de Windows 2000 (NAT) pour simuler la fonction de partage des connexions Internet,
ICS, similaire mais plus simple. Cet article explique comment utiliser NAT pour
augmenter vos possibilité de partage d'une adresse IP routable dans un réseau
interne.
Le partage des connexions Internet ICS apparaît non seulement dans Windows 2000
Server, mais également dans Windows 2000 Professionnel, Windows 98 Second Edition
et Windows Millenium Edition (Windows Me). NAT, n'est disponible quant à lui qu'avec
Windows 2000 Server. NAT et ICS permettent de partager une adresse routable entre
des dizaines d'ordinateurs dans un réseau interne. Ces systèmes internes obtiennent
une adresse non routable dans la tranche d'adresses commençant avec 192.169.0.0.
Pour utiliser NAT ou ICS pour partager une connexion Internet, il suffit de connecter
un ordinateur à la fois au réseau Internet public routable, et au réseau interne
non routable 192.169.0.0. L'ordinateur exécute NAT ou ICS et se comporte comme
un routeur. Dans cet article, nous allons voir comment étendre les possibilités
de ce routeur.
Les outils de déploiement applicatif
par Tom Iwanski
Le déploiement et le management d'applications desktop sur des réseaux distribués constituent deux des défis les plus complexes et les plus coûteux auxquels sont confrontés les services informatiques. Les entreprises déploient à grand peine une nouvelle application sans se préoccuper du fardeau que constitueront sa maintenance et son support. Il est vrai que l'adoption rapide de l'informatique distribuée a submergé de nombreux services informatiques dépourvus du personnel ou des outils nécessaires pour répondre aux besoins de leurs clients, toujours plus complexes et plus dispersés.
Ce dilemme a provoqué la généralisation des analyses de coût de possession et de support des PC. Les termes TCO (Total cost of ownership ou coût total de possession) et ROI (Return on Investment ou Retour sur investissement) n'ont plus de secret pour les dirigeants, encore et toujours choqués par le fait que le coût annuel cumulé d'un seul PC puisse dépasser de plusieurs milliers de francs son prix d'achat initial. Comme le management direct ou indirect des applications desktop absorbe une grande part de cette dépense annuelle, nombreuses sont les entreprises qui s'intéressent à des outils capables de profiler et de centraliser le déploiement et le management applicatif.
De nombreux ateliers informatiques - réticents aux nombreux utilitaires de management disparates qui sont rarement interopérables ou qui fragmentent les compétences des informaticiens - ont été séduits par de grandes solutions framework de la part de fournisseurs comme Computer Associates (CA), Tivoli Systems, et BMC Software. D'autres ateliers considèrent que les solutions framework peuvent s'avérer trop coûteuses ou complexes, ou qu'elles font l'impasse sur des fonctions importantes que l'on trouve dans des produits plus petits mais excellents.
Mon objectif initial était de passer en revue les produits qui couvrent tous les aspects du déploiement et du management applicatif. J'ai donc essayé d'écarter des produits non polyvalents comme les outils de clonage ou de packaging. J'ai également exclu des produits comme des solutions framework et Microsoft SMS (Systems Management Server) dont les fonctionnalités s'étendent à la gestion des ressources et au help desk. Mais j'ai rapidement constaté que les lignes qui séparent les catégories de produits se sont estompées et que de nombreux produits sont en train d'étendre leurs possibilités. Ainsi, PictureTaker de Lanovation a été strictement un packager, mais la récente release 4.0 comporte des possibilités de déploiement. Symantec a acheté AutoInstall de 20/20 Software pour ajouter des fonctions de packaging et de déploiement à la version récente de l'utilitaire de clonage de Symantec, Norton Ghost 6.5 Enterprise Edition. Plusieurs des produits acquis pour cette comparaison possèdent quelques fonctionnalités qui vont au-delà du simple déploiement et management applicatif. Je mentionne les fonctions supplémentaires au fil de cet examen.
J'ai donc choisi cinq produits jugés représentatifs de la technologie et des méthodes proposées par plus d'une dizaine de fournisseurs qui offrent des solutions de déploiement et de management applicatif. (Le tableau 1 recense huit produits non inclus dans cet examen.) J'ai fait tourner les cinq produits choisis dans le Lab de Windows 2000 Magazine et évalué leurs fonctions. Je commence par une brève introduction de chaque produit, puis passe à une comparaison plus approfondie de leurs fonctions packaging, distribution et management.
Retrouvez les figures explicatives dans l'edition papier de cet article
Lire l'article
iSeries Tools et la puissance de X : Pourquoi FTP ?
par Tim Massaro
Certains
des outils inclus dans iSeries Tools for Developers présentent des fenêtres
pendant leur fonctionnement. Avec l'aide de X Window et PASE, ceux-ci
fonctionnent directement sur l'iSeries.
La récente PRPQ d'IBM « iSeries Tools for Developers » (5799-PTL) facilite le travail des développeurs qui écrivent des applications pour iSeries, ou qui y en portent. Dans le précédent article de cette série à propos du nouveau toolset, j'ai examiné l'outil d'édition EZ. Ici, nous parlerons davantage de la manière dont même des utilisateurs Windows peuvent utiliser ces nouveaux éditeurs directement sur l'iSeries sans avoir besoin d'un client Unix et, par conséquent, sans avoir besoin d'échanger par FTP des fichiers entre un hôte et un client. Je montre même comment utiliser ces outils à partir d'un navigateur Web standard.
Certains des outils inclus dans iSeries Tools for Developers présentent des fenêtres pendant leur fonctionnement. Deux d'entre eux sont les outils d'édition EZ et Emacs. Leurs fenêtres contiennent des barres de défilement, des boutons graphiques, des couleurs - et autres attributs d'un éditeur moderne - et ce, sans qu'aucun logiciel spécial n'ait été chargé sur l'ordinateur de bureau.
Ces applications s'exécutent directement dans la « boîte » iSeries, en modifiant des fichiers dans l'IFS (integrated file system) ou dans des membres de fichiers classiques traditionnels. Elles font cela en utilisant le système X Window et le PASE (Portable Application Solutions Environment) OS/400 pour présenter les fenêtres graphiques via un émulateur de terminal X Window fonctionnant sur le PC. PASE est la portion runtime (exécution) AIX de l'iSeries : elle permet à du code compilé pour des machines IBM AIX Unix de s'exécuter presque en l'état sur l'iSeries.
Dans un instant, nous verrons de plus près comment ces applications présentent texte et graphiques sur l'ordinateur, directement à partir de la boîte iSeries.
Retrouvez les figures explicatives sur l'édition papier.
Lire l'article
Events – 2001/10 – Octobre / Novembre
Tous les évenements des mois d'octobre et novembre
Lire l'article
Cas concrets de modernisation d’applications
on Soule
Trois expériences concrètes démontrent qu'il est parfois préférable de rajeunir
un code RPG existant que de le remplacer.
L'ambiance était tendue, presque sinistre, quand le directeur informatique annonca
la nouvelle. Le projet de remplacement de l'application RPG AS/400 par un nouveau
système client/serveur Windows NT avait coûté plusieurs dizaines de millions de
francs, pris un an et demi de retard, et semblait voué à l'échec. Le moment était
venu d'arrêter l'acharnement thérapeutique : continuer était trop risqué.
Cette mauvaise nouvelle entraînait bien sûr une question : que faire à présent
? Comme consultant appelé pour recoller les morceaux, c'est à moi que l'on posa
la question.
Il s'agissait de remplacer une application de traitement transactionnel centralisée
avec peu d'accès à distance. L'information parvenait sous forme imprimée aux agences
régionales pour être introduite dans le système AS/400 à l'aide de terminaux 5250.
Le nouveau système avait pour mission de distribuer les applications NT à des
centaines de sites.
Les utilisateurs finaux avaient beaucoup participé à la conception d'une nouvelle
interface Windows (implémentée en Visual Basic) et les chefs de projet souhaitaient
que l'on puisse utiliser cette nouvelle interface.
Notre solution : conserver l'application AS/400 en la modernisant. Le projet NT
prévoyait un serveur à chaque site, mais nous avons écarté cette hypothèse trop
chère et difficile à gérer. Nous avons préféré utiliser l'AS/400 existant comme
système central, relié aux sites par Internet ou par une liaison fixe, selon la
taille et le volume du trafic de chaque site.
Pour faciliter la mise en place, limiter les coûts d'assistance, et offrir l'interface
graphique, nous avons opté pour un outil frontal générateur d'applets Java. Nous
avons utilisé les images déjà réalisées en VB, comme modèle pour créer un nouveau
frontal graphique en Java, pratiquement identique aux panneaux VB que les utilisateurs
souhaitaient. Dupliquer le comportement non modal, orienté événements, de l'application
VB, a été un peu plus difficile, mais nous y sommes parvenus en modifiant les
programmes RPG de manière à traiter et acheminer quelques nouvelles requêtes.
Comme le frontal graphique fonctionne dans Windows ou dans un navigateur, le déploiement
a été facile, quel que soit le type de connexion entre un site et l'AS/400.
Du point de vue gestion, la modernisation de l'application existante présentait
plusieurs avantages, dont le plus important, dans le cas présent, était le risque
minimum. Le projet NT était à haut risque, avait utilisé la plus grande partie
du temps et de l'argent alloués, et avait échoué. La direction ne voulait surtout
pas entendre parler d'une autre proposition scabreuse.
Précisément, le choix de modernisation de l'application était rassurant puisqu'il
permettait d'utiliser l'existant en matériel, logiciel et compétences. Il était
facile d'estimer les coûts de création et de déploiement de l'application, puisqu'ils
étaient fondés sur des technologies et des compétences confirmées. Et notre client
dépendait de peu de consultants externes pour pallier des compétences maison absentes.
Résultat : un nouveau système en quelques mois, au lieu de quelques années, pour
quelques milliers de dollars, au lieu de quelques millions.
Alpha 21264 : prenez des RISC
Alors que tout le monde attend la puce Merced 64 bits d’Intel et la version 64 bits de Windows NT, Digital Equipment offre un avant-goût de la prochaine génération de l’informatique NT. L’Alpha 21264 est un processeur 64 bits supportant NT. C’est l’une des puces les plus rapides du monde. Et, qui plus est, déjà disponible aujourd’hui.Le 21264 est la toute dernière génération de l’architecture de microprocesseur Alpha. Selon Digital, il devrait dépasser des vitesses d’horloge supérieures à 700 MHz dès cette année, reprenant le leadership de la vitesse au 21164, déjà un Alpha.Alpha est la dernière architecture RISC pour laquelle Microsoft développe encore des versions futures de NT, alors qu’il cesse progressivement de supporter les puces MIPS Rx000 et que le PowerPC NT n’a jamais décollé. La seule autre architecture de CPU supportée par NT est, bien entendu, Intel x86. Malgré la domination du marché par ce dernier, l’Alpha possède un grand avantage sur le x86 : des performances supérieures, en particulier pour les calculs en virgule flottante.
Les systèmes Alpha sont plus rapides et excellent dans les applications d’ingénierie à forte proportion de calculs et les applications scientifiques.Pour dépasser les limites des performances de l’architecture x86, qui a déjà vingt ans, Intel a conclu un partenariat avec HP en 1994, afin de développer une nouvelle architecture de CPU : IA-64 (Intel Architecture-64). Selon Intel, les systèmes utilisant le processeur Merced, le premier processeur à implémenter IA-64, devraient sortir vers la mi 2000. Mais Merced pourrait ne pas être la puce la plus rapide du marché NT en 2000. Car à en croire Digital, au moment où Merced fera son apparition, le 21264 tournera à 1000 MHz (1 gigahertz, GHz). A cette vitesse, il sera nettement plus rapide que Merced, selon des estimations benchmarks de CPU.
Les premiers systèmes 21264 tournent et sont disponibles sous forme d’échantillons. La production en volume devrait commencer mi 99. Il n’y aura donc pas à attendre deux ans les performances 64 bits. Cependant, le 21264 n’atteindra son plein potentiel qu’à la sortie par Microsoft d’une version 64 bits à la fois pour les puces IA-64 et Alpha. (Microsoft espère sortir la version 64 bits de NT en 2000).
Le 21264 n’atteindra son plein potentiel qu’à la sortie par Microsoft d’une version 64 bits à la fois pour les puces IA-64 et AlphaOù est le RISC ?
La course que se livrent les processeurs 21264 et IA-64 n’est pas un simple sujet de bavardage stérile. L’enjeu est ni plus ni moins l’avenir du RISC - pour NT et tous les autres systèmes d’exploitation.En dehors du marché des applications intégrées très spécialisées, le RISC est en recul. Actuellement l’architecture RISC pour PC la plus répandue est la puce PowerPC développée conjointement par IBM, Apple et Motorola. Mais le plus gros client informatique des PowerPC est Apple dont le Macintosh n’a plus désormais que 4 % environ de part de marché des PC selon IDC.
En juin dernier, IBM et Motorola ont annoncé qu’ils mettaient un terme à leur partenariat de sept années et allaient développer séparément les futures puces PowerPC.L’autre architecture RISC d’IBM, la série Power, va fusionner avec le PowerPC. IBM retire progressivement la puce Power en tant qu’architecture distincte. La prochaine puce 64 bits, Power3, est le premier processeur qui unifiera les technologies Power et PowerPC.Pour stopper ses pertes récentes, Silicon Graphics abandonne ses processeurs RISC de la série MIPS Rx000. Le fabricant a annulé les projets de prochaines générations et MIPS Technologies, la structure de conception de Puces de SGI a récemment été &q
Air France : le décisionnel au service du help desk
Le service d'assistance informatique du groupe Air France a implémenté la solution Service Center de Peregrine Systems. Objectif : optimiser la gestion d'un parc informatique hétérogène et améliorer la qualité de service rendue aux 40.000 utilisateurs du système d'information de l'entreprise. La création de tableaux de bords via SAS Web permet en outre d'augmenter la visibilité sur l'activité du service. Quatrième transporteur mondial de passagers avec une flotte de plus 213 appareils, la compagnie Air France a pour ambition à l'horizon 2002 de devenir l'une des " majors " du transport aérien international. En 1997, la fusion opérée entre Air Inter et Air France implique la convergence des deux systèmes d'informations et notamment la mise en oeuvre d'un système de gestion de parc informatique et de helpdesk unique. " Auparavant, chacune des compagnies disposait de sa propre solution de gestion et d'assistance technique, ce qui n'autorisait pas un maximum de visibilité sur les parcs informatiques existants. Avec cette fusion, il devenait primordial d'homogénéiser la gestion du parc informatique et le service d'assistance aux utilisateurs " explique Jean-Yves Guillet, directeur du département assistance informatique d'Air France. Le groupe dispose d'un parc informatique dense et hétérogène reposant sur des systèmes centraux IBM et Unisys à Massy, Toulouse, et Valbonne, des serveurs Unix et Windows NT décentralisés, près de 33.000 postes de travail Windows 95/NT et des terminaux Bull C-TOS. Pour apporter une qualité de service optimale aux 40.000 utilisateurs du système d'information, le service d'assistance informatique se structure en 4 pôles d'activités. Le pôle d'assistance technique assure avec 30 personnes l'assistance aux utilisateurs. Alors que les opérateurs de premier niveau interviennent pour la gestion des incidents de base, les techniciens et spécialistes de second et troisième niveau prennent le relais pour résoudre des incidents plus complexes. Les appels concernant les applications commerciales (logiciels de distribution, billetterie, réservation…) sont gérés par un autre pôle d'assistance applicative commerciale. De même, un autre pôle d'assistance applicatives composé de 12 personnes gère les appels relatifs aux utilisateurs des logiciels d'applications aéroportuaires (enregistrement des passagers, embarquement...).
Lire l'article
">
Distribuer les modifications du registre
par Kathy Ivens
A chaque fois que je conseille de modifier le registre pour résoudre un problème,
on me pose immanquablement la même question : " Comment faire pour effectuer une
modification du registre sur plusieurs ordinateurs sans se déplacer sur chaque
machine ? " Il existe trois méthodes pour distribuer des modifications du registre
à travers un réseau : l'importation de fichiers de registration (.reg), l'utilisation
de regini.exe, ou bien les stratégies de groupe ou les stratégies système.
Avant de décrire les trois méthodes permettant de distribuer les modifications
apportées au registre, je me dois de lancer l'avertissement usuel : attention
de ne pas mettre la pagaille dans le registre, ce serait dangereux. N'essayez
pas de mettre en application une des suggestions ci-dessus, à moins de bien connaître
le registre et d'être un utilisateur expérimenté. Avant de commencer, par mesure
de sécurité, utilisez regedit.exe pour exporter une clé. Le fichier exporté porte
l'extension .reg. Ainsi, en cas de problèmes consécutifs à la manipulation de
la clé, le dommage sera vite réparé en important de nouveau le fichier dans le
registre. (Même si vous préférez travailler avec regedt32, il vaut mieux ouvrir
d'abord regedit et exporter la clé qui va être mise au point. Les fonctions export
et import de Regedit sont plus facile à utiliser que les procédures de sauvegarde
équivalentes de regedt32).
L'éditeur de stratégies de groupe de Windows 2000 ou l'éditeur de stratégies système
de Windows NT et Windows 9x permettent d'appliquer de nombreuses restrictions
aux utilisateurs et aux ordinateurs. Cet article part du principe que les changements
expliqués ci-dessous n'ont pas encore été effectués sur ces ressources et que
les mises au point du registre représentent la meilleure option pour résoudre
les problèmes qui se posent à votre système.
Gérer les ouvertures et fermetures de sessions dans Windows 2000
par Randy Franklin Smith
Ce qui est neuf et ce qui l'est un peu moins dans le journal de sécurité
Les articles parus sur le journal de sécurité de Windows NT génèrent généralement
plus de réactions que tous les autres. Nous avons donc été très sollicités pour
écrire une série d'articles similaires sur le journal de sécurité de Windows 2000.
Bien que conservant la plus grande partie des fonctionnalités des stratégies d'audit
du journal de sécurité de NT, Windows 2000 s'accompagne de plusieurs changements
et de nombreuses nouvelles fonctions, notamment quelques développements très intéressants
dans l'un des domaines les plus importants du journal de sécurité : le suivi de
l'activité d'ouverture et de fermeture de session.
">
Stockage magnétique : pour combien de temps encore ?
par Franck G. Soltis
Je regardais récemment l'un des nouveaux Microdrives d'IBM pour mon appareil photo
numérique. En 1999, pour la première fois au monde, IBM introduisait le Microdrive,
premier disque 1-pouce destiné aux organizers et autres appareils photos numériques.
Ce premier disque avait une capacité de 340 Mo. L'été dernier, IBM sortait une
version 1 Go de ce disque dur, l'ensemble faisant seulement 36 x 43 x 5 mm (inférieur
à une petite boite d'allumettes) et contenant un disque de 27 mm d'une densité
par surface de 15,2 gigabits par pouce carré. La densité par surface est la mesure
du nombre de bits que l'on peut " entasser " sur un pouce carré de disque magnétique.
Bien que ce chiffre n'établisse pas un record de densité, il montre bien combien
la technologie des disques évolue vite. IBM a enregistré plusieurs records. En
mai 1999, les chercheurs d'IBM annonçaient au monde qu'ils avaient poussé le record
de densité à 20,3 Gbits/in² en laboratoire. En octobre 1999 IBM battait son propre
record en obtenant une densité de 35,3 Gbits/in². En avril 2000 les chercheurs
de Fujitsu à Tokyo annonçaient que leur laboratoire avait atteint une densité
de 50 Gbits/in². En seulement un an, l'augmentation de la densité représente une
incroyable croissance de 180 %, et ce n'est pas fini. A la suite de ces tests,
on constate qu'il s'écoule environ un an avant de retrouver ces densités obtenues
dans les laboratoires dans les outils de production.
Depuis 1997, année où IBM a introduit la tête GMR (une tête magnéto-résistive
de lecture et d'écriture qui réagissait à des champs magnétiques de très faible
intensité), la densité de bit des disques a doublé chaque année. Un progrès plutôt
impressionnant pour une technologie qui date seulement de 1956.
Exchange 2000 – Comment résoudre les problèmes des clients
par Paul Robichaux
Ou comment sauver ses utilisateurs du chaosBien sûr, la vie d'un administrateur Exchange Server a des moments palpitants,
comme par exemple la découverte du menu au buffet de la MEC (Microsoft Exchange
Conference). Mais pour chacune de ces montées d'adrénaline, il faut en passer
par dix plaintes d'utilisateur. En tant que service public, je me dois d'explorer
des moyens de cerner rapidement et de résoudre les problèmes côté client (et de
vous donner plus de temps pour apprécier le buffet…).
Si la fonction a marché précédemment, la défaillance est probablement liée à une
modification ou à un événement récent
HP et VA Linux optimisent les techniques d’impression Open Source
par Mireille Boris
L'amélioration des techniques d'impression Open Source fait de Linux un OS crédible
en bureautique et en pré-presse. Le code développé pour les pilotes d'imprimantes
est de plus utilisé dans le logiciel embarqué des imprimantes. HP et VA Linux
veillent sur ces travaux.
La première conférence sur les techniques d'impression Open Source, organisée
en août 2000 à Sunnyvale en Californie, a connu un tel succès qu'il a été décidé
d'en faire une manifestation annuelle, relayée par un sommet européen en février
2001. Organisée par Hewlett-Packard (HP) US et VA Linux, elle a réuni des représentants
d' IBM, Sun, Canon, Epson, Lexmark, Okidata, Xerox, Microsoft et des développeurs
appartenant à Samba, Ghostscript, LPRng, CUPS, PDQ, SysAPS, Linux Internationalization
Initiative, Xfree86, GIMP, GNOME, KDE, Red Hat, Suse, le groupe d'impression IETF.
HP a présenté la méthodologie de développement collaboratif de pilotes d'impression
qu'il déploie en interne. Pour ce faire, il a fait appel à plusieurs projets de
développement de pilotes pour imprimantes HP présentés sur Sourceforge (exactement
printing.sourceforge.net), le site que VA Linux dédie aux développeurs. Les services
professionnels de VA Linux travaillent en conjonction avec HP dans le but d'améliorer
le support d'impression de l'imprimante LaserJet de HP sous Linux et Samba (couche
logicielle d'échange de fichiers Windows et Linux) et font évoluer la qualité
et les fonctionnalités de l'ensemble des techniques d'impression Open Source.
Les pilotes disponibles pour la plupart des imprimantes sont le fruit d'un effort
continu. Elles font partie intégrante de la distribution standard, de Suse, Red
Hat à Caldera. On les trouve également sur le site Sourceforge.
La qualité croissante de l'impression sous Linux s'ajoute à l'existence de cartes
graphiques de très bon niveau, en particulier les cartes N'Vidia. Linux ne se
limite plus au back office; il devient un OS crédible en bureautique et en pré-presse.
Une typographie de type nouveau est en train de naître, les Linuxiens rejetant
celle des outils Microsoft, voire Macintosh.
Linux ne se limite plus au back office; il devient un OS crédible en bureautique
et en pré-presse.
Le code des pilotes sous Linux sert parallèlement au développement de code embarqué
dans les imprimantes elles-mêmes. Le noyau Linux y est souvent utilisé par défaut
en raison de sa petite taille. Depuis un an, par exemple, eCOS, OS embarqué de
Red Hat, fonctionne avec les imprimantes laser HL-2400CeN et HL-3400CN de Brother
International. La portabilité et la conception d'eCOS lui permettent de transposer
des applications créées pour la famille d'imprimantes HL-2400CeN et HL-3400CN
vers de futures plates-formes, quelque soit le choix d'unité centrale.
Larry Augustin, PDG de VA Linux, a une formation de graphiste. "Notre compétence
en stations de travail, nous permet de comprendre les problèmes de pré-presse
et de post-presse dans les besoins de stockage multimédia. D'où la maturité de
notre offre NAS 2905, plate-forme ouverte, Mac, NT, Linux ", précise Renaud Larsen,
VA Linux Europe. Un secteur où VA Linux se retrouve en vive concurrence avec HP.
Rassembleur des initiatives Open Source, VA Linux a lancé l'OSDN Open Source Development
Network, un réseau communautaire qui intègre les principaux sites Internet consacrés
aux forums de discussions, au développement et à la distribution des logiciels
OpenSource dont www.sourceforge.net, questionexchange.com, www.freshmeat.net,
www.themes.org, ww.thinkgeek.com, www.slashdot.org, www.linux.com, etc…
Les masques de sous-réseau sans classe
par William Heldman
Quelques trucs et astuces peuvent vous aider à créer des sous-réseaux à l'intérieur
de votre réseau à l'aide des masques de sous-réseaux sans classe.
Si un réseau utilise un masque de sous-réseau par défaut - 255.0.0.0 pour la Classe
A, 255.255.0.0 pour la Classe B ou 255.255.255.0 pour la Classe C - il s'agit
d'un domaine dit " classful ", c'est-à -dire un domaine doté de classes. On sait
alors qu'on travaille dans un domaine ouvert, sans sous-réseau. En réalité, il
vaut mieux dire que le domaine tout entier est un sous-réseau, mais qu'il n'est
pas divisé en sous-sous-réseaux.
Un domaine " classful " est souvent très occupé par la circulation intense créée
par le trafic du réseau empruntant les mêmes chemins. Les commutateurs, qui opèrent
au niveau de la couche de liaison, séparent les domaines de collision, mais ne
font rien pour séparer les domaines de multidiffusions (broadcast), puisque celles-ci
ont lieu au niveau de la couche réseau.
Un routeur permet de grouper différentes parties d'un réseau en sous-réseaux,
afin de diminuer le nombre de broadcasts. Il peut être bon, par exemple, de grouper
le matériel d'infrastructure (y compris la batterie de serveurs et les imprimantes)
dans un sous-réseau, le département marketing dans un autre, et les services commerciaux
dans un autre encore. La constitution de sous-réseaux peut être un outil pratique
pour les réseaux supportant une activité intense.
Dans un réseau divisé en sous-réseaux, on a un domaine sans classe avec un masque
de sous-réseau sans classe. Celui-ci, également baptisé masque de sous-réseau
de longueur variable (VLSM pour Variable Length Subnet Mask), emprunte des bits
à la section hôte d'une adresse IP et les donne à la section réseau de l'adresse.
Les termes " sans classe " et " longueur variable " signifient que les adresses
des masques de sous-réseaux ne sont pas conformes au format des Classes A, B et
C du protocole IP standard.
Le seul problème que pose la mise en place de sous-réseaux est la nécessité d'effectuer
les calculs binaires nécessaires aux adresses des sous-réseaux. Personnellement
je préfère travailler le plus possible avec des nombres décimaux. Je vais donc
parler du routage interdomaine sans classe CIDR (Classless Inter-Domain Routing)
et indiquer une astuce mathématique non binaire très facile. Ces deux informations
sont utiles pour aider à déchiffrer la " notation à barre oblique " que l'on trouve
dans la littérature du support technique et faciliter et accélérer la mise en
place de sous-réseaux.
Un coup d’oeil à Whistler
par John Ruley
Whistler est le nom de code du nouveau système d'exploitation 32 bits qui remplacera
Windows 2000 Professional et Windows Millennium Edition (Windows Me). Microsoft
n'a pas encore livré beaucoup de détails sur Whistler - qui repose sur le noyau
de Windows 2000 et de Windows NT -, pas même la date de sa sortie (probablement
l'an prochain), mais commence à dévoiler et à expliquer certaines de ses caractéristiques.
Il s'agit notamment de modifications de l'interface utilisateur, de l'existence
d'une version personnelle (c'est-à -dire mono-utilisateur) de la technologie Terminal
Services de Windows 2000 Server, et d'une révision drastique du traitement des
DLL par les précédentes versions de Windows 32 bits.
Gérer la croissance de vos applications avec Application Center
par David Chernicoff
Si vous avez déjà été confronté à l'installation, la configuration ou l'administration
de Microsoft Cluster Server ou de Network Load Balancing, vous savez à quel point
cette mission est périlleuse. De plus, malgré sa convivialité améliorée, Windows
2000 n'a pas rendu cette tâche plus facile.
Les fournisseurs ont bien compris l'ampleur du problème que représente la configuration
de MSCS (Microsoft Cluster Server) et ils proposent désormais une multitude de
solutions qui font que les administrateurs système ne sont plus obligés de partir
de zéro pour installer un cluster et le faire fonctionner. Mais peu de solutions
adressent la complexité de configuration de l'équilibrage de charges des applications
avec NLB (Network Load Balancing) et CLB (Component Load Balancing).
L'idée sur laquelle reposent NLB et CLB est simple : si vous voulez accroître
les capacités des applications de votre réseau, alors configurez un serveur pour
qu'il puisse supporter une application en réseau et ajoutez le serveur dans votre
réseau. La possibilité d'utiliser ce type de démarche pour faire monter en charge
les applications est une des composantes fondamentales des montées en charge horizontales
(scale-out) pour Microsoft et de sa stratégie .NET. Microsoft Application Center
2000 est au coeur de la stratégie .NET de Microsoft. Le rôle de Application Center
est d'intégrer et de simplifier la montée en charge des applications, leur gestion
et leur disponibilité.
Le clustering de Application Center n'est pas MSCS, mais plutôt un équilibrage
de charges réseau associé au clustering d'objets COM+. Bien que le clustering
de Application Center n'assure pas le même niveau de tolérance aux pannes que
MSCS, il améliore les performances et ne nécessite pas de matériel spécifique
contrairement à MSCS. Application Center n'exige même pas que les serveurs du
cluster soient identiques, que ce soit en configuration ou en performances. De
plus, Application Center n'offre pas un clustering de type failover à 2 ou 4 voies,
il offre le clustering jusqu'à 32 voies que supporte NLB. L'équilibrage de charges
COM+ est limité à 8 voies, et la complexité des applications tournant sous Application
Center peut cependant limiter le nombre de noeuds du cluster.
Le rôle de Application Center est d'intégrer et de simplifier la montée
en charge des applications, leur gestion et leur disponibilité
2ème Partie">
Tirer toute la puissance de la console d’administration de Windows 2000
2ème Partie
par Kathy Ivens
Dans la première partie de cet article parue le mois dernier, nos avons vu les
bases de la MMC (Microsoft Management Console). Voici les meilleures surprises
que vous réserve la MMC. Il y a trop de fonctions sympathiques dans la MMC pour
toutes les faire tenir dans cet article. J'ai donc sélectionné mes favorites.
Réussir les montées en charge
par David Chernicoff
La montée en charge des systèmes est un sujet qui tend à énerver les administrateurs système. Est-ce que quiconque fait vraiment évoluer un système dans les environnements de production ? Les entreprises considèrent-elles réellement les possibilités d'upgrade des systèmes comme autre chose qu'une simple ligne dans une check-list d'acquisition des machines ? Que font les administrateurs système lorsqu'un serveur ne peut plus répondre aux besoins des utilisateurs ?
Data Warehouses et Data Marts : quelle différence ?
par Rick Landon
Les vastes entrepôts de données (datawarehouses) donnent une perspective historique
à votre activité ; les magasins de données (datamart), plus petits, servent à
l'analyse rapide.
De nombreuses sociétés s'empressent de mettre en place une solution de business
intelligence (BI) à grand renfort d'entrepôts de données (data warehouse) et de
magasins de données (data marts), mais essayez donc de vous faire expliquer les
différences essentielles entre ces deux systèmes ! Même les conseillers en BI
utilisent indifféremment l'un ou l'autre terme, et les produits de type datamart
prétendant être des entrepôts de données ajoutent à la confusion.
Ce n'est pourtant pas la même chose. Un entrepôt de données contient les données
recueillies au niveau de détail le plus bas, à partir des principaux domaines
d'activité d'une entreprise,tandis qu'un magasin de données concerne un seul département
ou domaine fonctionnel et contient des données agrégées. Dans cet article, j'explique
les fonctions respectives des entrepôts et des magasins, et ose quelques suggestions
quant à l'application pratique de chaque solution.
Un entrepôt de données est une structure qui stocke de vastes quantités
de données nettoyées et transformées, provenant des bases de données de production
Composants : le jeu en vaut-il la chandelle ?
par Cheryl Ross
Les développeurs se jettent à corps perdu dans les composants côté client. Mais
nombreux sont ceux qui attendent encore que les composants middlewares tiennent
leurs promesses.
A première vue, le principe des composants semble être la panacée pour résoudre
les soucis quotidiens du développeur, tels que les délais de mise en production
et la difficulté à gérer le code. A l'instar de briques de Lego, les composants
s'assemblent rapidement et simplement pour permettre aux développeurs de construire
et de maintenir rapidement des applications de gestion. Toutefois, à l'inverse
des composants côté client tels les ActiveX et les JavaBeans, qui ont réussi à
fédérer un soutien non négligeable en leur faveur, les développeurs ne se pressent
pas vers les composants distribués côté serveur. Ces derniers se révèlent notoirement
plus difficiles à mettre en oeuvre. L'apparition d'un nouveau modèle de composants
middlewares dans l'univers de l'informatique distribuée risque de changer sous
peu cet état de fait.
Dilemme : augmenter les effectifs ou les performances machine ?
par Isabelle Nougier
La société Maurin ne pourrait aujourd'hui plus se passer des
produits qui lui ont permis d'absorber un doublement de ses effectifs globaux
sans avoir à augmenter les effectifs de son Service Informatique.Créé en 1871 par Emile Maurin et implanté à Lyon depuis cette même date, le Groupe
Maurin est aujourd'hui l'un des plus grands fournisseurs industriels du pays.
Il est dirigé aujourd'hui par la 4ème et la 5ème génération de Maurin (ce qui
constitue l'une des fiertés du Groupe), et s'organise autour de 2 sociétés d'exploitation,
Emile Maurin et Michaud Chailly, réparties sur 18 sites dispersés sur tout le
territoire français.
Le service informatique est quant à lui centralisé à Lyon. Il jouit d'une forte
culture IBM, et les S/36 des débuts n'ont été remplacés par un AS/400 unique qu'en
1994. Actuellement le matériel se compose d'un AS/400 modèle 620 avec plus de
250 terminaux et une centaine de PC. N'ayant pas succombé aux sirènes des ERP,
qu'elle n'exclut toutefois pas d'adopter un jour, la société utilise aujourd'hui
un logiciel de gestion issu de l'IBM S/36, développé en interne et modifié pour
le passage à l'an 2000. On notera au passage que la société est déjà prête pour
l'Euro !
40000 dossiers clients et 23000 factures sont traités par mois, 300 personnes
sont connectées en permanence , 6 jours sur 7, autant dire que l'informatique
est un élément vital pour la société qui se verrait paralysée en cas de rupture
de service.
La société ayant doublé ses effectifs et son chiffre d'affaire, il fallait
optimiser les performances de l'existant
La société ayant doublé ses effectifs et son chiffre d'affaire en 4 ans, il fallait,
pour que l'informatique s'adapte à cette montée en charge, soit envisager une
augmentation de ses propres effectifs (qui étaient et sont toujours de 10 personnes
dont 7 au développement, une à l'exploitation, une pour la micro et une assistante),
soit adopter des solutions permettant d'optimiser les performances du matériel
existant. C'est la deuxième solution qui a été retenue.
Il fallait donc limiter les pertes de temps dues à d'éventuels bogues, optimiser
les performances de la machine, gérer les pointes d'activité, et assister 2 fois
plus d'utilisateurs qu'auparavant ; l'ensemble de ce cahier des charges paraissait
satisfait par les solutions logicielles de la société Tango/04. Le Groupe Maurin
s'est alors muni de plusieurs modules de la solution VISUAL Control Center de
chez Tango/04, à savoir VISUAL Support Pro, VISUAL Control for Windows, VISUAL
Control for pools et VISUAL Control for jobs. Ces modules ont permis d'augmenter
considérablement l'efficacité de la gestion de tous les problèmes utilisateurs,
et ont permis de d'optimiser les performances de l'AS/400. L'ensemble de ces modules
a très vite été complété par Bug Detector, un autre produit Tango/04, permettant
le monitoring automatique des messages.
Les plus consultés sur iTPro.fr
- Sécurité des équipes : les organisations à la peine
- Top 5 TechnoVision 2026 des tendances technologiques à suivre de près !
- Maîtriser l’observabilité des données IA
- Les entreprises européennes face aux défis socio-économiques et technologiques
- DevOps et cloud hybride : la solution pour des applications plus performantes
