Plus loin dans le partage de connexions Internet
Par Mark Minasi
Dans l'article " Connecter votre petit réseau à Internet " du mois dernier, nous
avons vu comment utiliser les fonctions natives de traduction d'adresses réseau
de Windows 2000 (NAT) pour simuler la fonction de partage des connexions Internet,
ICS, similaire mais plus simple. Cet article explique comment utiliser NAT pour
augmenter vos possibilité de partage d'une adresse IP routable dans un réseau
interne.
Le partage des connexions Internet ICS apparaît non seulement dans Windows 2000
Server, mais également dans Windows 2000 Professionnel, Windows 98 Second Edition
et Windows Millenium Edition (Windows Me). NAT, n'est disponible quant à lui qu'avec
Windows 2000 Server. NAT et ICS permettent de partager une adresse routable entre
des dizaines d'ordinateurs dans un réseau interne. Ces systèmes internes obtiennent
une adresse non routable dans la tranche d'adresses commençant avec 192.169.0.0.
Pour utiliser NAT ou ICS pour partager une connexion Internet, il suffit de connecter
un ordinateur à la fois au réseau Internet public routable, et au réseau interne
non routable 192.169.0.0. L'ordinateur exécute NAT ou ICS et se comporte comme
un routeur. Dans cet article, nous allons voir comment étendre les possibilités
de ce routeur.
eLiza Doolittle
par Carson Soule
Le nouveau projet eLiza d'IBM signifie peut-être beaucoup pour certains serveurs, mais pour l'iSeries il signifie : « Do little » (Fait peu).
Une lecture rapide des caractéristiques d'un système eLiza autogestionnaire attire une suite de « j'ai déjà çà » de la part des aficionados de l'iSeries.
Peut-être le dessein secret d'IBM est-il de transformer ses autres serveurs en serveurs iSeries. Ne serait-ce pas rendre enfin justice à l'iSeries après qu'IBM et le marché l'aient ignoré pendant des années ?
Le nom eLiza vous rappelle peut-être My Fair Lady et, en fait, il faudra une métamorphose semblable à celle d'Eliza Doolittle pour transformer un OS NT ou Unix en un participant au projet eLiza. Il manque tout simplement à NT et à Unix le soubassement pour fournir la sécurité et l'autogestion au niveau que les utilisateurs de l'iSeries tiennent pour acquis.
Lire l'article
NT – Les fondamentaux de la sécurité
par Randy Franklin Smith
On connaît l'adage « La force d'une chaîne est celle de son maillon le plus faible ». Peut-être serez-vous surpris de découvrir que le maillon le plus faible de la chaîne de sécurité high-tech de votre entreprise est une connaissance imparfaite des principes de base de la sécurité de Windows NT.
Même si l'on passe à Windows 2000, une bonne compréhension de la sécurité NT est à la base d'une meilleure compréhension de Win2K. Cette fondation n'est peut-être pas aussi solide qu'on le croit. En ce qui concerne les possibilités de sécurité « centralisée » de NT, plusieurs idées fausses persistent. Beaucoup pensent, à tort, que le PDC d'un domaine NT contrôle entièrement la sécurité de tout le domaine. En réalité, la sécurité NT est terriblement décentralisée. C'est une combinaison complexe de zones de contrôle étroitement intégrées, comme la politique régissant les comptes, les droits des utilisateurs, la politique d'audit, les ACL, les listes de contrôle d'audit, l'autorité administrative et les services système. Le mélange se complique encore davantage quand on tient compte des domaines et des relations de confiance. Bien que la sécurité au niveau du domaine affecte chaque système du domaine, chaque station de travail ou serveur NT qui n'est pas un DC (domain controller) fonctionne aussi indépendamment par rapport à la sécurité. De plus, on peut contrôler la sécurité locale sur chaque machine à plusieurs niveaux (niveau système, niveau objet, par exemple).
Pour protéger entièrement tout le domaine, il faut comprendre l'interaction entre la sécurité au niveau domaine et la sécurité indépendante de chaque système. Il faut aussi comprendre parfaitement la manière dont chaque zone de contrôle de sécurité au niveau hôte fonctionne. A chaque niveau, des conseils de configuration importants peuvent aider à verrouiller les ordinateurs contre les indésirables.
Retrouvez toutes les figures explicatives dans l'édition papier.
Lire l'article
WebLogic Application Server
Nouvelle version de WebLogic Web application server !
BEA Systems présente une nouvelle version de WebLogic Web application server. La version 6.1 ajoute un support pour SOAP (Simple Object Access Protocol), pour Web Services Description Language (WSDL) et Universal Description Discovery and Integration (UDDI).
Lire l'article
AS400 – Les sites à voir …
Cette rubrique est ouverte à l’ensemble des associations et groupements d’utilisateurs d'AS/400 sur les territoires Francophones.
Si vous souhaitez y faire figurer votre site, et / ou mentionner vos prochaines dates de sessions ou de réunions, veuillez prendre contact avec le webmaster
Des réseaux plus évolutifs grâce à la simulation
Autrefois, dans la plupart des réseaux, les partages de ressources étaient peu
nombreux : accès aux serveurs de fichiers, aux imprimantes et, le cas échéant,
à une base de données. Aujourd'hui, en revanche, les entreprises distribuent informations
et applications entre beaucoup d'utilisateurs. Les employés donc dépendent désormais
du réseau pour faire leur travail, et, lorsqu'il tombe en panne, la perte d'accès
pour les utilisateurs a des retombées l'entreprise ou ses clients.
Pour éviter les pannes du réseau, il faut tester régulièrement les capacités de
votre réseau et planifier les acquisitions qui lui permettront de satisfaire au
fur et à mesure aux besoins des applications. Sur de petits réseaux, vous pouvez
utiliser des logiciels de surveillance de réseau et quelques formules simples
pour diagnostiquer les problèmes ou prévoir la réaction du réseau aux ajouts de
nouveaux matériels ou logiciels.
Cependant, au fur et à mesure de la croissance d'un réseau, le nombre croissant
de périphériques et de connexions rend impossible sa compréhension. Il se produit
simultanément trop de conversations entre trop de périphériques via de trop nombreux
acheminements, pour permettre de prévoir précisément comment la charge d'une application
affectera une autre partie du réseau. Pour diagnostiquer les problèmes ou tester
les nouvelles applications sur un réseau complexe, il faut simuler le réseau au
moyen d'un programme de simulation, ou simulateur, afin de créer un modèle logiciel
des éléments essentiels du réseau et de tester son fonctionnement avec différentes
charges ou implémentations du réseau.
L'objectif de la modélisation du réseau étant de réduire les périphériques, les
acheminements et les transactions d'un réseau pour obtenir un nombre gérable,
le modèle doit comporter des simplifications et des hypothèses. L'astuce pour
réussir la simulation d'un réseau est de savoir quels aspects du réseau on peut
simplifier sans compromettre l'efficacité du modèle.
Pour simuler un réseau de production, il faut construire une représentation raisonnable
de sa topologie, incluant les périphériques physiques et les paramètres logiques
qui le composent. Il faut déterminer la quantité de trafic qui se trouve sur le
réseau pendant la période que l'on souhaite émuler et spécifier une question à
laquelle la simulation devra répondre. Enfin, il faut exécuter le modèle au moyen
d'un simulateur.
Deux grandes applications au CCF supervisées par HP OpenView
Le réseau d'agences, en architecture client-serveur hétérogène, du CCF et ses applications de banque en ligne, notamment la bourse sur Internet, sont supervisés par HP OpenView" La plus grande des petites banques ". C'est ainsi que se qualifie le CCF. En effet, avec ses 650 agences et 13.000 employés pour servir plus d'un million de clients, cette banque a une envergure considérable. Et pourtant, elle essaie d'être aussi réactive que les petites. C'est pourquoi le CCF a lancé en 1997 le projet " Perses 2000 ", une plate-forme de production en réseau d'agences en client-serveur. La maîtrise d'oeuvre du projet, comprenant le déploiement du réseau d'agence et son administration, a été confiée à Hewlett-Packard. L'objectif est d'assurer la disponibilité du système et le bon fonctionnement des traitements planifiés et non planifiés. Les premiers sont définis dans le plan de production CCF. Il s'agit, le jour, de la surveillance des PC, de l'activation des éditions, de l'activation de la procédure de mise à jour des installations, du démarrage des services spécifiques NT, etc. La nuit, les traitements planifiés sont la vérification des fichiers applicatifs, les sauvegardes, purges, historiques, la vérification de la bonne exécution des programmes, etc. Quant aux traitements provoqués, ils sont déclenchés en cas d'erreur. Il s'agit par exemple de la réorganisation des fichiers lors de dysfonctionnement, le jour, ou bien, la nuit, de mettre à jour des fichiers, préparer des fichiers éditions, etc. " Nous avons lié la réception de fichiers à des traitements, lesquels sont eux-mêmes surveillés et peuvent envoyer des alertes ", explique Pierre Bloch, directeur des études informatiques du CCF. Ainsi, lorsqu'une session ne se déroule pas normalement, et si l'attente dépasse un seuil (cinq tentatives de 1 minute, par exemple), une alerte est automatiquement envoyée à l'administration centrale qui prend la main.
Lire l'article
">
Distribuer les modifications du registre
par Kathy Ivens
A chaque fois que je conseille de modifier le registre pour résoudre un problème,
on me pose immanquablement la même question : " Comment faire pour effectuer une
modification du registre sur plusieurs ordinateurs sans se déplacer sur chaque
machine ? " Il existe trois méthodes pour distribuer des modifications du registre
à travers un réseau : l'importation de fichiers de registration (.reg), l'utilisation
de regini.exe, ou bien les stratégies de groupe ou les stratégies système.
Avant de décrire les trois méthodes permettant de distribuer les modifications
apportées au registre, je me dois de lancer l'avertissement usuel : attention
de ne pas mettre la pagaille dans le registre, ce serait dangereux. N'essayez
pas de mettre en application une des suggestions ci-dessus, à moins de bien connaître
le registre et d'être un utilisateur expérimenté. Avant de commencer, par mesure
de sécurité, utilisez regedit.exe pour exporter une clé. Le fichier exporté porte
l'extension .reg. Ainsi, en cas de problèmes consécutifs à la manipulation de
la clé, le dommage sera vite réparé en important de nouveau le fichier dans le
registre. (Même si vous préférez travailler avec regedt32, il vaut mieux ouvrir
d'abord regedit et exporter la clé qui va être mise au point. Les fonctions export
et import de Regedit sont plus facile à utiliser que les procédures de sauvegarde
équivalentes de regedt32).
L'éditeur de stratégies de groupe de Windows 2000 ou l'éditeur de stratégies système
de Windows NT et Windows 9x permettent d'appliquer de nombreuses restrictions
aux utilisateurs et aux ordinateurs. Cet article part du principe que les changements
expliqués ci-dessous n'ont pas encore été effectués sur ces ressources et que
les mises au point du registre représentent la meilleure option pour résoudre
les problèmes qui se posent à votre système.
Gérer les ouvertures et fermetures de sessions dans Windows 2000
par Randy Franklin Smith
Ce qui est neuf et ce qui l'est un peu moins dans le journal de sécurité
Les articles parus sur le journal de sécurité de Windows NT génèrent généralement
plus de réactions que tous les autres. Nous avons donc été très sollicités pour
écrire une série d'articles similaires sur le journal de sécurité de Windows 2000.
Bien que conservant la plus grande partie des fonctionnalités des stratégies d'audit
du journal de sécurité de NT, Windows 2000 s'accompagne de plusieurs changements
et de nombreuses nouvelles fonctions, notamment quelques développements très intéressants
dans l'un des domaines les plus importants du journal de sécurité : le suivi de
l'activité d'ouverture et de fermeture de session.
">
Stockage magnétique : pour combien de temps encore ?
par Franck G. Soltis
Je regardais récemment l'un des nouveaux Microdrives d'IBM pour mon appareil photo
numérique. En 1999, pour la première fois au monde, IBM introduisait le Microdrive,
premier disque 1-pouce destiné aux organizers et autres appareils photos numériques.
Ce premier disque avait une capacité de 340 Mo. L'été dernier, IBM sortait une
version 1 Go de ce disque dur, l'ensemble faisant seulement 36 x 43 x 5 mm (inférieur
à une petite boite d'allumettes) et contenant un disque de 27 mm d'une densité
par surface de 15,2 gigabits par pouce carré. La densité par surface est la mesure
du nombre de bits que l'on peut " entasser " sur un pouce carré de disque magnétique.
Bien que ce chiffre n'établisse pas un record de densité, il montre bien combien
la technologie des disques évolue vite. IBM a enregistré plusieurs records. En
mai 1999, les chercheurs d'IBM annonçaient au monde qu'ils avaient poussé le record
de densité à 20,3 Gbits/in² en laboratoire. En octobre 1999 IBM battait son propre
record en obtenant une densité de 35,3 Gbits/in². En avril 2000 les chercheurs
de Fujitsu à Tokyo annonçaient que leur laboratoire avait atteint une densité
de 50 Gbits/in². En seulement un an, l'augmentation de la densité représente une
incroyable croissance de 180 %, et ce n'est pas fini. A la suite de ces tests,
on constate qu'il s'écoule environ un an avant de retrouver ces densités obtenues
dans les laboratoires dans les outils de production.
Depuis 1997, année où IBM a introduit la tête GMR (une tête magnéto-résistive
de lecture et d'écriture qui réagissait à des champs magnétiques de très faible
intensité), la densité de bit des disques a doublé chaque année. Un progrès plutôt
impressionnant pour une technologie qui date seulement de 1956.
Exchange 2000 – Comment résoudre les problèmes des clients
par Paul Robichaux
Ou comment sauver ses utilisateurs du chaosBien sûr, la vie d'un administrateur Exchange Server a des moments palpitants,
comme par exemple la découverte du menu au buffet de la MEC (Microsoft Exchange
Conference). Mais pour chacune de ces montées d'adrénaline, il faut en passer
par dix plaintes d'utilisateur. En tant que service public, je me dois d'explorer
des moyens de cerner rapidement et de résoudre les problèmes côté client (et de
vous donner plus de temps pour apprécier le buffet…).
Si la fonction a marché précédemment, la défaillance est probablement liée à une
modification ou à un événement récent
Des clusters sous Linux très professionnels
par Mireille Boris
Ce qui techniquement sépare les clusters sous Linux de ceux sous Unix devient
aujourd'hui plus mince qu'une feuille de papier à cigarettes…
Les premiers supportent désormais les versions parallèles d'Oracle et d'Informix,
et passent au 64 bits. Leur philosophie : un coût moins élevé que celui des serveurs
traditionnels, une mise en oeuvre simple et rapide, la progressivité des performances.
Que demande le peuple?
Les 10 meilleurs outils de sécurité du Kit de ressources de Windows 2000 Server
par Randy Franklin Smith
Lorsque vous découvrirez le Kit de ressources de Windows 2000 Server, vous y trouverez
le supplément de documentation et d'utilitaires qui font la richesse d'un kit
de ressources Microsoft. Pourtant celui-ci est particulièrement précieux pour
les administrateurs qui attachent beaucoup d'importance à la sécurité.
Cet article décrit 10 bonnes raisons liées à la sécurité pour lesquelles le kit
vaut bien le prix qu'il coûte. Nous en profiterons pour souligner les bons points
et les inconvénients à connaître. (Attention de ne pas confondre le kit de ressources
Windows 2000 Server avec celui de Windows 2000 Professionnel, qui n'est qu'un
sous-ensemble du premier).
Du nouveau pour les sécurités en V4R5
par Carol Woodbury
La V4R5 apporte de nombreuses améliorations visant à améliorer de façon conséquente
les sécurités en proposant des points d'exit au niveau des commandes, une compatibilité
Kerberos et le coprocesseur cryptographique 4758
Même si, à première vue, la V4R5 ne semble pas comporter d'importantes améliorations
en matière de sécurité, en y regardant de plus près, on change d'avis. En effet,
cette version propose davantage de contrôles sur les actions des utilisateurs
grâce à des points d'exit au niveau des commandes, à l'accès aux services d'authentification
de réseau (Kerberos, par exemple) et à la manipulation de threads permettant aux
utilisateurs de se contenter du niveau de sécurité minimum nécessaire pour une
tâche donnée. Ajoutons à cela une configuration TLS (Transport Layer Security)
facile, la recherche de virus dans le courrier électronique pour SMTP (Simple
Mail Transfer Protocol) et la cryptographie assistée par le hardware. Nous allons
approfondir toutes ces fonctionnalités, qui accroissent la sécurité de la machine.
En utilisant des points d'exit, on peut écrire sa propre version de commandes
OS/400
Contrôler les stratégies de groupe
par Randy Franklin Smith
Une stratégie de groupe est un outil complexe qui permet une gestion centralisée
des ordinateurs et des utilisateurs de Windows 2000. Mais si on ne comprend pas
comment elle est appliquée par Windows 2000, on court le risque de se tirer une
balle dans le pied. Il est très facile de mettre en oeuvre une combinaison de paramètres
qui s'annulent réciproquement ou provoquent des résultats inattendus.
Les stratégies de groupe ne sont pas forcément d'un fonctionnement simple. On
peut en effet être persuadé d'avoir activé dans l'ensemble du réseau un paramètre
de sécurité important, pour finalement découvrir qu'il a été, par inadvertance,
désactivé sur un sous-ensemble de systèmes. Ce type d'erreur peut être simplement
gênant, s'il s'agit d'un paramètre administratif, mais dévastateur s'il s'agit
d'un paramètre de sécurité. Pour utiliser efficacement la Stratégie de groupe,
il faut comprendre comment Windows 2000 utilise les Objets de stratégie de groupe
(GPO) pour appliquer les stratégies, la séquence d'application des GPO et les
options de traitement qui permettent de l'optimiser.
Faciliter la migration vers Windows 2000 avec ADMT
par Martin McClean
Au fur et à mesure que Windows 2000 s'affirme sur le marché informatique, les
entreprises sont de plus en plus nombreuses à envisager la migration de leurs
environnements Windows NT 4.0. Pour migrer un réseau de Windows NT 4.0 vers Windows
2000 (en effectuant une migration des forêts entre elles), il existe deux choix
possibles : mettre à niveau les domaines ou les restructurer.
Une mise à niveau des domaines, ou mise à niveau sur place, consiste à migrer
le PDC et les BDC d'un domaine Windows NT 4.0 vers Windows 2000 Server. C'est
la méthode de migration la plus commune et la voie la plus directe, la moins risquée
à suivre.
Une restructuration, ou consolidation de domaines, consiste à créer une forêt
Windows 2000 et à y migrer les domaines Windows NT 4.0 existants. Cette méthode
permet de concevoir une forêt idéale et de consolider ou de fusionner des domaines
NT 4.0, si nécessaire. Elle permet aussi de revenir à l'environnement Windows
NT existant à tout moment, puisqu'elle établit un environnement parallèle pour
migrer le réseau. Elle permet donc un développement permanent de la structure
Windows 2000, tout en préservant l'ancien environnement de production Windows
NT.
Jusqu'à récemment, la majorité des migrations étaient des mises à niveau sur place.
L'autre méthode, à savoir la restructuration des domaines, posait souvent des
problèmes pour réaliser une migration en douceur des utilisateurs et des groupes
entre les domaines. Pour les résoudre, Microsoft a sorti l'outil AMDT (Active
Directory Migration Tool). Il s'agit d'un ensemble d'assistants de migration faciles
à utiliser, prenant chacun en charge une tâche distincte. Avec eux, la mise en
oeuvre d'une restructuration de domaines devient un jeu d'enfant.
Linux séduit les éditeurs
par René Beretz
De SAP à Magic, des suites bureautiques à Oracle 8i, les éditeurs prennent de
plus en plus en compte Linux
Data Warehouses et Data Marts : quelle différence ?
par Rick Landon
Les vastes entrepôts de données (datawarehouses) donnent une perspective historique
à votre activité ; les magasins de données (datamart), plus petits, servent à
l'analyse rapide.
De nombreuses sociétés s'empressent de mettre en place une solution de business
intelligence (BI) à grand renfort d'entrepôts de données (data warehouse) et de
magasins de données (data marts), mais essayez donc de vous faire expliquer les
différences essentielles entre ces deux systèmes ! Même les conseillers en BI
utilisent indifféremment l'un ou l'autre terme, et les produits de type datamart
prétendant être des entrepôts de données ajoutent à la confusion.
Ce n'est pourtant pas la même chose. Un entrepôt de données contient les données
recueillies au niveau de détail le plus bas, à partir des principaux domaines
d'activité d'une entreprise,tandis qu'un magasin de données concerne un seul département
ou domaine fonctionnel et contient des données agrégées. Dans cet article, j'explique
les fonctions respectives des entrepôts et des magasins, et ose quelques suggestions
quant à l'application pratique de chaque solution.
Un entrepôt de données est une structure qui stocke de vastes quantités
de données nettoyées et transformées, provenant des bases de données de production
Mais qu’est ce donc qu’un AGL ?
par Gregory Jarrige - adaptation de Benoît Herr
Voici, à
travers le résumé d'une discussion ayant eu lieu sur un forum Web, des réponses
pratiques à cette question. Techniciens, à vos browsers !
8 sites compatibles Euro en 6 mois et demi
par Dominique Douchet
Un outil adapté et une grande motivation de toute l'équipe projet ont permis à
Landis & Staefa de mener à bien son projet Euro dans des temps records.
L'équipe informatique de Landis & Staefa venait de travailler pendant 9 mois à la personnalisation et à l'implémentation de la V4.05 CD de BPCS, sur les 17 sites européens du groupe. Les utilisateurs et la Direction de l'entreprise se félicitaient du succès de ce projet de mise en conformité an 2000, réalisé dans des délais et avec des coûts maîtrisés.
L'introduction imminente de la monnaie unique européenne a poussé Siemens à s'engager auprès de ses partenaires commerciaux et de ses actionnaires pour effectuer ses échanges en Euro à partir du 1er janvier 1999, et à convertir les divers systèmes comptables des pays concernés dès le 1er octobre 1999. Un nouveau grand chantier informatique venait d'être identifié : rendre rapidement les systèmes compatibles Euro.
Géry Gedlek, Directeur Informatique de Landis & Staefa, était toutefois confiant; l'éditeur, SSA proposait la V4.05 CD de BPCS, compatible an 2000, et s'employait à terminer la mise au point de la V4.05 CDE, compatible Euro. Géry Gedlek se tenait constamment informé des délais de disponibilité de cette dernière version.
En novembre 1998, tout semblait indiquer que la V4.05 CDE et les programmes de conversion associés seraient livrés dans les temps. Géry Gedlek et son équipe disposaient alors d'un délai suffisant pour réaliser les tests d'assurance qualité et la mise en place complexe de la nouvelle version sur les 8 sites européens avant la date butoir.
Le projet concernait les pays suivants : Belgique, France, Espagne, Finlande, Italie, Autriche, Portugal et Hollande.
Les plus consultés sur iTPro.fr
- Hyperconnectés depuis janvier, épuisés en décembre : le poids de la fatigue numérique
- Sécurité des équipes : les organisations à la peine
- Top 5 TechnoVision 2026 des tendances technologiques à suivre de près !
- Maîtriser l’observabilité des données IA
- Les entreprises européennes face aux défis socio-économiques et technologiques
