> Windows
Le deuxième  « booster » d’IBM

Le deuxième « booster » d’IBM

IMD (IBM Microelectronics Division) joue un rôle moteur et de synergie stratégique au sein de la nébuleuse IBMDans le NEWS MAGAZINE d'octobre, il était question d'IBM Global Services (IGS), l'activité d'IBM dont la croissance est la plus élevée, et selon les termes mêmes de Lou Gerstner, Président d'IBM, est le "premier booster de la compagnie". IGS est dirigée par Sam Palmisano.

            Dès sa prise en main de la compagnie, Lou Gerstner a immédiatement pressenti que la technologie était l'un des atouts majeurs d'IBM. Il a maintenu, dans un premier temps, les budgets de la recherche au niveau des années précédentes; ensuite, il a visité les laboratoires et s'est rendu compte que des décennies de technologie de pointe gisaient dans les cartons des labos, prêtes à  être mises en oeuvre. Pour lui, il ne faisait pas de doute : IBM était avant tout une entreprise de technologie. 

Des décennies de technologie de pointe gisaient dans les cartons des labos

            Aujourd'hui, toujours selon Lou Gerstner, le "Technology Group", sous la direction de Jim Vanderslice, constitue le "deuxième booster de la compagnie". Jim Vanderslice a tout d'abord repris la Division Storage Systems, qui avait progressivement perdu son hégémonie dans les technologies de "stockage" au profit de ses concurrents. Son action a été couronnée de succès et l'on n'est pas surpris de le voir aujourd'hui à  la tête du "Technology Group" qui regroupe, autour de IBM Microelectronics Division, les activités Storage, Printing, Displays, Servers; en fait presque toutes les activités qui ne dépendent pas de IGS. A noter que la recherche est encore une entité séparée sous la direction de Paul M. Horn.

Lire l'article
Protéger le journal de sécurité de Windows NT

Protéger le journal de sécurité de Windows NT

Dans de précédents articles de ce magazine, on a pu voir comment exploiter l'utilisation des privilèges et des catégories d'audit d'administration des comptes pour surveiller l'activité des utilisateurs ayant des privilèges d'administrateur. Mais que faire si les intrus essayent de dissimuler leurs traces en modifiant le journal de sécurité de Windows NT ? On peut utiliser les événements systèmes et les changements de politiques pour détecter de telles attaques.

Lire l'article
Des nouvelles de Windows 2000

Des nouvelles de Windows 2000

Lors d'une récente réunion d'information pour la presse, Microsoft a révélé la progression de la prochaine incarnation de Windows NT. La réunion a apporté à  la fois de bonnes et de mauvaises nouvelles, mais peu d'annonces de grande envergure. Quelles sont donc les dernières nouvelles de Windows 2000 ? Après plus de 2 années de développement de ce qui était jusqu'à  présent annoncé comme Windows NT 5.0, Microsoft a établi et adopté un ensemble d'objectifs pour NT et a déjà  considérablement progressé dans leur réalisation. J'entends parler du devenir de NT depuis 2 ans et j'ai été beaucoup plus impressionné en assistant aux démonstrations réelles.
Puisque la beta 2 de NT 5.0 est désormais sortie, les utilisateurs ont envie de savoir si Microsoft a tenu compte de leurs craintes et de leurs attentes à  propos de cette nouvelle version. La conférence de presse a permis de présenter les mises à  jours suivantes de NT 5.0.
Les options
Les mises à  jour présentées portaient sur les nouveaux outils et les nouveautés technologiques de NT 5.0. Sous réserve d'être correctement implémentées, les fonctions telles que Active Directory (AD) et Zero Administration for Windows (ZAW) promettent une amélioration de NT.

Lire l'article
Les services pour UNIX de Windows NT

Les services pour UNIX de Windows NT

En dépit des affirmations de certains, Windows NT ne peut tout simplement pas remplacer UNIX dans toutes les situations. En outre, le coût d'une migration d'UNIX vers NT est prohibitif et, dans bien des cas, NT n'apporte pas aux administrateurs UNIX les applications qu'ils recherchent. La règle en la matière est plutôt l'intégration que le remplacement.Depuis le lancement de Windows par Microsoft, l'éditeur a toujours été en retrait en ce qui concerne le nombre et les fonctionnalités des utilitaires d'invite de commande de Windows au bénéfice des interfaces graphiques. Des sources tierces (notamment UNIX) proposent ces outils depuis plusieurs années, mais aucune solution intégrée n'était proposée.
Avec les Services pour UNIX de Windows NT (SPU), cette lacune a été comblée. Pourtant, le nom du produit est trompeur. SPU ne fournit pas de services NT pour UNIX, mais plutôt ce que beaucoup considèrent comme des services UNIX sur un système NT. Il est fondamental de bien percevoir cette distinction pour comprendre les services offerts par SPU et pour qui. SPU simplifie l'accès aux ressources, facilite la synchronisation des mots de passe et facilite l'administration des environnements mixtes Windows NT/UNIX.

Lire l'article
IBM Enterprise Suite pour NT :

IBM Enterprise Suite pour NT :

Pour utiliser Windows NT Server 4.0 dans votre entreprise, vous avez besoin d'applications pour mettre sur pied votre infrastructure d'informations. Il vous faut un serveur de bases de données, un serveur de messagerie et une solution de contrôle et d'administration à  distance. En dehors de BackOffice de Microsoft, le choix est limité. Vous pouvez essayer d'intégrer des éléments provenant de divers éditeurs et espérer qu'ils interagissent, mais il existe une autre solution : les suites d'IBM pour Windows NT. L'IBM Enterprise Suite for Windows NT est un ensemble de packages qui offre davantage de fonctionnalité sous Windows NT que BackOffice lui-même. Les composants middleware des suites IBM aident à  une exploitation maximale du système.

Lire l'article
Obtenir des ensembles de résultats d’une procédure cataloguée SQL

Obtenir des ensembles de résultats d’une procédure cataloguée SQL

Rajoutez de la puissance à  vos applications client/serveur avec cette procédure cataloguée SQL qui renvoie de multiples lignes de donnéesEn écrivant des procédures cataloguées avec le langage des procédures cataloguées (Stored Procedure Language ou SPL en anglais) SQL on pourra d'une part jouir d'une plus grande portabilité sur des plates-formes hétérogènes, et d'autre part simplifier le coding des bases de données. Par ailleurs, l'utilisation des procédures cataloguées peut également améliorer les performances et la sécurité des applications client/serveur. Le SPL peut être utilisé dans différents cas de figure, y compris pour récupérer un ensemble de résultats. Cet ensemble est constitué d'un ou plusieurs enregistrements de données, comme par exemple une liste des meilleurs ventes de livres classée par catégorie. Dans l'article "A l'intérieur d'une procédure cataloguée SQL", NEWSMAGAZINE, septembre 1999, nous avons fait un tour d'horizon des procédures cataloguées SQL. Nous avons également expliqué comment créer une procédure cataloguée utilisant des paramètres de sortie pour renvoyer des informations au programme appelant. Aujourd'hui, nous allons embarquer pour un autre voyage, au coeur d'une procédure cataloguée SPL. Mais cette fois, la procédure renvoie un ensemble de résultats. (Pour une présentation des concepts de base du SPL, consultez l'article "Des procédures cataloguées en SQL/400", NEWSMAGAZINE, juin 1998.

Nous allons embarquer pour un autre voyage, au coeur d'une procédure cataloguée SPL

Lire l'article
Partitionnement logique : diviser pour régner

Partitionnement logique : diviser pour régner

La fonction LPAR de la V4R4 permet de diviser un AS/400 SMP en plusieurs systèmes logiques Ceux d'entre nous qui sont dans le métier depuis un moment constatent que certaines tendances refont surface au bout d'un moment, dans l'industrie informatique. Certes, nous ne vivons peut-être plus dans le passé, mais le présent nous semble bien familier.
Prenons par exemple le cas de la consolidation de serveurs.

Il n'y a pas si longtemps, les systèmes informatiques centralisés étaient "à  la mode." Pendant de nombreuses années, les gens citaient le Dr. Herbert Grosch, qui affirmait que plus le système informatique était gros, plus on en avait pour son argent. Connue sous le nom de Loi de Grosch, cette assertion s'est répandue dans le milieu informatique pendant des dizaines d'années. Des entreprises comme IBM ont construit des systèmes centraux de grande taille afin de réaliser des économies d'échelle.

De plus, les sociétés ont centralisé les ordinateurs en un lieu unique, situé souvent derrière une paroi de verre. Au même moment, les microprocesseurs ont vu leur taille se réduire. Cette évolution s'est accompagnée d'une amélioration des performances et d'une chute spectaculaire du coût des équipements. Cela a permis de concentrer une grande puissance de calcul dans de petits serveurs distribués.

Beaucoup de gens ont alors pensé que la Loi de Grosch était enfin caduque. L'informatique distribuée était devenue la norme pour beaucoup d'entreprises qui installèrent des réseaux locaux de PC et des serveurs distribués sur leur site. Même si ce modèle distribué fonctionne encore bien pour certaines entreprises, plusieurs autres remettent en question le coût et la complexité de la gestion des systèmes distribués. Une analyse IDC conduite en 1998 a montré une forte mobilisation en faveur de la consolidation des serveurs parmi les utilisateurs AS/400, 49% des 500 sociétés américaines sondées déclarant regrouper leurs systèmes et leurs unités de stockage.

Ces résultats ont conduit IDC à  étudier les scénari AS/400 de réduction des coûts par regroupement dans un livre blanc rendu public récemment. Le premier scénario regroupait cinq AS/400 distincts mais présents sur le même site en un seul grand système centralisé. L'autre regroupait vingt AS/400 distants et plus petits en un seul et même grand AS/400 central. Dans les deux cas, le regroupement réduit le coût annuel total par utilisateur de 13 à  15%. Avec de telles économies potentielles, il n'est pas surprenant que la consolidation des serveurs soit devenue une priorité pour les entreprises utilisatrices d'AS/400.

De plus, avec la nouvelle fonctionnalité de la V4R4 de l'AS/400 baptisée LPAR (Logical Partitioning, ou partitionnement logique), les utilisateurs seront bientôt en mesure de tirer parti du regroupement physique des serveurs tout en étant capables de diviser les AS/400 en systèmes logiques distincts.

Lire l'article
Comment survivre à  un plantage de DHCP

Comment survivre à  un plantage de DHCP

J'entretiens une relation mitigée avec les Service Packs. J'adore leurs corrections de bugs, mais je déteste toutes les fioritures qui les accompagnent. Ce mois-ci je devais entièrement recréer le serveur DNS, WINS et DHCP de mon domicile, qui avait été effacé par le SP4 de Windows NT 4.0. Mais l'expérience a été un bon exercice pour moi et elle m'a rappelé que je n'avais encore jamais évoqué sérieusement la reprise après incident de Windows NT. Lorsque j'ai déménagé dans mon logement actuel, j'ai câblé l'appartement en sachant qu'un jour je mettrais à  niveau mon réseau privé pour passer de son allure d'escargot (10 Mbps) à  un Ethernet 100 Mbps. Le prix des cartes Ethernet 100Base-T est en baisse depuis quelques années et les cartes 10/100 Mbps étaient à  peu près les seules cartes réseau sur le marché l'an dernier.

Aussi, au moment où j'ai aménagé dans mon logement actuel, 40 pour cent des périphériques de mon réseau pouvaient déjà  exploiter 100 Mbps. Depuis des mois j'avais les câbles nécessaires en place et beaucoup de cartes Ethernet, mais je n'avais pas encore passé mon réseau à  100 Mbps, car je ne pouvais pas justifier le prix de hubs 100 Mbps. Mais en voyant récemment des hubs NETGEAR à  huit ports à  moins de 1500 F dans une grande surface d'équipement bureautique, je n'ai pas résisté et je suis reparti avec les trois exemplaires que le magasin avait en stock. (A propos, j'ai trouvé les hubs NETGEAR peu après avoir appliqué le SP4 aux serveurs de mon réseau).

Inutile de m'écrire pour me dire que j'aurais pu trouver des hubs à  100 Mbps moins chers ailleurs, je suis au courant. J'ai acheté les hubs NETGEAR pour trois raisons.

D'abord je n'ai jamais acheté un seul équipement de mauvaise qualité de Bay Networks. Cela ne signifie pas que Bay Networks ne construit pas de mauvais matériel, mais je ne suis jamais tombé dessus jusqu'ici.


Deuxièmement, les commutateurs NETGEAR ont beaucoup d'affichages LED pour indiquer la vitesse de connexion, les taux d'utilisation du réseau et d'autres informations de ce type. (Ma première loi en matière de télématique est " Plus il y a de lumières, mieux c'est ").


Troisièmement, les commutateurs avaient l'avantage de se trouver là . Je me trouvais dans le magasin pour d'autres achats et les hubs attendaient sur l'étagère sous mes yeux ; je n'avais pas à  attendre la livraison d'une commande. (C'est vrai, je le reconnais, j'ai toujours besoin d'assouvir mes désirs instantanément).

Peu après avoir installé les trois nouveaux hubs dans le réseau - ce qui m'a pris en tout et pour tout 5 minutes - je remarquai que mes serveurs DNS, WINS et DHCP ne communiquaient qu'à  10 Mbps. (Ah, vous voyez l'intérêt des LED !) Je suis resté perplexe devant cette lenteur pendant une dizaine de minutes, en me demandant si le câblage du réseau n'était pas le responsable.

Finalement, la brume de sénilité s'est dégagée et je me suis souvenu que la raison pour laquelle le serveur n'exécute que DNS, WINS et DHCP est son grand âge. La lenteur du réseau s'expliquait par le fait que le serveur ne contenait qu'une carte à  10 Mbps. J'installai donc une carte 100 Mbps XL de 3Com dans le serveur, chargeai le driver, rebootai le serveur et - paf ! - me retrouvai brutalement face à  un écran bleu de la mort, un vrai de vrai. NT refusait d'aller au-delà  de l'écran bleu d'initialisation du kernel, en déclarant ne pas trouver winserv.dll. Comme je bascule tout le temps les cartes réseau entre mes serveurs, que 3Com est une maison de bonne réputation et que la carte 3Com est très répandue, je devinai que la défaillance du serveur était due à  une fragilité du SP4.

Il est impossible de restaurer une base de données DHCP sans avoir accès aux sauvegardes de quatre fichiers DHCP

Lire l'article
Quatre façons de ‘planter’ les projets ERP

Quatre façons de ‘planter’ les projets ERP

par Robert Tipton

Nous sommes en plein dans une vague d'ERPmania ! Compte tenu d'une part du déluge d'histoires d'horreur provenant d'utilisateurs ayant mis en place des solutions ERP, et d'autre part, de l'état d'effervescence des fournisseurs, les applications ERP constituent l'équivalent informatique soit de l'enfer soit du nirvana. Il n'y a pas de juste milieu.

Mais que représente au juste un ERP (acronyme provenant de “ Enterprise Resource Planning ”) pour une entreprise moyenne ? A en croire les racontars, les entreprises devraient en “ avoir peur, voire très peur ”. En effet, nous avons tous entendu parlé de projets ERP ayant mal tourné. Résultat de ces échecs : des millions de francs jetés par la fenêtre, des consultants tenant des entreprises en otage, de profondes restructurations au sein des entreprises, des licenciements ou encore des banqueroutes. Si en revanche on écoute les fournisseurs de solutions ERP, les suites d'applications sont rapides et faciles à mettre en oeuvre. Toujours d'après eux, une fois installées, les applications ERP peuvent quasiment gérer votre entreprise au quotidien. Un fournisseur affirme, qui plus est, que l'on peut installer sa solution ERP en 60 jours et par la même occasion, régler ses problèmes liés au passage à l'an 2000.

            Tout cela est exagéré, même s'il y a une part de vérité dans toutes ces affirmations. Certes, certaines grandes entreprises ont perdu des dizaines de millions de francs du fait de projets ERP ratés, certaines ayant également été poussées jusqu'à la faillite. Il est également vrai que certains packages ERP s'installent rapidement et sans accrocs majeurs. Certaines solutions répondent parfaitement aux besoins et aux processus d'une entreprise donnée, sans bidouille ni personnalisation particulière. Toutefois, de tous les projets ERP ayant été mis en place dans l'industrie, les cas extrêmes décrits ci-dessus ne représentent qu'une infime minorité.

            Aussi, arrêtons d'accabler, d'encenser ou encore de polémiquer sur les solutions ERP et allons droit à l'essentiel. Voici quatre idées reçues qui vous conduiront sans aucun doute à l'échec de votre projet l'ERP. Evitez-les à tout prix (avec un peu de bon sens) et vous obtiendrez un système ERP représentant véritablement une solution à vos problèmes. 

Lire l'article
Une nouvelle étape pour le groupe RMH

Une nouvelle étape pour le groupe RMH

La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.

Lire l'article
Le Triangle d’Or

Le Triangle d’Or

par Samy Mosimann Dans le monde de la banque privée, la place de l'AS/400 reste prépondérante, avec un facteur de 1 à  8 par rapport au nombre d'installations Unix Genève, Zurich et Luxembourg sont les trois sommets du triangle d'or de l'activité bancaire privée en Europe. Ces banques sont des établissements qui ne se comparent pas aux grandes banques nationales ou publiques européennes. Elles sont moins importantes et emploient de moins de 40 à  plus de 500 employés. Globalement, on peut estimer qu'environ 1000 banques sont en activité dans ce domaine en Suisse et au Luxembourg.

Lire l'article
Gérer la charge des serveurs Web

Gérer la charge des serveurs Web

Au fur et à  mesure du développement du commerce électronique, les entreprises sont de plus en plus nombreuses à  compter sur leurs sites Web pour communiquer avec les clients. Un site Web très performant, délivrant rapidement et en toute fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial pour un commerce électronique prospère et compétitif. Les clients potentiels ne seront pas enclins à  retourner sur un site Web, s'ils sont frustrés par sa lenteur et se heurtent à  des retards importants ou à  des défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement l'amélioration des performances de son site Web.

Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter la bande passante Internet, utiliser un équipement de réseau rapide, concevoir des applications Web efficaces, optimiser et mettre à  niveau les logiciels et les matériels des serveurs Web, et utiliser une technologie de Web-caching.

Il est également possible d'améliorer les performances d'un site Web en ajoutant des serveurs Web et des sites et en mettant en miroir le contenu entre tous les serveurs et les sites. Cette méthode permet de partager la charge globale entre les serveurs et les sites et de réduire le retard d'exécution des informations, occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer pour faire de la place à  de nouveaux serveurs.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour équilibrer la charge entre les serveurs Web, on fait traditionnellement appel à  la fonction " à  tour de rôle " du DNS qui permet de distribuer équitablement les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont tous accessibles à  égalité.

Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple, un système Windows 2000 Server avec deux processeurs Pentium III à  450 MHz et 2 Go de mémoire devrait traiter plus de charge dans un environnement à  équilibrage de charge qu'un système Windows NT Server avec un processeur Pentium II à  300 MHz et 256 Mo de mémoire.

Or la fonction " à  tour de rôle " de DNS traite ces deux systèmes à  égalité ; elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si le serveur est en marche ou arrêté.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment, des éditeurs indépendants ont développé des load balancers ou équilibreurs de charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou site en cas de défaillance.

Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes à  prendre en considération avant de faire son choix.

Lire l'article
SQL Server 2000 : vers les sommets

SQL Server 2000 : vers les sommets

Imaginez que vous pouvez construire la maison de vos rêves. Pas de problème de budget, mais vous voulez emménager le plus vite possible. Dans ce cas, il vous faudra choisir entre avoir la perfection avant d'emménager et prendre possession de la maison le plus vite possible. Vous prendrez probablement du temps pour concevoir les fondations et les pièces essentielles, quitte à  ajouter une aile ou à  aménager les combles par la suite. Le processus d'évolution de SQL Server ressemble un peu à  la construction de cette maison. Il y a plusieurs années, Microsoft a réuni plusieurs des meilleurs spécialistes mondiaux des bases de données (de Microsoft et d'ailleurs) et leur a demandé de créer la base de données de leurs rêves. On peut considérer SQL Server 7.0 comme les fondations de ce projet.

Le code de SQL Server 7.0 comportait des évolutions majeures par rapport au code de base mais les DBA et les développeurs ne pouvaient pas voir ou utiliser de nombreuses améliorations. Microsoft SQL Server 7.0 comportait de nombreuses améliorations visibles (telles que les services OLAP), mais la plupart des efforts de reengineering se situait au niveau de la page ou du stockage. J'ai découvert SQL Server 2000 à  la conférence SQL Server Most Valuable Professional (MVP) de Microsoft en octobre dernier.

Les premiers briefings portaient principalement sur l'architecture interne et je suis reparti avec un tuyau important : SQL Server 2000 s'appuie sur les fondations de SQL Server 7.0 et rénove une partie de la plomberie et du réseau électrique. En fait, à  bien des égards, SQL Server 2000 c'est la maison terminée, la grande extension et les salles de projection privées dont vous avez toujours révées.

Lire l'article
PPTP est-il sûr ?

PPTP est-il sûr ?

Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes de PPTP ? Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point Tunneling Protocol " (http://www.counterpane.com/pptppaper.html), une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus tard, L0pht Heavy Industries, (http://www.L0pht.com) a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable de déduire les mots de passe d'utilisateurs à  partir des questions/réponses traversant la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article " Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft était en train de développer les mises à  jour de la spécification PPTP et les versions du code consécutives. En août 1998, Microsoft a sorti trois corrections pour PPTP et d'autres mises à  jour de DUN.

Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant la sécurité du système

L'an dernier, on a eu beaucoup de mal à  suivre l'évolution des choses tant la confusion était grande entre les déclarations des hackers et les réponses de Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre à  cette question, je vais détailler les faiblesses de PPTP et expliquer comment Microsoft a réussi à  les corriger avec les améliorations successives de la mise à  jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.

Lire l'article
Le top 10 des commandes batch

Le top 10 des commandes batch

Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.

Lire l'article
Bâtir des routages IP redondants

Bâtir des routages IP redondants

Le succès du commerce électronique repose largement sur le routage IP, qui achemine les informations de l'e-business d'une entreprise à  l'autre. Sans mécanisme de routage IP redondant et à  tolérance de panne, l'e-business d'une entreprise ne peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation, interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise n'a pas d'autre méthode pour accéder à  l'Internet Pour atteindre et conserver un avantage concurrentiel en commerce électronique, il vous faut intégrer un routage IP redondant dans votre infrastructure Internet. Il existe divers moyens pour cela et l'un des plus courants est d'installer des routeurs et des connexions Internet redondants. La présence de plusieurs routeurs sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à  divers ISP (c'est-à -dire le multihoming) permettent de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol), qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent à  créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet. Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure de commerce électronique, il est indispensable de bien comprendre les bases du fonctionnement de ces protocoles dans les configurations de routage IP redondantes.

Lire l'article
Votre boutique d’e-commerce sécurisée avec SBS et Site Server

Votre boutique d’e-commerce sécurisée avec SBS et Site Server

Microsoft Small Business Server (SBS) est un produit de choix non seulement pour les besoins de gestion des petites entreprises, mais aussi pour leurs sites Web de commerce électronique. Douze étapes pour construire votre boutique en ligne avec SBS et Microsoft Site Server 3.0 Commerce Edition. Microsoft a développé Site Server en le destinant principalement à  des installations sur plate-forme BackOffice complète. Mais pour beaucoup de petites entreprises, utiliser seulement SBS et Site Server - plutôt que d'installer la solution BackOffice complète - est une idée séduisante. SBS et Site Server associés fournissent la majeure partie des fonctionnalités de BackOffice sans en atteindre le coût. Cependant, si SBS et Site Server sont faciles à  installer et à  configurer, le processus garantissant la sécurité de leur fonctionnement sur l'Internet n'est pas si simple.Cet article liste les étapes à  respecter pour installer SBS, Site Server et les composants supplémentaires nécessaires pour sécuriser une solution de commerce électronique. Si vous suivez cette démarche, vous aurez une installation d'e-commerce SBS correctement sécurisée.

Lire l'article
Les performances d’Exchange 2000

Les performances d’Exchange 2000

Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre des performances optimales grâce à  la distribution des fichiers et depuis, pas grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store (IS) jusqu'à  la limite théorique de 16 To, mais le serveur de messagerie conserve ses caractéristiques essentielles. Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory Store, leurs journaux de transactions, la copie sur disques de Windows NT et le répertoire de travail MTA (Message Transfer Agent).

Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie bénéficie des améliorations suivantes :

* L'architecture de l'IS a nettement évolué, passant du simple partitionnement de bases de données privées et publiques à  un point où elle permet, théoriquement, d'exécuter jusqu'à  90 bases de données sur un seul serveur.

* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange 2000 que pour les précédentes versions d'Exchange Server.

* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.

* Active Directory (AD) de Windows 2000 remplace le Directory Store.

* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace l'ancien MTA basé sur X.400.

Ces améliorations font partie d'une solution customisable que les solutions tierces étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus, fax, workflow, gestion de documents et autres fonctions qui ne font pas partie du serveur de base.
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement les performances. Les concepteurs de systèmes vont devoir à  présent se poser une question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes de configurations systèmes et matériels.

Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange 2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement les performances

Lire l'article
Thorn Europhane : ERP et Terminal Server au centre du nouveau SI

Thorn Europhane : ERP et Terminal Server au centre du nouveau SI

Pour bâtir son nouveau système d'information multisite, le groupe Thorn a opté pour la mise en place de l'ERP Baan. Les problèmes de communications de données entre les filiales ont pu être résolus grâce à  l'architecture Terminal Server/Metaframe.La décision de mettre en oeuvre une informatique de gestion commune au niveau du groupe Thorn est née il y a trois ans, et répondait à  une double contrainte. D'une part, les difficultés de consolidations de chiffres, et d'autres parts les problèmes de communication entre les différentes filiales, au sein d'environnements informatiques très hétérogènes. " Il devenait primordial de mettre en oeuvre un modèle de gestion plus cohérent au niveau du groupe, de rationaliser les systèmes d'informations des différentes filiales, et faire en sorte qu'ils passent le cap de l'an 2000. " explique Gérard L'hote, directeur administratif et financier chez Thorn Europhane. C'est le progiciel de gestion intégré Baan qui sera retenu, après la phase de Business Re Engineering, pour supporter une rénovation complète du système d'information de l'entreprise : de la gestion comptable, financière, commerciale, à  la gestion de production. " Nous avons fait le choix de l'ERP Baan car c'était alors, le seul produit du marché susceptible de nous aider à  bâtir un système d'information multisite transfrontières, en nous apportant une réponse métier adaptée à  notre problématique de GPAO. " souligne Gérard L'hote. Quant à  l'intégrateur Origin, il sera chargé de la mise en oeuvre complète de l'ERP. " Origin est aujourd'hui le premier intégrateur Baan sur le marché, mais c'est aussi la seule société de services capable d'apporter une réponse internationale à  notre problématique d'implémentation. " précise Gérard L'hote.

A partir du mois de juin 1998, un modèle commun d'implémentation a été choisi pour l'ensemble des pays concernés (Angleterre, Suède, France et Allemagne). A charge de ces filiales, d'adapter ensuite la solution à  leurs besoins propres de gestion, via des personnalisations et des développements spécifiques.

" L'architecture AS400 nous posait de gros problèmes de communications entre sites à  cause du protocole SNA "

Basée en Angleterre, l'usine de production de Spennymoor sera la première à  finaliser la mise en oeuvre de la gestion de production. Elle sera suivie par son homologue allemande, qui optera pour une démarche Big Bang du fait de sa configuration multisite. La France vient quant à  elle de terminer l'implémentation de la solution par la mise en oeuvre du dernier module de gestion commerciale.

Lire l'article
Administrer les variables d’environnement de Windows NT

Administrer les variables d’environnement de Windows NT

Dans les groupes de discussion, reviennent fréquemment des questions sur les variables d'environnement. Les administrateurs Windows NT ont souvent du mal à  accéder aux informations stockées par ces variables. Pour définir et lire des variables d'environnement sur les machines NT il existe plusieurs techniques. Cet article explique comment un administrateur NT expérimenté peut gérer des variables système et utilisateur avec les utilitaires du Kit de ressources de Windows NT Server 4.0, des fichiers batch et des applications VBScript (Visual Basic).

Lire l'article