Le deuxième « booster » d’IBM
IMD (IBM Microelectronics Division) joue un rôle moteur et de synergie stratégique au sein de la nébuleuse IBMDans
le NEWS MAGAZINE d'octobre, il était question d'IBM Global Services (IGS),
l'activité d'IBM dont la croissance est la plus élevée, et selon les
termes mêmes de Lou Gerstner, Président d'IBM, est le "premier booster
de la compagnie". IGS est dirigée par Sam Palmisano.
Dès sa prise en main de la compagnie, Lou Gerstner a immédiatement
pressenti que la technologie était l'un des atouts majeurs d'IBM. Il a
maintenu, dans un premier temps, les budgets de la recherche au niveau des années
précédentes; ensuite, il a visité les laboratoires et s'est rendu compte
que des décennies de technologie de pointe gisaient dans les cartons des labos,
prêtes à être mises en oeuvre. Pour lui, il ne faisait pas de doute : IBM était
avant tout une entreprise de technologie.
Des décennies de technologie de pointe gisaient dans les cartons des labos
Aujourd'hui, toujours selon Lou Gerstner, le "Technology Group", sous la direction de Jim Vanderslice, constitue le "deuxième booster de la compagnie". Jim Vanderslice a tout d'abord repris la Division Storage Systems, qui avait progressivement perdu son hégémonie dans les technologies de "stockage" au profit de ses concurrents. Son action a été couronnée de succès et l'on n'est pas surpris de le voir aujourd'hui à la tête du "Technology Group" qui regroupe, autour de IBM Microelectronics Division, les activités Storage, Printing, Displays, Servers; en fait presque toutes les activités qui ne dépendent pas de IGS. A noter que la recherche est encore une entité séparée sous la direction de Paul M. Horn.
Lire l'article
Protéger le journal de sécurité de Windows NT
Dans de précédents articles de ce magazine, on a pu voir comment exploiter l'utilisation des privilèges et des catégories d'audit d'administration des comptes pour surveiller l'activité des utilisateurs ayant des privilèges d'administrateur. Mais que faire si les intrus essayent de dissimuler leurs traces en modifiant le journal de sécurité de Windows NT ? On peut utiliser les événements systèmes et les changements de politiques pour détecter de telles attaques.
Lire l'article
Des nouvelles de Windows 2000
Lors d'une récente réunion d'information pour la presse, Microsoft a révélé la
progression de la prochaine incarnation de Windows NT. La réunion a apporté à
la fois de bonnes et de mauvaises nouvelles, mais peu d'annonces de grande envergure.
Quelles sont donc les dernières nouvelles de Windows 2000 ? Après plus de 2 années
de développement de ce qui était jusqu'à présent annoncé comme Windows NT 5.0,
Microsoft a établi et adopté un ensemble d'objectifs pour NT et a déjà considérablement
progressé dans leur réalisation. J'entends parler du devenir de NT depuis 2 ans
et j'ai été beaucoup plus impressionné en assistant aux démonstrations réelles.
Puisque la beta 2 de NT 5.0 est désormais sortie, les utilisateurs ont envie de
savoir si Microsoft a tenu compte de leurs craintes et de leurs attentes à propos
de cette nouvelle version. La conférence de presse a permis de présenter les mises
à jours suivantes de NT 5.0.
Les options
Les mises à jour présentées portaient sur les nouveaux outils et les
nouveautés technologiques de NT 5.0. Sous réserve d'être correctement implémentées,
les fonctions telles que Active Directory (AD) et Zero Administration for Windows
(ZAW) promettent une amélioration de NT.
Les services pour UNIX de Windows NT
En dépit des affirmations de certains, Windows NT ne peut tout simplement pas
remplacer UNIX dans toutes les situations. En outre, le coût d'une migration d'UNIX
vers NT est prohibitif et, dans bien des cas, NT n'apporte pas aux administrateurs
UNIX les applications qu'ils recherchent. La règle en la matière est plutôt l'intégration
que le remplacement.Depuis le lancement de Windows par Microsoft, l'éditeur a toujours été en retrait
en ce qui concerne le nombre et les fonctionnalités des utilitaires d'invite de
commande de Windows au bénéfice des interfaces graphiques. Des sources tierces
(notamment UNIX) proposent ces outils depuis plusieurs années, mais aucune solution
intégrée n'était proposée.
Avec les Services pour UNIX de Windows NT (SPU), cette lacune a été comblée. Pourtant,
le nom du produit est trompeur. SPU ne fournit pas de services NT pour UNIX, mais
plutôt ce que beaucoup considèrent comme des services UNIX sur un système NT.
Il est fondamental de bien percevoir cette distinction pour comprendre les services
offerts par SPU et pour qui. SPU simplifie l'accès aux ressources, facilite la
synchronisation des mots de passe et facilite l'administration des environnements
mixtes Windows NT/UNIX.
IBM Enterprise Suite pour NT :
Pour utiliser Windows NT Server 4.0 dans votre entreprise, vous avez besoin d'applications pour mettre sur pied votre infrastructure d'informations. Il vous faut un serveur de bases de données, un serveur de messagerie et une solution de contrôle et d'administration à distance. En dehors de BackOffice de Microsoft, le choix est limité. Vous pouvez essayer d'intégrer des éléments provenant de divers éditeurs et espérer qu'ils interagissent, mais il existe une autre solution : les suites d'IBM pour Windows NT. L'IBM Enterprise Suite for Windows NT est un ensemble de packages qui offre davantage de fonctionnalité sous Windows NT que BackOffice lui-même. Les composants middleware des suites IBM aident à une exploitation maximale du système.
Lire l'article
Obtenir des ensembles de résultats d’une procédure cataloguée SQL
Rajoutez de la puissance à vos applications client/serveur avec cette procédure cataloguée SQL qui renvoie de multiples lignes de donnéesEn écrivant des procédures cataloguées avec le langage des procédures cataloguées (Stored Procedure Language ou SPL en anglais) SQL on pourra d'une part jouir d'une plus grande portabilité sur des plates-formes hétérogènes, et d'autre part simplifier le coding des bases de données. Par ailleurs, l'utilisation des procédures cataloguées peut également améliorer les performances et la sécurité des applications client/serveur. Le SPL peut être utilisé dans différents cas de figure, y compris pour récupérer un ensemble de résultats. Cet ensemble est constitué d'un ou plusieurs enregistrements de données, comme par exemple une liste des meilleurs ventes de livres classée par catégorie. Dans l'article "A l'intérieur d'une procédure cataloguée SQL", NEWSMAGAZINE, septembre 1999, nous avons fait un tour d'horizon des procédures cataloguées SQL. Nous avons également expliqué comment créer une procédure cataloguée utilisant des paramètres de sortie pour renvoyer des informations au programme appelant. Aujourd'hui, nous allons embarquer pour un autre voyage, au coeur d'une procédure cataloguée SPL. Mais cette fois, la procédure renvoie un ensemble de résultats. (Pour une présentation des concepts de base du SPL, consultez l'article "Des procédures cataloguées en SQL/400", NEWSMAGAZINE, juin 1998.
Nous allons embarquer pour un autre voyage, au coeur d'une procédure cataloguée SPL
Lire l'article
Partitionnement logique : diviser pour régner
La fonction LPAR de la V4R4 permet de diviser un AS/400 SMP en plusieurs systèmes
logiques
Ceux d'entre nous qui sont dans le métier depuis un moment constatent que certaines
tendances refont surface au bout d'un moment, dans l'industrie informatique. Certes,
nous ne vivons peut-être plus dans le passé, mais le présent nous semble bien
familier.
Prenons par exemple le cas de la consolidation de serveurs.
Il n'y a pas si longtemps, les systèmes informatiques centralisés étaient "à la
mode." Pendant de nombreuses années, les gens citaient le Dr. Herbert Grosch,
qui affirmait que plus le système informatique était gros, plus on en avait pour
son argent. Connue sous le nom de Loi de Grosch, cette assertion s'est répandue
dans le milieu informatique pendant des dizaines d'années. Des entreprises comme
IBM ont construit des systèmes centraux de grande taille afin de réaliser des
économies d'échelle.
De plus, les sociétés ont centralisé les ordinateurs en un lieu unique, situé
souvent derrière une paroi de verre. Au même moment, les microprocesseurs ont
vu leur taille se réduire. Cette évolution s'est accompagnée d'une amélioration
des performances et d'une chute spectaculaire du coût des équipements. Cela a
permis de concentrer une grande puissance de calcul dans de petits serveurs distribués.
Beaucoup de gens ont alors pensé que la Loi de Grosch était enfin caduque. L'informatique
distribuée était devenue la norme pour beaucoup d'entreprises qui installèrent
des réseaux locaux de PC et des serveurs distribués sur leur site. Même si ce
modèle distribué fonctionne encore bien pour certaines entreprises, plusieurs
autres remettent en question le coût et la complexité de la gestion des systèmes
distribués. Une analyse IDC conduite en 1998 a montré une forte mobilisation en
faveur de la consolidation des serveurs parmi les utilisateurs AS/400, 49% des
500 sociétés américaines sondées déclarant regrouper leurs systèmes et leurs unités
de stockage.
Ces résultats ont conduit IDC à étudier les scénari AS/400 de réduction des coûts
par regroupement dans un livre blanc rendu public récemment. Le premier scénario
regroupait cinq AS/400 distincts mais présents sur le même site en un seul grand
système centralisé. L'autre regroupait vingt AS/400 distants et plus petits en
un seul et même grand AS/400 central. Dans les deux cas, le regroupement réduit
le coût annuel total par utilisateur de 13 à 15%. Avec de telles économies potentielles,
il n'est pas surprenant que la consolidation des serveurs soit devenue une priorité
pour les entreprises utilisatrices d'AS/400.
De plus, avec la nouvelle fonctionnalité de la V4R4 de l'AS/400 baptisée LPAR
(Logical Partitioning, ou partitionnement logique), les utilisateurs seront bientôt
en mesure de tirer parti du regroupement physique des serveurs tout en étant capables
de diviser les AS/400 en systèmes logiques distincts.
Comment survivre à un plantage de DHCP
J'entretiens une relation mitigée avec les Service Packs. J'adore leurs corrections
de bugs, mais je déteste toutes les fioritures qui les accompagnent. Ce mois-ci
je devais entièrement recréer le serveur DNS, WINS et DHCP de mon domicile, qui
avait été effacé par le SP4 de Windows NT 4.0. Mais l'expérience a été un bon
exercice pour moi et elle m'a rappelé que je n'avais encore jamais évoqué sérieusement
la reprise après incident de Windows NT.
Lorsque j'ai déménagé dans mon logement actuel, j'ai câblé l'appartement en sachant
qu'un jour je mettrais à niveau mon réseau privé pour passer de son allure d'escargot
(10 Mbps) à un Ethernet 100 Mbps. Le prix des cartes Ethernet 100Base-T est en
baisse depuis quelques années et les cartes 10/100 Mbps étaient à peu près les
seules cartes réseau sur le marché l'an dernier.
Aussi, au moment où j'ai aménagé dans mon logement actuel, 40 pour cent des périphériques
de mon réseau pouvaient déjà exploiter 100 Mbps. Depuis des mois j'avais les câbles
nécessaires en place et beaucoup de cartes Ethernet, mais je n'avais pas encore
passé mon réseau à 100 Mbps, car je ne pouvais pas justifier le prix de hubs 100
Mbps. Mais en voyant récemment des hubs NETGEAR à huit ports à moins de 1500 F
dans une grande surface d'équipement bureautique, je n'ai pas résisté et je suis
reparti avec les trois exemplaires que le magasin avait en stock. (A propos, j'ai
trouvé les hubs NETGEAR peu après avoir appliqué le SP4 aux serveurs de mon réseau).
Inutile de m'écrire pour me dire que j'aurais pu trouver des hubs à 100 Mbps moins
chers ailleurs, je suis au courant. J'ai acheté les hubs NETGEAR pour trois raisons.
D'abord je n'ai jamais acheté un seul équipement de mauvaise qualité de Bay Networks.
Cela ne signifie pas que Bay Networks ne construit pas de mauvais matériel, mais
je ne suis jamais tombé dessus jusqu'ici.
Deuxièmement, les commutateurs NETGEAR ont beaucoup d'affichages LED pour indiquer
la vitesse de connexion, les taux d'utilisation du réseau et d'autres informations
de ce type. (Ma première loi en matière de télématique est " Plus il y a de lumières,
mieux c'est ").
Troisièmement, les commutateurs avaient l'avantage de se trouver là . Je me trouvais
dans le magasin pour d'autres achats et les hubs attendaient sur l'étagère sous
mes yeux ; je n'avais pas à attendre la livraison d'une commande. (C'est vrai,
je le reconnais, j'ai toujours besoin d'assouvir mes désirs instantanément).
Peu après avoir installé les trois nouveaux hubs dans le réseau - ce qui m'a pris
en tout et pour tout 5 minutes - je remarquai que mes serveurs DNS, WINS et DHCP
ne communiquaient qu'à 10 Mbps. (Ah, vous voyez l'intérêt des LED !) Je suis resté
perplexe devant cette lenteur pendant une dizaine de minutes, en me demandant
si le câblage du réseau n'était pas le responsable.
Finalement, la brume de sénilité s'est dégagée et je me suis souvenu que la raison
pour laquelle le serveur n'exécute que DNS, WINS et DHCP est son grand âge. La
lenteur du réseau s'expliquait par le fait que le serveur ne contenait qu'une
carte à 10 Mbps. J'installai donc une carte 100 Mbps XL de 3Com dans le serveur,
chargeai le driver, rebootai le serveur et - paf ! - me retrouvai brutalement
face à un écran bleu de la mort, un vrai de vrai. NT refusait d'aller au-delà
de l'écran bleu d'initialisation du kernel, en déclarant ne pas trouver winserv.dll.
Comme je bascule tout le temps les cartes réseau entre mes serveurs, que 3Com
est une maison de bonne réputation et que la carte 3Com est très répandue, je
devinai que la défaillance du serveur était due à une fragilité du SP4.
Il est impossible de restaurer une base de données DHCP sans avoir accès
aux sauvegardes de quatre fichiers DHCP
Quatre façons de ‘planter’ les projets ERP
par Robert Tipton
Nous sommes en plein dans une vague d'ERPmania ! Compte tenu d'une part du déluge d'histoires d'horreur provenant d'utilisateurs ayant mis en place des solutions ERP, et d'autre part, de l'état d'effervescence des fournisseurs, les applications ERP constituent l'équivalent informatique soit de l'enfer soit du nirvana. Il n'y a pas de juste milieu.
Mais que représente au juste un ERP (acronyme provenant de “ Enterprise Resource Planning ”) pour une entreprise moyenne ? A en croire les racontars, les entreprises devraient en “ avoir peur, voire très peur ”. En effet, nous avons tous entendu parlé de projets ERP ayant mal tourné. Résultat de ces échecs : des millions de francs jetés par la fenêtre, des consultants tenant des entreprises en otage, de profondes restructurations au sein des entreprises, des licenciements ou encore des banqueroutes. Si en revanche on écoute les fournisseurs de solutions ERP, les suites d'applications sont rapides et faciles à mettre en oeuvre. Toujours d'après eux, une fois installées, les applications ERP peuvent quasiment gérer votre entreprise au quotidien. Un fournisseur affirme, qui plus est, que l'on peut installer sa solution ERP en 60 jours et par la même occasion, régler ses problèmes liés au passage à l'an 2000.
Tout cela est exagéré, même s'il y a une part de vérité dans toutes ces affirmations. Certes, certaines grandes entreprises ont perdu des dizaines de millions de francs du fait de projets ERP ratés, certaines ayant également été poussées jusqu'à la faillite. Il est également vrai que certains packages ERP s'installent rapidement et sans accrocs majeurs. Certaines solutions répondent parfaitement aux besoins et aux processus d'une entreprise donnée, sans bidouille ni personnalisation particulière. Toutefois, de tous les projets ERP ayant été mis en place dans l'industrie, les cas extrêmes décrits ci-dessus ne représentent qu'une infime minorité.
Aussi, arrêtons d'accabler, d'encenser ou encore de polémiquer sur les solutions ERP et allons droit à l'essentiel. Voici quatre idées reçues qui vous conduiront sans aucun doute à l'échec de votre projet l'ERP. Evitez-les à tout prix (avec un peu de bon sens) et vous obtiendrez un système ERP représentant véritablement une solution à vos problèmes.
Une nouvelle étape pour le groupe RMH
La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.
Lire l'article
Le Triangle d’Or
par Samy Mosimann Dans le monde de la banque privée, la place de l'AS/400 reste prépondérante, avec un facteur de 1 à 8 par rapport au nombre d'installations Unix Genève, Zurich et Luxembourg sont les trois sommets du triangle d'or de l'activité bancaire privée en Europe. Ces banques sont des établissements qui ne se comparent pas aux grandes banques nationales ou publiques européennes. Elles sont moins importantes et emploient de moins de 40 à plus de 500 employés. Globalement, on peut estimer qu'environ 1000 banques sont en activité dans ce domaine en Suisse et au Luxembourg.
Lire l'article
Gérer la charge des serveurs Web
Au fur et à mesure du développement du commerce électronique, les entreprises
sont de plus en plus nombreuses à compter sur leurs sites Web pour communiquer
avec les clients. Un site Web très performant, délivrant rapidement et en toute
fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial
pour un commerce électronique prospère et compétitif.
Les clients potentiels ne seront pas enclins à retourner sur un site Web, s'ils
sont frustrés par sa lenteur et se heurtent à des retards importants ou à des
défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre
de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement
l'amélioration des performances de son site Web.
Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter
la bande passante Internet, utiliser un équipement de réseau rapide, concevoir
des applications Web efficaces, optimiser et mettre à niveau les logiciels et
les matériels des serveurs Web, et utiliser une technologie de Web-caching.
Il est également possible d'améliorer les performances d'un site Web en ajoutant
des serveurs Web et des sites et en mettant en miroir le contenu entre tous les
serveurs et les sites. Cette méthode permet de partager la charge globale entre
les serveurs et les sites et de réduire le retard d'exécution des informations,
occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer
pour faire de la place à de nouveaux serveurs.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour
équilibrer la charge entre les serveurs Web, on fait traditionnellement appel
à la fonction " à tour de rôle " du DNS qui permet de distribuer équitablement
les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont
tous accessibles à égalité.
Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où
les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple,
un système Windows 2000 Server avec deux processeurs Pentium III à 450 MHz et
2 Go de mémoire devrait traiter plus de charge dans un environnement à équilibrage
de charge qu'un système Windows NT Server avec un processeur Pentium II à 300
MHz et 256 Mo de mémoire.
Or la fonction " à tour de rôle " de DNS traite ces deux systèmes à égalité ;
elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si
le serveur est en marche ou arrêté.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment,
des éditeurs indépendants ont développé des load balancers ou équilibreurs de
charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément
entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des
serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou
site en cas de défaillance.
Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de
charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce
qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes
à prendre en considération avant de faire son choix.
SQL Server 2000 : vers les sommets
Imaginez que vous pouvez construire la maison de vos rêves. Pas de problème de
budget, mais vous voulez emménager le plus vite possible. Dans ce cas, il vous
faudra choisir entre avoir la perfection avant d'emménager et prendre possession
de la maison le plus vite possible. Vous prendrez probablement du temps pour concevoir
les fondations et les pièces essentielles, quitte à ajouter une aile ou à aménager
les combles par la suite.
Le processus d'évolution de SQL Server ressemble un peu à la construction de cette
maison. Il y a plusieurs années, Microsoft a réuni plusieurs des meilleurs spécialistes
mondiaux des bases de données (de Microsoft et d'ailleurs) et leur a demandé de
créer la base de données de leurs rêves. On peut considérer SQL Server 7.0 comme
les fondations de ce projet.
Le code de SQL Server 7.0 comportait des évolutions majeures par rapport au code
de base mais les DBA et les développeurs ne pouvaient pas voir ou utiliser de
nombreuses améliorations. Microsoft SQL Server 7.0 comportait de nombreuses améliorations
visibles (telles que les services OLAP), mais la plupart des efforts de reengineering
se situait au niveau de la page ou du stockage. J'ai découvert SQL Server 2000
à la conférence SQL Server Most Valuable Professional (MVP) de Microsoft en octobre
dernier.
Les premiers briefings portaient principalement sur l'architecture interne et
je suis reparti avec un tuyau important : SQL Server 2000 s'appuie sur les fondations
de SQL Server 7.0 et rénove une partie de la plomberie et du réseau électrique.
En fait, à bien des égards, SQL Server 2000 c'est la maison terminée, la grande
extension et les salles de projection privées dont vous avez toujours révées.
PPTP est-il sûr ?
Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts
dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir
des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes
de PPTP ?
Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés
en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de
PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par
des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN
pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point
Tunneling Protocol " (http://www.counterpane.com/pptppaper.html),
une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus
tard, L0pht Heavy Industries, (http://www.L0pht.com)
a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable
de déduire les mots de passe d'utilisateurs à partir des questions/réponses traversant
la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article "
Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft
était en train de développer les mises à jour de la spécification PPTP et les
versions du code consécutives. En août 1998, Microsoft a sorti trois corrections
pour PPTP et d'autres mises à jour de DUN.
Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant
la sécurité du système
L'an dernier, on a eu beaucoup de mal à suivre l'évolution des choses tant
la confusion était grande entre les déclarations des hackers et les réponses de
Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre
à cette question, je vais détailler les faiblesses de PPTP et expliquer comment
Microsoft a réussi à les corriger avec les améliorations successives de la mise
à jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.
Le top 10 des commandes batch
Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.
Lire l'article
Bâtir des routages IP redondants
Le succès du commerce électronique repose largement sur le routage IP, qui achemine
les informations de l'e-business d'une entreprise à l'autre. Sans mécanisme de
routage IP redondant et à tolérance de panne, l'e-business d'une entreprise ne
peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation,
interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise
n'a pas d'autre méthode pour accéder à l'Internet
Pour atteindre et conserver un avantage concurrentiel en commerce électronique,
il vous faut intégrer un routage IP redondant dans votre infrastructure Internet.
Il existe divers moyens pour cela et l'un des plus courants est d'installer des
routeurs et des connexions Internet redondants. La présence de plusieurs routeurs
sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs
Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à divers ISP (c'est-à -dire le multihoming) permettent
de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une
liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering
Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP
redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol),
qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles
par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router
Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent
à créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet.
Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits
d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure
de commerce électronique, il est indispensable de bien comprendre les bases du
fonctionnement de ces protocoles dans les configurations de routage IP redondantes.
Votre boutique d’e-commerce sécurisée avec SBS et Site Server
Microsoft Small Business Server (SBS) est un produit de choix non seulement pour les besoins de gestion des petites entreprises, mais aussi pour leurs sites Web de commerce électronique. Douze étapes pour construire votre boutique en ligne avec SBS et Microsoft Site Server 3.0 Commerce Edition. Microsoft a développé Site Server en le destinant principalement à des installations sur plate-forme BackOffice complète. Mais pour beaucoup de petites entreprises, utiliser seulement SBS et Site Server - plutôt que d'installer la solution BackOffice complète - est une idée séduisante. SBS et Site Server associés fournissent la majeure partie des fonctionnalités de BackOffice sans en atteindre le coût. Cependant, si SBS et Site Server sont faciles à installer et à configurer, le processus garantissant la sécurité de leur fonctionnement sur l'Internet n'est pas si simple.Cet article liste les étapes à respecter pour installer SBS, Site Server et les composants supplémentaires nécessaires pour sécuriser une solution de commerce électronique. Si vous suivez cette démarche, vous aurez une installation d'e-commerce SBS correctement sécurisée.
Lire l'article
Les performances d’Exchange 2000
Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien
connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre
des performances optimales grâce à la distribution des fichiers et depuis, pas
grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store
(IS) jusqu'à la limite théorique de 16 To, mais le serveur de messagerie conserve
ses caractéristiques essentielles.
Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant
la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory
Store, leurs journaux de transactions, la copie sur disques de Windows NT et le
répertoire de travail MTA (Message Transfer Agent).
Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie
bénéficie des améliorations suivantes :
* L'architecture de l'IS a nettement évolué, passant du simple partitionnement
de bases de données privées et publiques à un point où elle permet, théoriquement,
d'exécuter jusqu'à 90 bases de données sur un seul serveur.
* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles
pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News
Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange
2000 que pour les précédentes versions d'Exchange Server.
* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.
* Active Directory (AD) de Windows 2000 remplace le Directory Store.
* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace
l'ancien MTA basé sur X.400.
Ces améliorations font partie d'une solution customisable que les solutions tierces
étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus,
fax, workflow, gestion de documents et autres fonctions qui ne font pas partie
du serveur de base.
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances. Les concepteurs de systèmes vont devoir à présent se poser une
question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes
de configurations systèmes et matériels.
Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange
2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances
Thorn Europhane : ERP et Terminal Server au centre du nouveau SI
Pour bâtir son nouveau système d'information multisite, le groupe Thorn a opté pour la mise en place de l'ERP Baan. Les problèmes de communications de données entre les filiales ont pu être résolus grâce à l'architecture Terminal Server/Metaframe.La décision de mettre en oeuvre une informatique de gestion commune au niveau du groupe Thorn est née il y a trois ans, et répondait à une double contrainte. D'une part, les difficultés de consolidations de chiffres, et d'autres parts les problèmes de communication entre les différentes filiales, au sein d'environnements informatiques très hétérogènes. " Il devenait primordial de mettre en oeuvre un modèle de gestion plus cohérent au niveau du groupe, de rationaliser les systèmes d'informations des différentes filiales, et faire en sorte qu'ils passent le cap de l'an 2000. " explique Gérard L'hote, directeur administratif et financier chez Thorn Europhane. C'est le progiciel de gestion intégré Baan qui sera retenu, après la phase de Business Re Engineering, pour supporter une rénovation complète du système d'information de l'entreprise : de la gestion comptable, financière, commerciale, à la gestion de production. " Nous avons fait le choix de l'ERP Baan car c'était alors, le seul produit du marché susceptible de nous aider à bâtir un système d'information multisite transfrontières, en nous apportant une réponse métier adaptée à notre problématique de GPAO. " souligne Gérard L'hote. Quant à l'intégrateur Origin, il sera chargé de la mise en oeuvre complète de l'ERP. " Origin est aujourd'hui le premier intégrateur Baan sur le marché, mais c'est aussi la seule société de services capable d'apporter une réponse internationale à notre problématique d'implémentation. " précise Gérard L'hote.
A partir du mois de juin 1998, un modèle commun d'implémentation a été choisi pour l'ensemble des pays concernés (Angleterre, Suède, France et Allemagne). A charge de ces filiales, d'adapter ensuite la solution à leurs besoins propres de gestion, via des personnalisations et des développements spécifiques.
" L'architecture AS400 nous posait de gros problèmes de communications entre sites à cause du protocole SNA "
Basée en Angleterre, l'usine de production de Spennymoor sera la première à finaliser la mise en oeuvre de la gestion de production. Elle sera suivie par son homologue allemande, qui optera pour une démarche Big Bang du fait de sa configuration multisite. La France vient quant à elle de terminer l'implémentation de la solution par la mise en oeuvre du dernier module de gestion commerciale.
Lire l'article
Administrer les variables d’environnement de Windows NT
Dans les groupes de discussion, reviennent fréquemment des questions sur les variables d'environnement. Les administrateurs Windows NT ont souvent du mal à accéder aux informations stockées par ces variables. Pour définir et lire des variables d'environnement sur les machines NT il existe plusieurs techniques. Cet article explique comment un administrateur NT expérimenté peut gérer des variables système et utilisateur avec les utilitaires du Kit de ressources de Windows NT Server 4.0, des fichiers batch et des applications VBScript (Visual Basic).
Lire l'articleLes plus consultés sur iTPro.fr
- Splunk : vers un SOC agentique et de confiance
- Le trilemme de la souveraineté : le coût caché du cloud qui freine l’IA en Europe
- Moderniser le développement logiciel : de la fragmentation à l’intégration
- Semperis : gouverner l’identité à l’ère des agents IA
À la une de la chaîne Tech
- Femmes et métiers de la tech : une attractivité réelle freinée par des stéréotypes persistants
- Moderniser le développement logiciel : de la fragmentation à l’intégration
- Analyse Patch Tuesday Mars 2026
- Une nouvelle ère de la modernisation du mainframe
- Communes, entreprises ? Non, face au RGAA 5, l’IA seule ne rendra pas vos sites accessibles
