> Tech
Linux est-il réellement plus fiable ?

Linux est-il réellement plus fiable ?

Par François Tonic
Linux est incontestablement le système d'exploitation évolué ces dernières années. Au-delà  des avis partisans, de l'effet de mode et du tout Linux, une entreprise peut-elle passer sous Linux sans risque ? La fiabilité de Linux est-elle usurpée ou réelle ?Définir la fiabilité d'un système n'est pas aisée. Certains repères peuvent nous aider. Dans le cas de Linux, plusieurs points sont à  considérer : les distributions, la sécurité, la montée en charge, le modèle de développement. Si aujourd'hui, Linux constitue un système solide et reconnu, certains détails lui manquent encore pour s'affirmer totalement.

Lire l'article
Datacenter, premier contact

Datacenter, premier contact

Dans le laboratoire de test d’Unisys : « avec les systèmes Datacenter, c'est l'OEM qui configure les outils, personnalise les "snap-ins" et écrit les utilitaires personnalisés supplémentaires ... »Lorsque j’ai interviewé plusieurs administrateurs de Windows 2000 Datacenter Server pour « Datacenter in Action », tous ont donné l’impression que l’utilisation de leurs systèmes était simple. Trop simple, à mon avis – jusqu’à ce que j’ai essayé un système Datacenter. Lequel présente un gros avantage : il arrive avec l’OS installé et adapté à vos besoins. C’est l’OEM qui configure les outils, personnalise les « snap-ins » et écrit les utilitaires personnalisés supplémentaires – le rêve de tout administrateur ! Et aussi complexe et puissant que soit le Datacenter, les tâches administratives classiques s’exécutent simplement.

Chaque sub-pod possède un pont d’I/O direct (DIB, direct I/O bridge) qui a trois bus PCI contenant quatre slots PCI chacun. Un simple calcul donne 96 slots PCI. Quatre modules mémoire, qu’Unisys appelle MSU (Memory Storage Units), contiennent chacun 16 Go de mémoire. Ces MSU ressemblent à des SIMM sous stéroïde. Les modules cache niveau 3 alimentent le système en données, environ six fois plus vite que la mémoire système. Les ingénieurs Unisys m’ont confié que, pour les opérations quotidiennes, les données nécessaires à la plupart des applications attendent dans le cache 95 % du temps.

Un dispositif baptisé cross-bar utilise des connexions point à point entre la mémoire, les processeurs, et les composants d’I/O. Le cross-bar est au cœur de l’architecture CMP d’Unisys, dopant les performances de l’ES7000 puisque les données n’ont pas besoin de traverser le bus pour circuler entre ces composants.

Un ventilateur standard est incapable de refroidir une telle boîte. Les trois propulseurs de l’ES7000 ressemblent aux ventilateurs des moteurs d’un petit jet. « Presque tout ce qui est dans la boîte est permutable à chaud » a déclaré un technicien du labo en retirant un propulseur de son logement. Aussitôt, les autres unités ont augmenté leur vitesse pour compenser, élevant du même coup le niveau sonore. Quand le technicien a remis l’unité en place, les autres propulseurs ont ralenti. Bien que la permutation à chaud ne soit pas vraiment une nouveauté, l’administrateur Windows que je suis n’en est pas souvent le témoin. C’est pourquoi cette démonstration des possibilités de permutation à chaud de l’ES7000 m’a impressionnée.

Lire l'article
Utiliser Ntbackup avec Windows 2000 et NT

Utiliser Ntbackup avec Windows 2000 et NT

Ntbackup.exe, le programme de sauvegarde intégré à  Windows NT, est fait pour des sauvegardes rapides et rudimentaires de fichiers. Mais il n'est pas suffisant pour un environnement d'entreprise. Il ne permet pas, en effet, d'exécuter des sauvegardes automatiques pendant les heures de fermeture des bureaux, puisqu'il est dépourvu de la capacité de programmation intégrée. Il ne permet pas non plus de sauvegarder des ressources distantes et de maintenir des catalogues de supports de sauvegarde, fonctions indispensables aux entreprises. Les utilisateurs qui passent de Windows NT à  Windows 2000 constateront que Microsoft a amélioré la nouvelle version de Ntbackup pour remédier aux trois lacunes citées plus haut. Mais tout le monde n'est pas pressé de passer à  Windows 2000. Pour ceux qui comptent rester encore quelque temps sous NT, cer article explique comment éviter ces faiblesses pour planifier des sauvegardes, sauvegarder des ressources sur des machines distantes et maintenir des catalogues de leurs supports. Pour ceux qui passent à  Windows 2000, nous décrirons les améliorations apportées par la nouvelle version de Ntbackup dans ces domaines par rapport à  celle de NT.

Lire l'article
Des projets au forfait pour RMH

Des projets au forfait pour RMH

Dès 1993, RMH a délocalisé … mais "au vert" et en France ! Dès 1993, RMH a délocalisé … mais

Lire l'article
Shell France carbure avec sa nouvelle gestion de parc micro

Shell France carbure avec sa nouvelle gestion de parc micro

Entreprise pétrochimique de renommée mondiale, Shell France a implémenté la solution HP DTA pour assurer l'administration de son parc informatique. Aujourd'hui, toute sa gestion d'inventaire est automatisée sous NT et elle dispose d'une base d'information micro mise à  jour quotidiennement. Dans le cadre de la rationalisation de son parc informatique, la société Shell France a décidé d'implémenter la solution HP DTA (Openview Desktop Administrator). Le projet baptisé Global Office concerne 3500 postes utilisateurs Windows NT et 95 répartis à  la fois au siège de la société en région parisienne et sur quelques raffineries. « En 1998, nous étions à  la recherche d'un outil d'inventaire de parc micro automatisé » explique Pascal Legrand, responsable de la bureautique chez Shell France. « Après une étude de marché, la SSII OSIEX a été retenue comme consultant partenaire pour nous accompagner dans notre projet de rénovation de gestion informatique. Elle était notamment chargée de réaliser une étude d'architecture du projet DTA et de bâtir le cahier des charges correspondant. »

Le choix de la solution de gestion HP DTA était avant tout une préconisation du groupe. « Nous n'avons pas fait d'étude comparative poussée sur l'ensemble des solutions du marché. A l'époque, en dehors de DTA, il n'existait de toute manière aucune autre solution de gestion répondant à  nos besoins» précise Pascal Legrand.

L'outil d'inventaire de parc automatisé n'est pas le seul critère ayant motivé le choix de HP DTA 

Dans le passé, l'entreprise Shell utilisait la solution Quetzal de Datawatch pour la gestion d'inventaire et le support de premier niveau. Toute la gestion du parc se faisait alors manuellement. «Notre équipe sortait des configurations du stock, les installait et renseignait la base manuellement. Nous avons abandonné Quetzal, principalement à  cause de ce problème de gestion manuelle, mais aussi parce que le groupe nous a mis à  disposition avec Service Center, une solution plus globale de help desk et de gestion d'inventaire» souligne Pascal Legrand. L'outil d'inventaire de parc automatisé n'est pas le seul critère ayant motivé le choix de HP DTA. L'entreprise a également été séduite par les fonctions de télédistribution de logiciels bureautique et de gestion des licences.

Lire l'article
L’audit des événements de connexion <BR>

L’audit des événements de connexion

par Randy Franklin Smith
Une nouvelle catégorie de Windows 2000 donne accès à  des informations qui n'existaient pas dans Windows NTDans l'article " Gérer les fermetures et ouvertures des sessions dans Windows 2000 ", SYSTEMS Journal, mai 2001, j'explique comment utiliser la catégorie d'audit " Audit Logon Events " de Windows 2000 pour assurer le suivi des connexions locales sur un serveur ou une station de travail. Ce type d'information concerne tous les événements de connexion sur le système local où ont lieu les ouvertures de session. Dans le cas d'une grosse structure, il est donc difficile de gérer un audit de ce type sur chaque machine.

L'audit des connexions enregistre tous les événements d'authentification de façon centralisée sur les contrôleurs de domaines (J'aurais préféré que Microsoft donne à  ce type d'audit un nom plus précis, tel que Auditer les événements d'authentification). Lorsqu'une personne utilise un compte de domaine pour se connecter à  une station de travail, cette dernière entre en relation avec le contrôleur de domaine pour vérifier l'authenticité de l'utilisateur et pour connaître l'état de son compte et ses restrictions. Lorsque l'utilisateur se connecte ensuite à  un serveur par le réseau, le contrôleur de domaine fournit à  nouveau des services d'authentification. Pour visualiser ces événements, ouvrez le composant " Stratégie de sécurité du contrôleur de domaine " de la MMC (Microsoft Management Console) à  partir du contrôleur de domaine. Ce composant est un raccourci vers les paramètres de sécurité du GPO (Group Policy Object) du contrôleur de domaine par défaut, qui est lié à  l'UO (Unité d'Organisation) des contrôleurs de domaines d'Active Directory. Dans la fenêtre d'édition du composant MMC, allez sur Stratégies locales, Stratégie d'audit. Cliquez-droit sur Auditer les événements de connexion aux comptes (Audit account logon event) dans la sous-fenêtre de droite et sélectionnez Sécurité pour ouvrir la boîte de dialogue " Paramètre de stratégie de sécurité ". Pour activer la catégorie, cochez les cases Succès et Echec et sauvegardez les paramètres.

Windows 2000 rend compte de différents événements de connexion, selon le protocole d'authentification utilisé par les systèmes impliqués pour une demande de connexion donnée. Comme je l'ai expliqué dans " Gérer les fermetures et ouvertures des sessions dans Windows 2000 ", Windows 2000 supporte à  la fois Kerberos et NTLM (NT LAN Manager). Lorsqu'un utilisateur ouvre une session sur une station de travail Windows 2000 pour se connecter à  un serveur Windows 2000, les systèmes impliqués utilisent Kerberos et le contrôleur de domaine consigne les événements Kerberos. Mais lorsqu'un utilisateur ouvre une session sur une station de travail Windows NT ou se connecte à  ou à  partir d'un système NT, les systèmes utilisent NTLM et le contrôleur de domaine consigne un ensemble d'événements différent.

Lire l'article
Installation d’une nouvelle release, deuxième partie : le grand jour

Installation d’une nouvelle release, deuxième partie : le grand jour

par Gary Guthrie
Dans l'article " Installation d'une nouvelle release, première partie : planifier la réussite" Systems Journal, Mars 2001, je présentais une check-list en 12 étapes pour vous aider à  installer avec succès une nouvelle version de l'OS/400 ainsi que des nouveaux logiciels sous licence. Cet article couvrait les huit premières étapes décrites figure 1 : toutes les tâches à  exécuter la veille de l'installation. Il vaut mieux exécuter les opérations restantes (9 à  12) le jour même de l'installation. Ces étapes, ainsi que la procédure d'installation elle-même, sont décrites dans cet article.

Lire l'article
Quand faut-il utiliser SQL plutôt que RPG ou CL ?

Quand faut-il utiliser SQL plutôt que RPG ou CL ?

par Jef Sutherland
Pendant très longtemps, RPG et CL ont été les seuls (ou les meilleurs) outils dont disposait un programmeur AS/400 pour traiter toutes les tâches de développement. Nous disposons aujourd'hui, de nombreux outils et langages, parmi lesquels il est possible de choisir, et notamment, Visual Age for RPG, Net.Data et SQL. Dans le présent article, j'explique comment utiliser SQL pour résoudre quelques-uns des problèmes courants résolus auparavant à  l'aide d'un programme RPG ou CL. Je pense qu'il est facile de comprendre comment l'ajout de SQL à  la boîte à  outils de développement peut faire gagner du temps.

On peut résoudre le problème avec une simple instruction SQL

Lire l'article
Microsoft Application Center 2000

Microsoft Application Center 2000

par Tao Zhou
Pour lancer un site Web majeur, la question de sa disponibilité et de ses performances est une considération essentielle à  prendre en compte. La mise à  l'échelle (ou scaling) matérielle ou logicielle sont des stratégies possibles pour traiter les problèmes de disponibilité et de performances. La première consiste à  installer un système multiprocesseur robuste et évolutif, par exemple un serveur à  8 voies avec des composants matériels redondants, comme serveur Web. La seconde permet de mettre en miroir le contenu Web sur plusieurs serveurs Web formant un cluster. Les serveurs en cluster peuvent avoir des configurations matérielles différentes : combinaison de systèmes anciens et nouveaux, de systèmes lents et rapides. Au fur et à  mesure que le trafic augmente sur le site, il est possible d'ajouter des machines au cluster. Pour mettre en oeuvre le scaling logiciel, vous pouvez utiliser un équilibreur de charge de serveur Web (également baptisé équilibreur de charge IP), logiciel qui dirige un client vers le serveur Web le moins occupé ou le plus approprié parmi plusieurs serveurs prenant en charge un contenu en miroir. Par exemple, pour équilibrer et basculer le trafic du client vers un serveur Web en cas d'incident, vous pouvez utiliser des produits comme le service NLB (Network Load Balancing) pour Windows 2000 ou WLBS (Windows NT Load Balancing Service) de Microsoft, le commutateur Web de Cisco Systems, ou celui de Nortel.

Bien que la mise à  l'échelle logicielle soit plus facile à  adopter et donne plus de flexibilité aux applications Web, que celle matérielle, il n'est pas facile de gérer le contenu et les applications Web entre plusieurs serveurs. Tous les changements apportés au contenu et aux composants applicatifs doivent être déployés sur tous les serveurs. Si le contenu des serveurs n'est pas en miroir, les utilisateurs obtiendront des résultats différents des serveurs d'un même site Web. En cas de panne des serveurs d'un cluster, un équilibreur de charge de serveur Web peut rediriger les requêtes des clients vers des serveurs en bonne santé. Mais il faut tout de même un outil pour surveiller la santé et les performances des serveurs

Pour faciliter la gestion des sites Web et des applications, Microsoft a développé Application Center (AppCenter) 2000, qui peut synchroniser le contenu du Web et déployer des applications COM+ entre plusieurs serveurs d'un cluster. AppCenter peut surveiller et communiquer l'état de santé et les performances des serveurs et du cluster. Outre l'utilisation de NLB pour équilibrer la charge des serveurs Web, AppCenter supporte le service CLB (Component Load Balancing), que Microsoft a retiré de Windows 2000 après la RC1 (Release Candidate 1) de la beta 3. Le service CLB peut équilibrer la charge du niveau médian (c'est-à -dire le niveau logique d'entreprise) des applications Windows à  plusieurs niveaux. Nous allons voir comment installer et tirer parti de la capacité d'AppCenter à  mettre en cluster, équilibrer la charge, et surveiller l'état de santé et les performances des serveurs Web.

Application Center 2000 peut synchroniser le contenu du Web et déployer des applications COM+ entre plusieurs serveurs d'un cluster

Lire l'article
Utiliser les MODS pour organiser et stocker des données

Utiliser les MODS pour organiser et stocker des données

par Jef Sutherland
Qui utilise les MODS dans les applications RPG III ? (à‡a y est, encore une abréviation !) Les structures de données à  occurrences multiples (en anglais, multiple-occurrence data structures ou MODS) sont des outils efficaces mais assez peu utilisés en RPG. Dans le présent article, nous couvrirons les principes de base de la déclaration des MODS et la manière d'écrire et d'extraire des informations dans des structures de données de ce type. Dans un prochain article, nous analyserons un sujet plus pointu : l'utilisation des MODS pour extraire et afficher des enregistrements. Pour déclarer une MODS, il faut créer une structure de données classique puis préciser le nombre d'occurrences

Lire l'article
Peut-on vivre sans Active Directory ?

Peut-on vivre sans Active Directory ?

par Mark Minasi
Si vous n'avez pas encore entamé votre migration vers Active Directory (AD), vous n'êtes pas seuls. Les entreprises semblent actuellement se poser la question suivante : « Nous voulons bénéficier de toutes les fonctions améliorées de Windows 2000, et nous irons vers AD, mais la mise en oeuvre d'Active Directory semble être une première marche bien haute à  franchir dans le déploiement de Windows 2000. Que se passerait-il si nous procédions au déploiement de Windows 2000 sur les postes de travail et sur les serveurs membres et que nous attendions pour déployer AD plus tard ? Que perdrions-nous à  cela ? »

Lire l'article
Utiliser IPSEC pour protéger les ressources du LAN

Utiliser IPSEC pour protéger les ressources du LAN

par Paula Sharick
Les attaques contre les ordinateurs sévissant sur l'Internet sont très médiatisées, ne serait-ce que parce qu'elles provoquent souvent une interruption de service pour des millions d'utilisateurs. Mais les malveillances à  l'encontre des données d'une entreprise provenant de l'intérieur d'un réseau bénéficient de beaucoup moins de publicité, même si elle provoquent au moins autant de dégâts que celles venant d'Internet. Les entreprises divulguent rarement des statistiques sur les sabotages internes à  l'encontre des réseaux ; reconnaître cette délinquance revient à  déclarer l'incapacité de l'informatique de l'entreprise à  sécuriser correctement les informations sensibles.

Windows 2000 offre deux méthodes pour sécuriser l'accès aux données sensibles : les protocoles de tunneling (qui protègent un paquet TCP/IP en l'encapsulant dans un autre paquet TCP/IP, un peu comme quand on glisse une lettre dans une enveloppe), et IPSec (IP Security). Celles-ci peuvent réduire et éventuellement éliminer une bonne partie des atteintes internes à  la sécurité, y compris le vol et la modification non autorisée des données. PPTP ou L2TP (Layer 2 Tunneling Protocol) sont les deux protocoles de tunneling proposés au choix pour sécuriser les connexions entre clients et de client à  serveur. L2TP présente l'avantage d'interopérer avec IPSec.

IPSec se compose d'une architecture et de deux protocoles : AH (Authentification Header) et ESP (Encapsulating Security Payload) pour sécuriser les connexions LAN et WAN dans un réseau en mode Windows 2000 natif ou en mode mixte. Après avoir déterminé les conditions requises pour une connexion sécurisée spécifique, il convient de définir une stratégie IPSec pour les mettre en oeuvre, puis d'activer cette stratégie sur les ordinateurs aux deux extrémités de la connexion. Windows 2000 comporte des stratégies intégrées qui aident à  imposer des communications à  sécurité élevée, moyenne ou faible, et sont suffisantes dans de nombreux cas de sécurité de réseau ordinaires.

Les stratégies intégrées ne couvrent toutefois pas tous les scénarios de sécurité communs, et il importe donc de comprendre comment définir et tester une stratégie personnalisée. Voyez l'encadré " Créer et tester une stratégie personnalisée " pour un exemple de stratégie IPSec imposant une communication cryptée sécurisée entre des systèmes Windows 2000 qui ne sont pas membres d'un domaine Windows 2000. La lecture de cet article vous apportera les connaissances nécessaires pour implémenter des connexions IPSec pour les membres des domaines Windows 2000, les serveurs autonomes Windows 2000 et les serveurs Windows 2000 dans un domaine Windows NT 4.0.

Les stratégies intégrées ne couvrent pas tous les scénarios de sécurité communs

Lire l'article
Les bizarreries d’Active Directory

Les bizarreries d’Active Directory

par Mark Minasi
Alors qu'Active Directory sort des laboratoires de test pour faire ses premiers pas dans le monde réel, on découvre certains petits soucis des premières générations du service d'annuaire de Windows 2000. Certains sont mineurs, mais d'autres ne le sont pas. Voici un petit aperçu de quatre de ces bizarreries.

Lire l'article
Les métadonnées

Les métadonnées

par Scott Steinacher
Ces " données concernant les données " sont indispensables à  la structuration de tout data-warehouse.Pouvez-vous imaginer à  quel point il serait difficile, sans catalogue, de trouver un livre dans une bibliothèque? Bien que les bibliothèques rangent les livres de manière logique (par sujet, par exemple), il serait presque impossible de trouver un ouvrage spécifique sans consulter d'abord un catalogue. Et bien, de la même manière que les catalogues permettent aux lecteurs de trouver rapidement des livres dans les bibliothèques, les métadonnées permettent aux utilisateurs de retrouver facilement des données dans des entrepôts de données. Les entrepôts de données d'applications complexes sont constitués de nombreux composants. Sans métadonnées, les utilisateurs finaux ne peuvent pas trouver efficacement les informations dans ces systèmes, pas plus que le personnel informatique ne peut les maintenir correctement. 

Les métadonnées permettent aux utilisateurs de retrouver facilement des données dans des entrepôts de données 

            Le terme de métadonnées est couramment défini comme “ des données concernant les données ”. Bien que les métadonnées décrivent essentiellement le schéma de la base de données et les données individuelles, elles ont aussi une autre utilisation importante. Outre les données, les métadonnées décrivent également les règles de gestion, les processus opérationnels, les procédures de transformation de données et, plus généralement, toute fonction servant à  créer et à  maintenir des données. Ces deux genres de métadonnées --que j'appelle métadonnées techniques et métadonnées de gestion—sont des composants critiques des entrepôts de données.

            Bien que les métadonnées soient généralement associées aux systèmes informatiques, leur utilisation ne se limite pas au domaine des technologies de l'information. Comme je viens de le dire, les métadonnées sont au coeur de toute bibliothèque. En fait, la plupart d'entre nous accèdent à  des métadonnées et en manipulent chaque jour, sans en être conscients. Outre les catalogues, il faut savoir que les annuaires téléphoniques, les index des magazines, les tables des matières et les listes de rues accompagnant les plans de villes, constituent aussi des référentiels de métadonnées. Au sens élémentaire, ces structures contiennent des informations sur des données. Considérons à  nouveau le catalogue d'ouvrages, sous forme physique ou électronique. Ce système de classement spécialisé contient des informations sur les livres, périodiques, magazines et journaux. Dans les catalogues, on trouve les données suivantes : titres, descriptions, dates de publication, auteurs, numéros d'ISBN et emplacement sur les rayonnages. Sans un tel catalogue, les lecteurs ne sauraient pas quelles données (quels livres par exemple) existent dans une bibliothèque, pas plus qu'ils ne sauraient où se trouvent les données. Les catalogues sont des référentiels de métadonnées particulièrement efficaces, parce qu'ils respectent une norme d'indexation largement reconnue, comme le système de classification “ Dewey Decimal ” ou “ Library of Congress ”, grâce auxquels les lecteurs peuvent trouver des données dans l'ensemble des bibliothèques des Etats-Unis.

            Vous vous doutez bien que les structures de métadonnées abondent dans le domaine des technologies de l'information. Dictionnaires de données, diagrammes de flux de données, spécifications de descriptions de données (DDS, Data-Description Specifications), listes de bibliothèques, descriptions d'objets, aide en ligne, job logs, commentaires de programmes, manuels de référence, définitions de requêtes, noms de zones, noms de fichiers et fichiers de référen

Lire l'article
Comment diviser la charge de ses projets par trois

Comment diviser la charge de ses projets par trois

par François Rihen
Paul Dequidt Torréfacteur solde sa mise en conformité AN 2000 avec les briques logicielles de F.I-T, tout en réduisant les charges initialement prévues et en identifiant des solutions d'avenir. Vendre à  distance ? La Société Paul Dequidt Torréfacteur n'a pas attendu Internet pour promouvoir ses produits. Depuis le début des années 80, Paul Dequidt parcourt sans cesse le monde à  la recherche d'arabicas précieux et de mokas rares, issus des meilleures plantations de caféiers. Oui, c'est bien de café dont on parle. Et désormais, l'entreprise fait chaque jour le bonheur de milliers de clients ; les paquets rouge et or de Paul Dequidt Torréfacteur sont distribués à  travers tout l'hexagone.

La vente par correspondance a depuis bien longtemps dompté l'énergie informatique pour utiliser au mieux les informations dont on dispose, et ce sont des milliers de courriers qui partent régulièrement de Wormhout (59), siège de l'entreprise. Comme beaucoup d'entreprises, Paul Dequidt Torréfacteur a été atteint par le virus de ces derniers mois : l'AN 2000, bien sûr.

Lire l'article
iSeries : déjà  de retour

iSeries : déjà  de retour

par Benoît Herr
Le point et quelques précisions sur les annonces IBM du 3 octobre, dont le dernier numéro de NEWSMAGAZINE se faisait déjà  l'écho Quelle meilleure transition entre NEWSMAGAZINE et SYSTEMS Journal que cette annonce Serveurs IBM du 3 octobre dernier ! Et pourtant, il n'y a eu aucune concertation entre Big Blue et l'organe de Presse indépendant que nous sommes.

Lire l'article
Faire coexister Windows 2000 et Windows NT 4.0

Faire coexister Windows 2000 et Windows NT 4.0

par Paula Sharick
Il y a quelques mois, je me suis posé la question de savoir si Windows 2000 et NT 4.0 pouvaient coexister. Après avoir testé un environnement mixte Windows 2000 et Windows NT 4.0, j'ai fait part de mes expériences et j'ai eu l'agréable surprise de constater que les deux technologies fonctionnent bien ensemble. Vous envisagez peut-être de migrer, mais vous avez besoin de quelques conseils ? Jetons donc un coup d'oeil sur les raisons de migrer, les principales différences entre les plates-formes et quelques astuces pour une migration en toute confiance.

Lire l'article
Traduction des logiciels :  vers une meilleure compréhension

Traduction des logiciels : vers une meilleure compréhension

par John Ghrist
Quel est l'un des plus grands obstacles aux ventes de logiciels américains sur les marchés internationaux ? La langue, bien sûr. Bien que reconnu comme une langue internationale, l'anglais n'est en fait pas aussi universel que cela. Sur les marchés extérieurs aux pays anglo-saxons, les logiciels ne proposant que des interfaces en anglais ont un net handicap, même s'ils s'agit d'applications plus performantes, tout simplement parce que la plupart des utilisateurs demandent une interface leur permettant de travailler dans leur propre langue.
Pour un éditeur anglo-saxon, la solution logique est donc de fournir une version des produits les plus stratégiques dans les différentes langues. Mais trouver les personnes compétentes pour traduire des supports techniques comme des interfaces utilisateurs, des fichiers d'aide et de la documentation relève de la mission impossible. Faut-il s'allouer les services de traducteurs en interne ? Faut-il avoir recours à  des services de traduction ? Ou encore utiliser un logiciel de traduction ? Et une fois le choix effectué, comment mesurer l'impact et la qualité du travail, des outils et des services de la solution retenue ?
Mapics, Inc. (et les sociétés l'ayant historiquement précédée) est venue à  bout de ce problème, en diffusant avec succès à  l'étranger une solution de gestion industrielle réputée sur AS/400.

Le produit a d'abord été traduit dans quelques-unes des langues européennes vers le milieu des années 80

Lire l'article
Issu de Monterey, AIX 5 L rallie Caldera et les OEM Intel

Issu de Monterey, AIX 5 L rallie Caldera et les OEM Intel

par Mireille Boris
Le projet Monterey qui a réuni IBM, SCO et Intel pour le développement d'un Unix 64 bits standard donne naissance à  un AIX 5 L. Volens nolens, tous les OEM Intel, de Compaq à  Unisys, vont supporter de l'AIX…IBM l'avait-il imaginé il y a un an? Monterey a été le nom de code de l'action concertée entre IBM, SCO et Intel. Au coeur du programme de développement, un Unix 64 bits dont AIX d'IBM, flanqué d'Unixware de SCO et de Dynix ptx de Sequent, était l'élément le plus important. Objectif : approcher en OEM les machines Intel.

Or, il s'est avéré que le nom le plus porteur était… AIX

Cet Unix collectif étant prêt à  sortir en juillet dernier, il s'est agi de le baptiser. Des agences de communication ont été consultées. Or, il s'est avéré que le nom le plus porteur était… AIX. "Avec le succès du S80, AIX avait une image très forte sur le marché", note Jean-Marc Ferré d'IBM. AIX 5, à  cause de sa composante Power PC dont l'AIX en était à  la V4 et AIX 5 L pour bien indiquer que l'affinité Linux est incluse dans cette nouvelle version. AIX 5L for Power, AIX 5L for IA 64 en attente de machines Itanium prévues pour le 10 octobre étaient disponibles en août. Mais les 2000 machines 64 bits Intel en circulation étant toujours considérées comme expérimentales et leur sortie en volume étant une fois de plus retardées jusqu'en avril 2001, la décision fut prise de ne pas se presser. Aix 5.0L for Power, 5.0L IA-64 restent des versions d'évaluation pour éditeurs. Les versions de production d'Aix 5.1L for Power et for IA-64 sortiront en avril en même temps que les serveurs Intel.

"Notre objectif premier est toujours un Unix standard, partagé par un marché plus large, avec un Unix qui a déjà  fait ses preuves sur Power", affirme Jean-Marc Ferré. Rien de changé dans l'accord avec Intel, qui apporte de l'argent pour financer les approches des éditeurs, ni dans l'adhésion d'un certain nombre de constructeurs. Compaq a communiqué sur ce sujet. Les Proliant supporteront AIX. Il n'y a pas d'autre alternative, Compaq ayant cessé de développer Tru64 sur plate-forme Intel. SCO apporte à  AIX 5 L un support constant. La stratégie de Caldera est de supporter des plates-formes Linux 32 bits, mais la composante SCO est plus robuste. Il va falloir un certain temps pour que Linux 64 bits monte en puissance de la même manière.

Benoît Maillard, de SCO-Caldera, confirme : "La division Serveurs et Professional Services de SCO est devenue Caldera Inc.. Le travail continue. Quand le nommage de l'OS Monterey 64 a été décidé, le choix s'est porté sur AIX 5L, malgré une petite résistance de la part de SCO. Mais prendre un nouveau nom aurait été perturbant dans un marché Unix en phase de consolidation. La bannière AIX est haut de gamme, ouverte, avec une connotation Linux. La filiation AIX est rassurante, et l'ouverture multiplates-formes d'IBM réelle à  tous les OEM du marché. Les OEM ont fait un peu la tête. Mais le business Unix sur Intel est profitable. Le volume des ventes de matériel avec SCO a dépassé les 4 milliards de $. Cela ne peut que continuer vers le haut. Unisys, Dell, Compaq, Bull, Fujitsu ou encore Acer jouent dans la pièce, et avalisent ce support. Plutôt que de fragmenter, ils participent à  la consolidation. "

Une partie importante du travail de Monterey a porté sur les applications. Oracle, BEA, BMC, CA, Cygnus pour les outils de développement, IBM logiciel, JDEdwards, I2, Informix, Software AG, Brio, Candle, Sybase, etc.., ont adopté la plate-forme très tôt. Actuellement, un système accessible à  distance depuis le Web est mis en place pour les développeurs. De leur centre de portage, IBM et Bull reçoivent les développeurs de logiciels avec représentation locale des programmes de recrutement des partenaires. Des centres semblables utilisant des octoprocesseurs Intel ont ouvert à  San Mateo, dans le Massachussets, en Allemagne et en Angleterre. Le catalogue de logiciels sera prêt en même temps que la V 5.1 et les machines Intel.

Les fonctionnalités NUMA et LPart sont inscrites dans AIX 5.0 L

Lire l'article
La revanche des I/O

La revanche des I/O

par Frank G. Soltis
Un système équilibré exige une mémoire et des entrées/sorties rapides Depuis toujours, les entrées/sorties (I/O : Input/Output) ont été les parents pauvres des modèles des systèmes informatiques. La vedette étant presque toujours le processeur. Pourquoi ? A cause de la suprématie du Mégahertz (MHz), la mesure des performances informatiques la plus répandue. Comme il est impossible de mesurer la qualité du système des I/O d'un ordinateur avec des MHz, les concepteurs ont le plus souvent ignoré cet aspect pour se concentrer sur les performances du processeur. Après tout, c'est quand même le MHz qui fait vendre. Qui, devant un nouvel ordinateur cherche à  savoir quelle est la bande passante des I/O plutôt que les prouesses en MHz du processeur ?
Pourtant, un ordinateur sans I/O, c'est comme une voiture sans roues, malgré toute la puissance du moteur, elle n'ira pas loin. Au même titre que la mémoire, le système des I/O détermine le temps de réponse et le débit de la plupart des ordinateurs. Ce sont ces mesures qui intéressent le plus les clients, même si les concepteurs de processeurs ne l'admettent pas.

La puissance des I/O pourrait alors bien devenir le seul critère distinctif

Heureusement, les choses sont en train de changer. Dans un futur proche, tous les ordinateurs, des PC d'entrée de gamme aux superordinateurs les plus rapides, utiliseront les mêmes briques de microprocesseur. La puissance des I/O pourrait alors bien devenir le seul critère distinctif.
Même les concepteurs de processeurs commencent à  prendre les I/O plus au sérieux. C'est ainsi que les concepteurs de la prochaine génération de puces microprocesseur PowerPC (appelées POWER4) mettent davantage en avant les largeurs de bande de leurs nouvelles puces plutôt que leur performance en MHz. La situation s'est inversée, et les I/O ont enfin leur heure de gloire. Et comme le système des I/O de la nouvelle iSeries 400 est très différent de celui de l'AS/400, il convient d'examiner les modifications apportées pour juger de leurs conséquences sur nos modèles de systèmes futurs.

Lire l'article