Linux est-il réellement plus fiable ?
Par François Tonic
Linux est incontestablement le système d'exploitation évolué ces dernières années. Au-delà des avis partisans, de l'effet de mode et du tout Linux, une entreprise peut-elle passer sous Linux sans risque ? La fiabilité de Linux est-elle usurpée ou réelle ?Définir la fiabilité d'un système n'est pas aisée. Certains repères peuvent nous aider. Dans le cas de Linux, plusieurs points sont à considérer : les distributions, la sécurité, la montée en charge, le modèle de développement. Si aujourd'hui, Linux constitue un système solide et reconnu, certains détails lui manquent encore pour s'affirmer totalement.
Datacenter, premier contact
Dans le laboratoire de test d’Unisys : « avec les systèmes Datacenter, c'est l'OEM qui configure les outils, personnalise les "snap-ins" et écrit les utilitaires personnalisés supplémentaires ... »Lorsque j’ai interviewé plusieurs administrateurs de Windows 2000 Datacenter Server pour « Datacenter in Action », tous ont donné l’impression que l’utilisation de leurs systèmes était simple. Trop simple, à mon avis – jusqu’à ce que j’ai essayé un système Datacenter. Lequel présente un gros avantage : il arrive avec l’OS installé et adapté à vos besoins. C’est l’OEM qui configure les outils, personnalise les « snap-ins » et écrit les utilitaires personnalisés supplémentaires – le rêve de tout administrateur ! Et aussi complexe et puissant que soit le Datacenter, les tâches administratives classiques s’exécutent simplement.
Chaque sub-pod possède un pont d’I/O direct (DIB, direct I/O bridge) qui a trois bus PCI contenant quatre slots PCI chacun. Un simple calcul donne 96 slots PCI. Quatre modules mémoire, qu’Unisys appelle MSU (Memory Storage Units), contiennent chacun 16 Go de mémoire. Ces MSU ressemblent à des SIMM sous stéroïde. Les modules cache niveau 3 alimentent le système en données, environ six fois plus vite que la mémoire système. Les ingénieurs Unisys m’ont confié que, pour les opérations quotidiennes, les données nécessaires à la plupart des applications attendent dans le cache 95 % du temps.
Un dispositif baptisé cross-bar utilise des connexions point à point entre la mémoire, les processeurs, et les composants d’I/O. Le cross-bar est au cœur de l’architecture CMP d’Unisys, dopant les performances de l’ES7000 puisque les données n’ont pas besoin de traverser le bus pour circuler entre ces composants.
Un ventilateur standard est incapable de refroidir une telle boîte. Les trois propulseurs de l’ES7000 ressemblent aux ventilateurs des moteurs d’un petit jet. « Presque tout ce qui est dans la boîte est permutable à chaud » a déclaré un technicien du labo en retirant un propulseur de son logement. Aussitôt, les autres unités ont augmenté leur vitesse pour compenser, élevant du même coup le niveau sonore. Quand le technicien a remis l’unité en place, les autres propulseurs ont ralenti. Bien que la permutation à chaud ne soit pas vraiment une nouveauté, l’administrateur Windows que je suis n’en est pas souvent le témoin. C’est pourquoi cette démonstration des possibilités de permutation à chaud de l’ES7000 m’a impressionnée.
Lire l'article
Utiliser Ntbackup avec Windows 2000 et NT
Ntbackup.exe, le programme de sauvegarde intégré à Windows NT, est fait pour des sauvegardes rapides et rudimentaires de fichiers. Mais il n'est pas suffisant pour un environnement d'entreprise. Il ne permet pas, en effet, d'exécuter des sauvegardes automatiques pendant les heures de fermeture des bureaux, puisqu'il est dépourvu de la capacité de programmation intégrée. Il ne permet pas non plus de sauvegarder des ressources distantes et de maintenir des catalogues de supports de sauvegarde, fonctions indispensables aux entreprises. Les utilisateurs qui passent de Windows NT à Windows 2000 constateront que Microsoft a amélioré la nouvelle version de Ntbackup pour remédier aux trois lacunes citées plus haut. Mais tout le monde n'est pas pressé de passer à Windows 2000. Pour ceux qui comptent rester encore quelque temps sous NT, cer article explique comment éviter ces faiblesses pour planifier des sauvegardes, sauvegarder des ressources sur des machines distantes et maintenir des catalogues de leurs supports. Pour ceux qui passent à Windows 2000, nous décrirons les améliorations apportées par la nouvelle version de Ntbackup dans ces domaines par rapport à celle de NT.
Lire l'article
Des projets au forfait pour RMH
Dès 1993, RMH a délocalisé … mais "au vert" et en France ! Dès 1993, RMH a délocalisé … mais
Lire l'article
Shell France carbure avec sa nouvelle gestion de parc micro
Entreprise pétrochimique de renommée mondiale, Shell France a implémenté la solution HP DTA pour assurer l'administration de son parc informatique. Aujourd'hui, toute sa gestion d'inventaire est automatisée sous NT et elle dispose d'une base d'information micro mise à jour quotidiennement. Dans
le cadre de la rationalisation de son parc informatique, la société Shell
France a décidé d'implémenter la solution HP DTA (Openview Desktop
Administrator). Le projet baptisé Global Office concerne 3500 postes
utilisateurs Windows NT et 95 répartis à la fois au siège de la société en
région parisienne et sur quelques raffineries. « En 1998, nous étions à
la recherche d'un outil d'inventaire de parc micro automatisé »
explique Pascal Legrand, responsable de la bureautique chez Shell France.
« Après une étude de marché, la SSII OSIEX a été retenue comme
consultant partenaire pour nous accompagner dans notre projet de rénovation de
gestion informatique. Elle était notamment chargée de réaliser une étude
d'architecture du projet DTA et de bâtir le cahier des charges correspondant. »
Le
choix de la solution de gestion HP DTA était avant tout une préconisation du
groupe. « Nous n'avons pas fait d'étude comparative poussée sur
l'ensemble des solutions du marché. A l'époque, en dehors de DTA, il
n'existait de toute manière aucune autre solution de gestion répondant à
nos besoins» précise Pascal Legrand.
L'outil
d'inventaire de parc automatisé n'est pas le seul critère ayant motivé le
choix de HP DTA
Dans
le passé, l'entreprise Shell utilisait la solution Quetzal de Datawatch pour
la gestion d'inventaire et le support de premier niveau. Toute la gestion du
parc se faisait alors manuellement. «Notre équipe sortait des configurations
du stock, les installait et renseignait la base manuellement. Nous avons
abandonné Quetzal, principalement à cause de ce problème de gestion manuelle,
mais aussi parce que le groupe nous a mis à disposition avec Service Center,
une solution plus globale de help desk et de gestion d'inventaire» souligne
Pascal Legrand. L'outil d'inventaire de parc automatisé n'est pas le seul
critère ayant motivé le choix de HP DTA. L'entreprise a également été séduite
par les fonctions de télédistribution de logiciels bureautique et de gestion
des licences.
L’audit des événements de connexion
par Randy Franklin Smith
Une nouvelle catégorie de Windows 2000 donne accès à des informations qui n'existaient
pas dans Windows NTDans l'article " Gérer les fermetures et ouvertures des sessions dans Windows
2000 ", SYSTEMS Journal, mai 2001, j'explique comment utiliser la catégorie d'audit
" Audit Logon Events " de Windows 2000 pour assurer le suivi des connexions locales
sur un serveur ou une station de travail. Ce type d'information concerne tous
les événements de connexion sur le système local où ont lieu les ouvertures de
session. Dans le cas d'une grosse structure, il est donc difficile de gérer un
audit de ce type sur chaque machine.
L'audit des connexions enregistre tous les événements d'authentification de façon
centralisée sur les contrôleurs de domaines (J'aurais préféré que Microsoft donne
à ce type d'audit un nom plus précis, tel que Auditer les événements d'authentification).
Lorsqu'une personne utilise un compte de domaine pour se connecter à une station
de travail, cette dernière entre en relation avec le contrôleur de domaine pour
vérifier l'authenticité de l'utilisateur et pour connaître l'état de son compte
et ses restrictions. Lorsque l'utilisateur se connecte ensuite à un serveur par
le réseau, le contrôleur de domaine fournit à nouveau des services d'authentification.
Pour visualiser ces événements, ouvrez le composant " Stratégie de sécurité du
contrôleur de domaine " de la MMC (Microsoft Management Console) à partir du contrôleur
de domaine. Ce composant est un raccourci vers les paramètres de sécurité du GPO
(Group Policy Object) du contrôleur de domaine par défaut, qui est lié à l'UO
(Unité d'Organisation) des contrôleurs de domaines d'Active Directory. Dans la
fenêtre d'édition du composant MMC, allez sur Stratégies locales, Stratégie d'audit.
Cliquez-droit sur Auditer les événements de connexion aux comptes (Audit account
logon event) dans la sous-fenêtre de droite et sélectionnez Sécurité pour ouvrir
la boîte de dialogue " Paramètre de stratégie de sécurité ". Pour activer la catégorie,
cochez les cases Succès et Echec et sauvegardez les paramètres.
Windows 2000 rend compte de différents événements de connexion, selon le protocole
d'authentification utilisé par les systèmes impliqués pour une demande de connexion
donnée. Comme je l'ai expliqué dans " Gérer les fermetures et ouvertures des sessions
dans Windows 2000 ", Windows 2000 supporte à la fois Kerberos et NTLM (NT LAN
Manager). Lorsqu'un utilisateur ouvre une session sur une station de travail Windows
2000 pour se connecter à un serveur Windows 2000, les systèmes impliqués utilisent
Kerberos et le contrôleur de domaine consigne les événements Kerberos. Mais lorsqu'un
utilisateur ouvre une session sur une station de travail Windows NT ou se connecte
à ou à partir d'un système NT, les systèmes utilisent NTLM et le contrôleur de
domaine consigne un ensemble d'événements différent.
Installation d’une nouvelle release, deuxième partie : le grand jour
par Gary Guthrie
Dans l'article " Installation d'une nouvelle release, première partie : planifier
la réussite" Systems Journal, Mars 2001, je présentais une check-list en 12 étapes
pour vous aider à installer avec succès une nouvelle version de l'OS/400 ainsi
que des nouveaux logiciels sous licence. Cet article couvrait les huit premières
étapes décrites figure 1 : toutes les tâches à exécuter la veille de l'installation.
Il vaut mieux exécuter les opérations restantes (9 à 12) le jour même de l'installation.
Ces étapes, ainsi que la procédure d'installation elle-même, sont décrites dans
cet article.
Quand faut-il utiliser SQL plutôt que RPG ou CL ?
par Jef Sutherland
Pendant très longtemps, RPG et CL ont été les seuls (ou les meilleurs) outils
dont disposait un programmeur AS/400 pour traiter toutes les tâches de développement.
Nous disposons aujourd'hui, de nombreux outils et langages, parmi lesquels il
est possible de choisir, et notamment, Visual Age for RPG, Net.Data et SQL.
Dans le présent article, j'explique comment utiliser SQL pour résoudre quelques-uns
des problèmes courants résolus auparavant à l'aide d'un programme RPG ou CL. Je
pense qu'il est facile de comprendre comment l'ajout de SQL à la boîte à outils
de développement peut faire gagner du temps.
On peut résoudre le problème avec une simple instruction SQL
Microsoft Application Center 2000
par Tao Zhou
Pour lancer un site Web majeur, la question de sa disponibilité et de ses performances
est une considération essentielle à prendre en compte. La mise à l'échelle (ou
scaling) matérielle ou logicielle sont des stratégies possibles pour traiter les
problèmes de disponibilité et de performances. La première consiste à installer
un système multiprocesseur robuste et évolutif, par exemple un serveur à 8 voies
avec des composants matériels redondants, comme serveur Web. La seconde permet
de mettre en miroir le contenu Web sur plusieurs serveurs Web formant un cluster.
Les serveurs en cluster peuvent avoir des configurations matérielles différentes
: combinaison de systèmes anciens et nouveaux, de systèmes lents et rapides.
Au fur et à mesure que le trafic augmente sur le site, il est possible d'ajouter
des machines au cluster. Pour mettre en oeuvre le scaling logiciel, vous pouvez
utiliser un équilibreur de charge de serveur Web (également baptisé équilibreur
de charge IP), logiciel qui dirige un client vers le serveur Web le moins occupé
ou le plus approprié parmi plusieurs serveurs prenant en charge un contenu en
miroir. Par exemple, pour équilibrer et basculer le trafic du client vers un serveur
Web en cas d'incident, vous pouvez utiliser des produits comme le service NLB
(Network Load Balancing) pour Windows 2000 ou WLBS (Windows NT Load Balancing
Service) de Microsoft, le commutateur Web de Cisco Systems, ou celui de Nortel.
Bien que la mise à l'échelle logicielle soit plus facile à adopter et donne plus
de flexibilité aux applications Web, que celle matérielle, il n'est pas facile
de gérer le contenu et les applications Web entre plusieurs serveurs. Tous les
changements apportés au contenu et aux composants applicatifs doivent être déployés
sur tous les serveurs. Si le contenu des serveurs n'est pas en miroir, les utilisateurs
obtiendront des résultats différents des serveurs d'un même site Web. En cas de
panne des serveurs d'un cluster, un équilibreur de charge de serveur Web peut
rediriger les requêtes des clients vers des serveurs en bonne santé. Mais il faut
tout de même un outil pour surveiller la santé et les performances des serveurs
Pour faciliter la gestion des sites Web et des applications, Microsoft a développé
Application Center (AppCenter) 2000, qui peut synchroniser le contenu du Web et
déployer des applications COM+ entre plusieurs serveurs d'un cluster. AppCenter
peut surveiller et communiquer l'état de santé et les performances des serveurs
et du cluster. Outre l'utilisation de NLB pour équilibrer la charge des serveurs
Web, AppCenter supporte le service CLB (Component Load Balancing), que Microsoft
a retiré de Windows 2000 après la RC1 (Release Candidate 1) de la beta 3. Le service
CLB peut équilibrer la charge du niveau médian (c'est-à -dire le niveau logique
d'entreprise) des applications Windows à plusieurs niveaux. Nous allons voir comment
installer et tirer parti de la capacité d'AppCenter à mettre en cluster, équilibrer
la charge, et surveiller l'état de santé et les performances des serveurs Web.
Application Center 2000 peut synchroniser le contenu du Web et déployer
des applications COM+ entre plusieurs serveurs d'un cluster
Utiliser les MODS pour organiser et stocker des données
par Jef Sutherland
Qui utilise les MODS dans les applications RPG III ? (à‡a y est, encore une abréviation
!) Les structures de données à occurrences multiples (en anglais, multiple-occurrence
data structures ou MODS) sont des outils efficaces mais assez peu utilisés en
RPG. Dans le présent article, nous couvrirons les principes de base de la déclaration
des MODS et la manière d'écrire et d'extraire des informations dans des structures
de données de ce type. Dans un prochain article, nous analyserons un sujet plus
pointu : l'utilisation des MODS pour extraire et afficher des enregistrements.
Pour déclarer une MODS, il faut créer une structure de données classique puis préciser le nombre d'occurrences
Peut-on vivre sans Active Directory ?
par Mark Minasi
Si vous n'avez pas encore entamé votre migration vers Active Directory (AD), vous
n'êtes pas seuls. Les entreprises semblent actuellement se poser la question suivante
: « Nous voulons bénéficier de toutes les fonctions améliorées de Windows 2000,
et nous irons vers AD, mais la mise en oeuvre d'Active Directory semble être une
première marche bien haute à franchir dans le déploiement de Windows 2000. Que
se passerait-il si nous procédions au déploiement de Windows 2000 sur les postes
de travail et sur les serveurs membres et que nous attendions pour déployer AD
plus tard ? Que perdrions-nous à cela ? »
Utiliser IPSEC pour protéger les ressources du LAN
par Paula Sharick
Les attaques contre les ordinateurs sévissant sur l'Internet sont très médiatisées,
ne serait-ce que parce qu'elles provoquent souvent une interruption de service
pour des millions d'utilisateurs. Mais les malveillances à l'encontre des données
d'une entreprise provenant de l'intérieur d'un réseau bénéficient de beaucoup
moins de publicité, même si elle provoquent au moins autant de dégâts que celles
venant d'Internet.
Les entreprises divulguent rarement des statistiques sur les sabotages internes
à l'encontre des réseaux ; reconnaître cette délinquance revient à déclarer l'incapacité
de l'informatique de l'entreprise à sécuriser correctement les informations sensibles.
Windows 2000 offre deux méthodes pour sécuriser l'accès aux données sensibles
: les protocoles de tunneling (qui protègent un paquet TCP/IP en l'encapsulant
dans un autre paquet TCP/IP, un peu comme quand on glisse une lettre dans une
enveloppe), et IPSec (IP Security). Celles-ci peuvent réduire et éventuellement
éliminer une bonne partie des atteintes internes à la sécurité, y compris le vol
et la modification non autorisée des données. PPTP ou L2TP (Layer 2 Tunneling
Protocol) sont les deux protocoles de tunneling proposés au choix pour sécuriser
les connexions entre clients et de client à serveur. L2TP présente l'avantage
d'interopérer avec IPSec.
IPSec se compose d'une architecture et de deux protocoles : AH (Authentification
Header) et ESP (Encapsulating Security Payload) pour sécuriser les connexions
LAN et WAN dans un réseau en mode Windows 2000 natif ou en mode mixte. Après avoir
déterminé les conditions requises pour une connexion sécurisée spécifique, il
convient de définir une stratégie IPSec pour les mettre en oeuvre, puis d'activer
cette stratégie sur les ordinateurs aux deux extrémités de la connexion. Windows
2000 comporte des stratégies intégrées qui aident à imposer des communications
à sécurité élevée, moyenne ou faible, et sont suffisantes dans de nombreux cas
de sécurité de réseau ordinaires.
Les stratégies intégrées ne couvrent toutefois pas tous les scénarios de sécurité
communs, et il importe donc de comprendre comment définir et tester une stratégie
personnalisée. Voyez l'encadré " Créer et tester une stratégie personnalisée "
pour un exemple de stratégie IPSec imposant une communication cryptée sécurisée
entre des systèmes Windows 2000 qui ne sont pas membres d'un domaine Windows 2000.
La lecture de cet article vous apportera les connaissances nécessaires pour implémenter
des connexions IPSec pour les membres des domaines Windows 2000, les serveurs
autonomes Windows 2000 et les serveurs Windows 2000 dans un domaine Windows NT
4.0.
Les stratégies intégrées ne couvrent pas tous les scénarios de sécurité
communs
Les bizarreries d’Active Directory
par Mark Minasi
Alors qu'Active Directory sort des laboratoires de test pour faire ses premiers
pas dans le monde réel, on découvre certains petits soucis des premières générations
du service d'annuaire de Windows 2000. Certains sont mineurs, mais d'autres ne
le sont pas. Voici un petit aperçu de quatre de ces bizarreries.
Les métadonnées
par Scott Steinacher
Ces " données concernant les données " sont indispensables à la structuration de tout data-warehouse.Pouvez-vous imaginer
à quel point il serait difficile, sans catalogue, de trouver un livre dans une
bibliothèque? Bien que les bibliothèques rangent les livres de manière
logique (par sujet, par exemple), il serait presque impossible de trouver un
ouvrage spécifique sans consulter d'abord un catalogue. Et bien, de la même
manière que les catalogues permettent aux lecteurs de trouver rapidement des
livres dans les bibliothèques, les métadonnées permettent aux utilisateurs de
retrouver facilement des données dans des entrepôts de données. Les entrepôts
de données d'applications complexes sont constitués de nombreux composants.
Sans métadonnées, les utilisateurs finaux ne peuvent pas trouver efficacement
les informations dans ces systèmes, pas plus que le personnel informatique ne
peut les maintenir correctement.
Les métadonnées permettent aux utilisateurs de retrouver facilement des données dans des entrepôts de données
Le terme de métadonnées est couramment défini comme “ des données concernant les données ”. Bien que les métadonnées décrivent essentiellement le schéma de la base de données et les données individuelles, elles ont aussi une autre utilisation importante. Outre les données, les métadonnées décrivent également les règles de gestion, les processus opérationnels, les procédures de transformation de données et, plus généralement, toute fonction servant à créer et à maintenir des données. Ces deux genres de métadonnées --que j'appelle métadonnées techniques et métadonnées de gestion—sont des composants critiques des entrepôts de données.
Bien que les métadonnées soient généralement associées aux systèmes informatiques, leur utilisation ne se limite pas au domaine des technologies de l'information. Comme je viens de le dire, les métadonnées sont au coeur de toute bibliothèque. En fait, la plupart d'entre nous accèdent à des métadonnées et en manipulent chaque jour, sans en être conscients. Outre les catalogues, il faut savoir que les annuaires téléphoniques, les index des magazines, les tables des matières et les listes de rues accompagnant les plans de villes, constituent aussi des référentiels de métadonnées. Au sens élémentaire, ces structures contiennent des informations sur des données. Considérons à nouveau le catalogue d'ouvrages, sous forme physique ou électronique. Ce système de classement spécialisé contient des informations sur les livres, périodiques, magazines et journaux. Dans les catalogues, on trouve les données suivantes : titres, descriptions, dates de publication, auteurs, numéros d'ISBN et emplacement sur les rayonnages. Sans un tel catalogue, les lecteurs ne sauraient pas quelles données (quels livres par exemple) existent dans une bibliothèque, pas plus qu'ils ne sauraient où se trouvent les données. Les catalogues sont des référentiels de métadonnées particulièrement efficaces, parce qu'ils respectent une norme d'indexation largement reconnue, comme le système de classification “ Dewey Decimal ” ou “ Library of Congress ”, grâce auxquels les lecteurs peuvent trouver des données dans l'ensemble des bibliothèques des Etats-Unis.
Vous vous doutez bien que les structures de métadonnées abondent dans le domaine des technologies de l'information. Dictionnaires de données, diagrammes de flux de données, spécifications de descriptions de données (DDS, Data-Description Specifications), listes de bibliothèques, descriptions d'objets, aide en ligne, job logs, commentaires de programmes, manuels de référence, définitions de requêtes, noms de zones, noms de fichiers et fichiers de référen
Lire l'article
Comment diviser la charge de ses projets par trois
par François Rihen
Paul Dequidt Torréfacteur solde sa mise en conformité AN 2000 avec les briques
logicielles de F.I-T, tout en réduisant les charges initialement prévues et en
identifiant des solutions d'avenir.
Vendre à distance ? La Société Paul Dequidt Torréfacteur n'a pas attendu Internet
pour promouvoir ses produits. Depuis le début des années 80, Paul Dequidt parcourt
sans cesse le monde à la recherche d'arabicas précieux et de mokas rares, issus
des meilleures plantations de caféiers. Oui, c'est bien de café dont on parle.
Et désormais, l'entreprise fait chaque jour le bonheur de milliers de clients
; les paquets rouge et or de Paul Dequidt Torréfacteur sont distribués à travers
tout l'hexagone.
La vente par correspondance a depuis bien longtemps dompté l'énergie informatique
pour utiliser au mieux les informations dont on dispose, et ce sont des milliers
de courriers qui partent régulièrement de Wormhout (59), siège de l'entreprise.
Comme beaucoup d'entreprises, Paul Dequidt Torréfacteur a été atteint par le virus
de ces derniers mois : l'AN 2000, bien sûr.
iSeries : déjà de retour
par Benoît Herr
Le point et quelques précisions sur les annonces IBM du 3 octobre, dont le dernier
numéro de NEWSMAGAZINE se faisait déjà l'écho
Quelle meilleure transition entre NEWSMAGAZINE et SYSTEMS Journal que cette annonce
Serveurs IBM du 3 octobre dernier ! Et pourtant, il n'y a eu aucune concertation
entre Big Blue et l'organe de Presse indépendant que nous sommes.
Faire coexister Windows 2000 et Windows NT 4.0
par Paula Sharick
Il y a quelques mois, je me suis posé la question de savoir si Windows 2000 et
NT 4.0 pouvaient coexister. Après avoir testé un environnement mixte Windows 2000
et Windows NT 4.0, j'ai fait part de mes expériences et j'ai eu l'agréable surprise
de constater que les deux technologies fonctionnent bien ensemble. Vous envisagez
peut-être de migrer, mais vous avez besoin de quelques conseils ? Jetons donc
un coup d'oeil sur les raisons de migrer, les principales différences entre les
plates-formes et quelques astuces pour une migration en toute confiance.
Traduction des logiciels : vers une meilleure compréhension
par John Ghrist
Quel est l'un des plus grands obstacles aux ventes de logiciels américains sur
les marchés internationaux ? La langue, bien sûr. Bien que reconnu comme une langue
internationale, l'anglais n'est en fait pas aussi universel que cela.
Sur les marchés extérieurs aux pays anglo-saxons, les logiciels ne proposant que
des interfaces en anglais ont un net handicap, même s'ils s'agit d'applications
plus performantes, tout simplement parce que la plupart des utilisateurs demandent
une interface leur permettant de travailler dans leur propre langue.
Pour un éditeur anglo-saxon, la solution logique est donc de fournir une version
des produits les plus stratégiques dans les différentes langues. Mais trouver
les personnes compétentes pour traduire des supports techniques comme des interfaces
utilisateurs, des fichiers d'aide et de la documentation relève de la mission
impossible. Faut-il s'allouer les services de traducteurs en interne ? Faut-il
avoir recours à des services de traduction ? Ou encore utiliser un logiciel de
traduction ? Et une fois le choix effectué, comment mesurer l'impact et la qualité
du travail, des outils et des services de la solution retenue ?
Mapics, Inc. (et les sociétés l'ayant historiquement précédée) est venue à bout
de ce problème, en diffusant avec succès à l'étranger une solution de gestion
industrielle réputée sur AS/400.
Le produit a d'abord été traduit dans quelques-unes des langues européennes
vers le milieu des années 80
Issu de Monterey, AIX 5 L rallie Caldera et les OEM Intel
par Mireille Boris
Le projet Monterey qui a réuni IBM, SCO et Intel pour le développement d'un Unix
64 bits standard donne naissance à un AIX 5 L. Volens nolens, tous les OEM Intel,
de Compaq à Unisys, vont supporter de l'AIX…IBM l'avait-il imaginé il y a un an?
Monterey a été le nom de code de l'action concertée entre IBM, SCO et Intel. Au
coeur du programme de développement, un Unix 64 bits dont AIX d'IBM, flanqué d'Unixware
de SCO et de Dynix ptx de Sequent, était l'élément le plus important. Objectif
: approcher en OEM les machines Intel.
Or, il s'est avéré que le nom le plus porteur était… AIX
Cet Unix collectif étant prêt à sortir en juillet dernier, il s'est agi de le
baptiser. Des agences de communication ont été consultées. Or, il s'est avéré
que le nom le plus porteur était… AIX. "Avec le succès du S80, AIX avait une image
très forte sur le marché", note Jean-Marc Ferré d'IBM. AIX 5, à cause de sa composante
Power PC dont l'AIX en était à la V4 et AIX 5 L pour bien indiquer que l'affinité
Linux est incluse dans cette nouvelle version. AIX 5L for Power, AIX 5L for IA
64 en attente de machines Itanium prévues pour le 10 octobre étaient disponibles
en août. Mais les 2000 machines 64 bits Intel en circulation étant toujours considérées
comme expérimentales et leur sortie en volume étant une fois de plus retardées
jusqu'en avril 2001, la décision fut prise de ne pas se presser. Aix 5.0L for
Power, 5.0L IA-64 restent des versions d'évaluation pour éditeurs. Les versions
de production d'Aix 5.1L for Power et for IA-64 sortiront en avril en même temps
que les serveurs Intel.
"Notre objectif premier est toujours un Unix standard, partagé par un marché plus
large, avec un Unix qui a déjà fait ses preuves sur Power", affirme Jean-Marc
Ferré. Rien de changé dans l'accord avec Intel, qui apporte de l'argent pour financer
les approches des éditeurs, ni dans l'adhésion d'un certain nombre de constructeurs.
Compaq a communiqué sur ce sujet. Les Proliant supporteront AIX. Il n'y a pas
d'autre alternative, Compaq ayant cessé de développer Tru64 sur plate-forme Intel.
SCO apporte à AIX 5 L un support constant. La stratégie de Caldera est de supporter
des plates-formes Linux 32 bits, mais la composante SCO est plus robuste. Il va
falloir un certain temps pour que Linux 64 bits monte en puissance de la même
manière.
Benoît Maillard, de SCO-Caldera, confirme : "La division Serveurs et Professional
Services de SCO est devenue Caldera Inc.. Le travail continue. Quand le nommage
de l'OS Monterey 64 a été décidé, le choix s'est porté sur AIX 5L, malgré une
petite résistance de la part de SCO. Mais prendre un nouveau nom aurait été perturbant
dans un marché Unix en phase de consolidation. La bannière AIX est haut de gamme,
ouverte, avec une connotation Linux. La filiation AIX est rassurante, et l'ouverture
multiplates-formes d'IBM réelle à tous les OEM du marché. Les OEM ont fait un
peu la tête. Mais le business Unix sur Intel est profitable. Le volume des ventes
de matériel avec SCO a dépassé les 4 milliards de $. Cela ne peut que continuer
vers le haut. Unisys, Dell, Compaq, Bull, Fujitsu ou encore Acer jouent dans la
pièce, et avalisent ce support. Plutôt que de fragmenter, ils participent à la
consolidation. "
Une partie importante du travail de Monterey a porté sur les applications. Oracle,
BEA, BMC, CA, Cygnus pour les outils de développement, IBM logiciel, JDEdwards,
I2, Informix, Software AG, Brio, Candle, Sybase, etc.., ont adopté la plate-forme
très tôt. Actuellement, un système accessible à distance depuis le Web est mis
en place pour les développeurs. De leur centre de portage, IBM et Bull reçoivent
les développeurs de logiciels avec représentation locale des programmes de recrutement
des partenaires. Des centres semblables utilisant des octoprocesseurs Intel ont
ouvert à San Mateo, dans le Massachussets, en Allemagne et en Angleterre. Le catalogue
de logiciels sera prêt en même temps que la V 5.1 et les machines Intel.
Les fonctionnalités NUMA et LPart sont inscrites dans AIX 5.0 L
La revanche des I/O
par Frank G. Soltis
Un système équilibré exige une mémoire et des entrées/sorties rapides
Depuis toujours, les entrées/sorties (I/O : Input/Output) ont été les parents
pauvres des modèles des systèmes informatiques. La vedette étant presque toujours
le processeur. Pourquoi ? A cause de la suprématie du Mégahertz (MHz), la mesure
des performances informatiques la plus répandue. Comme il est impossible de mesurer
la qualité du système des I/O d'un ordinateur avec des MHz, les concepteurs ont
le plus souvent ignoré cet aspect pour se concentrer sur les performances du processeur.
Après tout, c'est quand même le MHz qui fait vendre. Qui, devant un nouvel ordinateur
cherche à savoir quelle est la bande passante des I/O plutôt que les prouesses
en MHz du processeur ?
Pourtant, un ordinateur sans I/O, c'est comme une voiture sans roues, malgré toute
la puissance du moteur, elle n'ira pas loin. Au même titre que la mémoire, le
système des I/O détermine le temps de réponse et le débit de la plupart des ordinateurs.
Ce sont ces mesures qui intéressent le plus les clients, même si les concepteurs
de processeurs ne l'admettent pas.
La puissance des I/O pourrait alors bien devenir le seul critère distinctif
Heureusement, les choses sont en train de changer. Dans un futur proche, tous
les ordinateurs, des PC d'entrée de gamme aux superordinateurs les plus rapides,
utiliseront les mêmes briques de microprocesseur. La puissance des I/O pourrait
alors bien devenir le seul critère distinctif.
Même les concepteurs de processeurs commencent à prendre les I/O plus au sérieux.
C'est ainsi que les concepteurs de la prochaine génération de puces microprocesseur
PowerPC (appelées POWER4) mettent davantage en avant les largeurs de bande de
leurs nouvelles puces plutôt que leur performance en MHz. La situation s'est inversée,
et les I/O ont enfin leur heure de gloire. Et comme le système des I/O de la nouvelle
iSeries 400 est très différent de celui de l'AS/400, il convient d'examiner les
modifications apportées pour juger de leurs conséquences sur nos modèles de systèmes
futurs.
Les plus consultés sur iTPro.fr
- Plus de femmes dirigeantes dans la tech pour la culture d’entreprise et l’inclusion
- Agents IA : de l’expérimentation à la gouvernance, le nouveau rôle des CTO
- Alerte sur les escroqueries reposant sur les deepfakes
- Explosion des interactions vocales avec l’IA générative d’ici 2028
- Les entreprises doivent revoir leur stratégie de résilience des données en profondeur
