
Sept éléments à connaître sur l’écriture de programmes RPG modulaires
par Bryan Meyers
Utilisez au mieux les techniques ILE pour écrire du RPG performant et facile à gérer
La conversion des programmes RPG existants à la syntaxe RPG IV n'est que la première phase du remaniement des applications nécessaires pour exploiter ILE (Integrated Language Environment). Il faut aussi concevoir et construire les applications au moyen de techniques et outils de modularisation ILE. Des modules contenant une ou plusieurs procédures présentent de nombreux avantages : meilleure productivité, code plus fiable, maintenance plus facile et, parfois, applications plus performantes que le modèle monolithique traditionnel. Je propose ici quelques pistes sur la manière d'examiner les applications existantes et de repenser les techniques de développement pour écrire un code RPG modulaire.
Des modules contenant une ou plusieurs procédures présentent de nombreux avantages
Lire l'article
Consolidation de serveurs: pour quoi faire ?
par Sharon Hoffman
Tirez parti de la technologie AS/400 pour réduire les coûts induits d'administration
des serveurs et améliorez par la même occasion l'efficacité de la gestion de vos
systèmes.
La consolidation de serveurs englobe toutes les stratégies et technologies capables
de réduire le nombre ou la répartition géographique des serveurs que possède et
gère une entreprise. Lorsqu'on minimise le nombre de serveurs et les connexions
entre eux, les systèmes d'information fonctionnent de façon plus limpide.
Bien que le principal intérêt de la consolidation de serveurs soit de simplifier
l'administration des systèmes, cette démarche peut également induire d'autres
avantages allant de la réduction des coûts salariaux associés au personnel informatique
à une amélioration de la disponibilité des systèmes.
Bien que le principal intérêt de la consolidation de serveurs soit la
simplification de l'administration, elle peut aussi induire d'autres avantage.
La consolidation des serveurs est un sujet d'actualité au sein de l'ensemble
de la communauté informatique. Une rapide recherche sur Internet indique qu'IBM,
Hewlett-Packard, Sun et Unisys plaident tous en sa faveur. Au départ, ces constructeurs
utilisent tous le même raisonnement de base pour promouvoir leurs solutions de
consolidation, à savoir : la consolidation des serveurs contribue à réduire le
coût de revient global des systèmes.
L'AS/400 est une cible intéressante pour la consolidation des serveurs parce que
ses points forts classiques, notamment un potentiel d'évolutivité et une fiabilité
très élevés, sont essentiels pour la réussite de tout projet de consolidation
de serveurs. Les fonctions d'administration système intégrées à l'AS/400 contribuent
également à faire de cette plate-forme un concurrent efficace sur le marché de
la consolidation des serveurs. Ces atouts, qui ont fait leur preuve depuis longtemps,
sont désormais secondés par plusieurs nouvelles technologies AS/400, notamment
le partitionnement logique, le clustering, le serveur NetFinity intégré, l'AS/400
NetServer et Domino for AS/400. Ces technologies améliorent d'autant le positionnement
de l'AS/400 dans l'arène de la consolidation des serveurs.
Faut-il se lancer dans cette voie ? En fait, la réponse à cette question dépend
d'une corrélation complexe entre plusieurs facteurs dont les coûts et la fiabilité
des communications, les prix des licences d'utilisation des logiciels, les possibilités
d'évolution du matériel et l'attitude des utilisateurs.

TSAC : le joyau du SP1 pour les services de terminaux
par Sean Daily
Le but ultime des services d'accès distant dans un réseau est de permettre aux
utilisateurs distants d'accéder aux ressources du LAN. Les connexions RAS traditionnelles,
telles que celles qu'assurent Windows 2000 et Windows NT, fonctionnent bien pour
les besoins de connectivité de base des utilisateurs - par exemple les e-mails
ou la navigation sur Internet. Mais des problèmes peuvent survenir lorsque l'on
essaie d'en étendre l'utilisation, pour permettre aux utilisateurs d'accéder à
distance, librement, aux outils bureautiques.

Intel, AMD et les processeurs 64 bit
par Michael Otey
Prolongeant leur rivalité dans le domaine des puces 32 bit à la prochaine génération
informatique, Intel et AMD prévoient de sortir de nouveaux processeurs 64 bits
compatibles x86 en 2001. Mais les deux grands rivaux ont adopté des voies différentes
pour leurs prochaines générations de processeurs.
Tout comme le bond en avant de puissance obtenu lorsque la plate-forme PC a évolué
pour passer du processeur 286 à 16 bits au 386 à 32 bits, le saut au 64 bits promet
de faire grimper la technologie PC vers de nouveaux sommets dans l'entreprise.
Certes les processeurs 64 bits ne feront pas se calculer plus vite les tableaux
Excel, ni tourner plus vite la plupart des autres applications. Mais les nouveaux
processeurs répondront à l'éternel besoin d'augmentation de la puissance du processeur
qu'exprime l'informatique haut de gamme. Ce sont les stations graphiques haut
de gamme et les grands systèmes de bases de données, tels que Microsoft SQL Server
et Oracle, qui bénéficieront le plus directement des nouveaux processeurs. Les
sociétés .com (prononcer " dot com ") et le nombre croissant d'applications d'aide
à la décision et de data warehouse sont généralement les forces motrices à l'origine
de la croissance massive des bases de données. Ces applications tireront moins
parti des augmentations de vitesse brute des processeurs, que d'une plus grande
capacité d'adressage de la mémoire. Les applications de bases de données en particulier
sont terriblement gourmandes en RAM. Elles sont d'autant plus performantes qu'elles
ont de la mémoire.
L'actuelle génération de processeurs 32 bits peut traiter en natif jusqu'à 4 Go
(232 octets) de données. Sur ces 4 Go adressables, Windows 2000 Server réserve
2 Go de stockage pour son propre usage et en laisse 2 pour les applications. L'architecture
EMA (Enterprise Management Architecture), que supportent Windows 2000 Advanced
Server et Windows 2000 Datacenter, fournit deux méthodes pour étendre la quantité
de RAM disponible pour les applications : 4 GT (4 GB RAM Tuning) et PAE (Physical
Address Extension). 4 GT ajoute le commutateur /3GB au chemin ARC (Advanced RISC
Computing) dans le fichier boot.ini pour permettre aux applications de gérer jusqu'à
3 Go de RAM. PAE utilise une fenêtre pour mapper des tranches de mémoire physique
à l'espace d'adressage virtuel d'une application et étendre la capacité d'adressage
de la mémoire physique à 8 Go sur Windows 2000 Advanced Server et à 64 Go sur
Windows 2000 Datacenter Server. (Pour en savoir plus sur le support EMA de Datacenter,
voir l'article de Gregg Todd " Windows 2000 DataCenter : Microsoft vise la cours
des grands ").
Les futurs processeurs 64 bits vont étendre considérablement la quantité de mémoire
physique adressable disponible pour les systèmes haut de gamme. Les processeurs
64 bits d'Intel et AMD mettront la barre très haut, atteignant 16 exaoctets (EO),
soit environ 18 milliards de gigaoctets (264 octets) - plus qu'il n'en faut, même
pour les applications les plus massives d'aujourd'hui.
Les processeurs 64 bits ont en fait deux fonctions importantes. Outre la capacité
d'utiliser 64 bits pour définir une adresse en mémoire, ils peuvent manipuler
64 bits de données simultanément. Etant donné que la capacité de manipuler 64
bits de données à la fois dépend plus de la structure des bus que des processeurs,
la tendance vers le traitement 64 bits va de pair avec d'importants progrès en
matière de technologie des bus système.
Bien que partageant clairement un objectif commun, Intel et AMD ont choisi
des chemins très différents pour atteindre leur destination

Etablir des règles : le secret d’une parfaite intégrité
par Carol Woodbury
S'assurer l'intégrité de ses collaborateurs et fournisseurs à travers une politique
de sécurités d'entreprise claire
Avez-vous déjà joué à un jeu de cartes sans en connaître toutes les règles ? Le
jeu commence, et soudain un joueur avance une carte qu'un autre considère comme
interdite. Il s'ensuit une discussion houleuse pour déterminer celui qui a raison.
Le jeu se termine souvent prématurément, et personne ne s'est amusé. Pour ma part,
je préfère jouer à un jeu de cartes dont tous les joueurs connaissent les règles.
En sachant à quoi s'attendre, on évite les discussions, et tout un chacun a les
éléments pour gagner.
Gérer une entreprise sans politique de sécurité revient à jouer à un jeu de cartes
dont personne ne connaîtrait les règles. Tout se passe peut-être bien au début,
mais qu'advient-t-il si par exemple l'administrateur Web autorise des téléchargements
FTP dans les deux sens, vers et à partir du serveur Web ? Le responsable de la
sécurité réprimandera l'administrateur Web. Sans une réelle politique de sécurité,
rien ne permet de déterminer si les règles de la société permettent de faire des
téléchargements vers le serveur Web. La querelle éclate, les esprits s'échauffent,
l'administrateur Web estime que c'est à lui d'autoriser les téléchargements vers
le serveur Web. L'administrateur de sécurité pense au contraire que c'est de son
ressort. Qui a raison ?
Une politique de sécurité est un document vital pour l'entreprise
Une politique de sécurité est un document vital pour l'entreprise. Il liste les
règles et procédures de mise en oeuvre des sécurités. La conception de cette politique
de sécurité d'entreprise est un acte de gestion primordial, tout aussi important
que la politique salariale. Une fois la politique mise en place, il est possible
d'analyser une proposition de nouveaux procédés ou méthodes, et de voir si elle
s'inscrit dans les règles. Une politique de sécurité peut ainsi régler les différends
et éviter des luttes de pouvoir.
La politique de sécurité présente un autre avantage : elle aide à conserver la
" mémoire de l'entreprise ". La rotation du personnel peut faire des ravages dans
un service informatique si personne n'a répertorié les politiques et procédures
en vigueur. Enfin, une politique de sécurité fournira une documentation officielle
s'il fallait un jour avoir recours à la justice pour non-respect des règles.
On peut rassembler toutes les politiques de sécurité dans un même document ou
bien créer un document couvrant les politiques de sécurité générales et lui adjoindre
des annexes décrivant les règles propres à chaque système d'exploitation comme
l'OS/400 et AIX.
Il n'existe pas de politique de sécurité unique convenant à toutes les
entreprises

De gré ou de force, les constructeurs adoptent une stratégie Linux
par René Beretz
A l'heure de l'adoption de Linux en entreprise, la stratégie des constructeurs
informatiques évolue considérablement.
La stratégie des constructeurs informatiques envers les systèmes d'exploitation
a changé. Les systèmes propriétaires n'ont plus le vent en poupe et la plupart
des sociétés vantent les standards. Mais du discours à la réalité, il reste du
chemin à parcourir. Ne serait-ce que dans le monde Unix, il reste des différences
bien réelles et une concurrence effective entre AIX d'IBM, HP-UX de Hewlett-Packard
ou Solaris de Sun. Les constructeurs ont cependant sauté sans trop d'états d'âme
sur la vague Linux qui a rattrapé également les groupes de travail qui se préoccupent
de convergence d'Unix. Il est fort probable que l'avenir des différents Unix va
donc dépendre de cet outsider.
De fait, poussés par l'engouement des développeurs, les entreprises commencent
à adopter Linux et il devient donc essentiel pour les constructeurs d'être présents
sur ce créneau. En outre, il leur offre l'opportunité de se repositionner sur
le marché de l'éducation et sur certains marchés étrangers.
Les constructeurs ont cependant sauté sans trop d'états d'âme sur la vague
Linux
L'attitude des constructeurs oscille entre deux extrêmes : certains ont élaboré
une vraie stratégie Linux : ils ont adopté une attitude dynamique qui devance
le marché : c'est le cas, en particulier, d'IBM, de Hewlett-Packard et de Silicon
Graphics.
D'autres sociétés se contentent de proposer des solutions Linux pour répondre
aux attentes de leurs clients : c'est le cas de Compaq ou de Dell. Entre les deux,
Sun accompagne le mouvement tout en protégeant ses acquis.

Mettre en place des stratégies d’accès distant
par Douglas Toombs
Il y a 5 ou 6 ans, deux grands acteurs s'affrontaient autour d'une proie alléchante,
baptisée « part de marché ». Celle qui remporterait la plus grosse part serait
adorée par les richissimes habitants consensuels d'un pays mystique répondant
au nom implacable de Wall Street. A l'époque cette part était entre les griffes
de Novell et Microsoft la convoitait.
Ceux de nos lecteurs qui fréquentent l'univers de l'informatique depuis suffisamment
longtemps pour se rappeler les premiers pas de Windows NT, savent que si Microsoft
a pu glisser un pied dans la porte (y compris de certains comptes Novell purs
et durs), c'est grâce à l'ajout à NT de services inexistants sur les autres plates-formes.
A l'époque, un de ces cadeaux gratuits les plus connus fut le service d'accès
à distance RAS. Ses concurrents les plus acharnés étaient les périphériques matériels
propriétaires et Novell NetWare Connect, mais leurs coûts de licences par port
étaient très élevés.
Windows NT s'est lentement infiltré dans les organisations en introduisant l'un
après l'autre des services gratuits répondant à des besoins spécifiques des consommateurs.
Malheureusement, bon nombre de ces " plus " n'ont pas atteint la même maturité
que Windows NT au fil des ans. Malgré quelques améliorations à chaque révision
du système d'exploitation, RAS s'est avéré insuffisant dans certains domaines
importants pour entreprises, en particulier pour ce qui est de gérer quel utilisateur
peut se connecter à un serveur RAS et à quel moment. Le RAS de NT n'est pas étranger
à la sécurité des domaines et aux stratégies de comptes, mais les administrateurs
veulent souvent pouvoir contrôler davantage les utilisateurs appelant de l'extérieur.
Pour répondre à leurs attentes, Microsoft a ajouté à Windows 2000 Server des stratégies
d'accès à distance que RAS peut appliquer aux connexions entrantes.

Initiation aux concepts de l’OO (Orienté Objet)
par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels.
Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.

Exceptionnels ! Les Gestionnaires d’exceptions du RPG !
par Gary Guthrie
Passez en revue
les possibilités de traitement des exceptions en RPG. Et voyez comment les
gestionnaires de conditions et d'annulation de ILE pallient certaines des
limitations du RPG/400Dring . . . dring .
. . .
"Informatique. Francis à l'appareil."
"Salut, Francis. C'est André du Service Financier. Un message d'erreur est apparu sur mon terminal il y a quelques instants, et maintenant plus rien ne fonctionne correctement !"
D'une voix calme, Francis demande, "Quel était ce message ?"
"Quelque chose à propos d'un fichier ayant quelque chose, ou quelque chose de ce genre, je pense" répond André avec confiance.
"Pas de problème, je m'en occupe" répond Francis. Puis elle raccroche le téléphone et murmure "Bien, bien".
Vous avez sûrement déjà entendu çà , n'est-ce pas ? Heure après heure et franc après franc, les ressources de l'informatique s'amenuisent dès lors que les programmeurs consacrent un temps précieux aux réparations, après le crash d'une application. Or, on peut éviter les coûts et les migraines entraînés par les problèmes applicatifs, en plaçant le traitement des exceptions en tête de la liste des considérations en matière de conception d'applications.
Il existe de nombreux types d'exceptions et leurs techniques de traitement diffèrent en fonction de leur type, du langage utilisé, et du l'environnement modèle de programme (OPM et EPM vs ILE). Je classerai donc les exceptions en trois groupes distincts :
-
Exceptions concernant les fichiers. Il s'agit d'erreurs, comme les I/O sur des fichiers non encore ouverts, des types d'enregistrement indéfinis, des erreurs de programmes triggers et des erreurs d'unités.
-
Exceptions concernant les programmes applicatifs. Ce sont des exceptions comme des erreurs d'index de tableaux invalides, les divisions par zéro et les erreurs lors de l'appel de sous-programmes. La liste des erreurs de programmes possibles est énorme.
-
Exceptions associées au système. Il s'agit d'événements comme des défaillances de lignes de communications, des programmes annulés par les utilisateurs et une défaillance du code du système d'exploitation.
Le plus souvent, des techniques de coding appropriées empêchent ces exceptions de provoquer des fins anormales. Les exceptions associées au système sont les plus délicates, parce qu'on les maîtrise parfois fort peu au niveau applicatif. Il est ainsi impossible d'écrire un code suffisamment parfait pour qu'il évite toute erreur du système d'exploitation.
Quant aux langages évolués (HLL), chacun d'entre eux possède ses propres mécanismes de traitement des erreurs. Le CL par exemple, utilise abondamment la commande MONMSG (Monitor Message) pour piéger les exceptions. Les gestionnaires d'exceptions du RPG comportent des indicateurs d'erreur ou l'extension E sur certai
Lire l'article
Accéder aux membres de fichiers
par Jef Sutherland
Comment gérer les membres de fichiers, et quelques astuces de programmation CL
pour générer un nom de membre unique
Dans un récent article, nous avons vu les chemins d'accès indexés pour fichiers
physiques et logiques, et comment lire des enregistrements à partir d'un fichier
avec clé. Aujourd'hui, nous allons examiner un autre aspect des fichiers AS/400
: les membres de fichiers. Nous allons aussi évoquer quelques astuces de programmation
CL pour générer un nom de membre unique.

XML: langage d’avenir du commerce électronique
XML fait actuellement son apparition dans de nombreux projets de commerce électronique
XML (Extensible Markup Language) jouera probablement un rôle primordial dans le
développement du commerce électronique. Sa capacité à décrire les données dans
un format ouvert standard aidera les consommateurs à rechercher des informations
produits sur le Web et simplifiera les échanges de données interentreprises par
Internet. A n'en pas douter, XML transformera radicalement la manière d'acheter
des consommateurs et, plus particulièrement pour les entreprises, celle d'acheter
et de vendre des biens.
Dans cet article, nous allons examiner l'impact de XML sur le e-commerce.
Pourquoi suscite-t-il autant d'intérêt ?
Comment s'assurer de participer au devenir de XML et du commerce électronique
?
Les entreprises qui sont actuellement en train de mettre sur pied des transactions
HTML devraient commencer sans tarder à envisager XML.
A n'en pas douter, XML transformera radicalement la manière d'acheter
des consommateurs

Compaq et DC : une histoire d’amour
par Benoît Herr
On le sait, dans les offres tournant autour de Windows 2000 DataCenter (DC), service,
logiciel et matériel sont intimement liés, ce triptyque se mettant au service
de la haute disponibilité. Chez Compaq, l'un des acteurs majeurs de cette nouvelle
offre, SYSTEMS Journal a rencontré Robert Vassoyan et Ilham Ouzzani, pour faire
un point sur la stratégie du constructeur en la matière.
Le programme Windows 2000 Datacenter de Compaq, tout comme les programmes équivalents
de ses concurrents, est une solution de haute disponibilité complète, englobant
le ou les serveurs, le système d'exploitation Windows 2000 Datacenter de Microsoft,
les solutions de stockage, de clustering et d'administration, ainsi que les services
d'accompagnement, et clés en main. Ce type de solution n'est commercialisé que
par des constructeurs agréés par Microsoft, c'est-à -dire qui ont passé avec succès
les tests HCT. Au moment où nous mettions sous presse, ils étaient au nombre de
deux : Unisys et Compaq.
D'autres constructeurs sont cependant en cours d'agrément, et devraient arriver
sur le marché courant 2001. Certains seront peut-être déjà dans le circuit au
moment où vous lirez ces lignes. Il s'agit de Hewlett-Packard et IBM, talonnés
par Fujitsu-Siemens, Stratus, et Dell, et peut-être aussi par Bull, ICL, NEC et
Amdahl.
La cible de ce nouvel OS, à travers lequel Microsoft espère gagner enfin la crédibilité
qui lui a jusqu'ici été refusée depuis l'annonce initiale de Windows NT, et des
programmes DataCenter des différents constructeurs agrées est très clairement
les entreprises ayant besoin de haute disponibilité, et qui ne peuvent pas se
permettre d'assumer les coûts d'une interruption de service.
Autrement dit, un marché jusqu'ici réservé aux gros Unix, mainframes, et autres
systèmes "propriétaires", comme l'AS/400. Microsoft avoue d'ailleurs humblement
son absence de ce marché, puisqu'elle représente selon ses propres dires 1,3%
du nombre des serveurs d'entreprise de plus de 100.000$. Lorsqu'on traduit cette
présence en chiffre d'affaires, le ratio tombe carrément à 0,5%.
Inversement, ces chiffres signent également le formidable potentiel de développement
pour la firme de Redmond sur ce marché. A condition toutefois de se montrer à
la hauteur des attentes des entreprises, qui se proposent là de lui confier leurs
applications vraiment critiques. Mais à en juger par la façon d'appréhender le
problème de Microsoft, tout laisse à penser que le succès devrait être au rendez-vous.
Au delà de sa position de précurseur, aux côtés d'Unisys, Compaq, qui équipe l'ensemble
des filiales Microsoft à travers le monde, occupe une place un peu privilégiée
dans son partenariat avec Microsoft. Nous avons demandé à Robert Vassoyan, Directeur
Industry Standard Server Division chez Compaq France pour la partie offre matérielle
et logicielle, et à Ilham Ouzzani, Chef de Produit Business Critical Marketing
& Développement des Ventes pour la partie services de nous en dire plus.
La cible de ce nouvel OS et des programmes DataCenter des différents constructeurs
agrées est très clairement les entreprises qui ne peuvent pas se permettre d'assumer
les coûts d'une interruption de service

Les Bugbusters de Rochester
par Joanna Moore
A Rochester, une armée de clients en bêta-test traque les imperfections dans le
nouveau matériel et logiciel avant que l'utilisateur final ne les découvre.

Protocoles de sécurité : un état des lieux
par Mel Beckman
Sécurisez vos transactions électroniques en suivant de près l'évolution des protocoles
de sécurité du commerce électronique
Lorsque le protocole SSL (Secure Sockets Layer) est arrivé sur le marché il y
a 6 ans, les experts y ont vu la solution au problème de sécurité du commerce
électronique. Et il est vrai que SSL a beaucoup contribué à rassurer les internautes
utilisant leurs numéros de cartes de crédit pour les achats en ligne, faisant
ainsi exploser les ventes grand public sur le Web. SSL remplit bien sa fonction
de cryptage des données circulant entre l'acheteur et le vendeur, pour déjouer
l'interception par les voleurs des informations contenues sur les cartes de crédit.
Si la sécurité du commerce électronique se limitait à cela, SSL aurait donc résolu
la totalité des problèmes. Mais si la protection des numéros de cartes de crédit
et d'autres informations sensibles dans les transactions HTTP est le problème
le plus visible, ce n'est que le sommet de l'iceberg. Toutes les composantes d'une
transaction de paiement électronique ne passent pas par HTTP. Le vendeur peut
utiliser d'autres protocoles (courrier électronique, FTP (File Transfer Protocol),
LDAP (Lightweight Directory Access Protocol) par exemple) comme moyen de règlement
et pour s'assurer que l'argent aboutit bien dans son compte en banque. Une fois
le numéro de carte de crédit reçu par le vendeur, il faut valider le numéro, faire
approuver l'achat par l'organisme émetteur de la carte, et débiter l'organisme
financier de l'acheteur (figure 1).
L'ensemble du processus de transaction n'a pas de protection standard. Pis encore,
une faille du dispositif de sécurité peut intervenir dans l'une des étapes suivant
la commande HTTP sans que l'acheteur n'en ait connaissance. Les acheteurs en ligne
se croient donc plus en sécurité qu'ils ne le sont réellement.
Heureusement, les standards des protocoles Internet sont en train de changer pour
combler ces lacunes en matière de sécurité. Malheureusement, ils ne changent pas
assez vite et aucun standard de sécurité à lui seul ne répond aujourd'hui à tous
les besoins. SSL est en train de devenir un transport multiprotocoles et a été
rebaptisé TLS (Transport Layer Security) mais son adaptation au cryptage autre
que HTTP pose des problèmes. L'autre principal protocole de sécurité, SET (Secure
Electronic Transactions), est très efficace mais tellement lourd à mettre en oeuvre
que peu d'entreprises l'utilisent.
Pour arriver à une bonne sécurité des transactions, il est important de bien comprendre
les avantages et les limites de chaque protocole. De plus, une petite connaissance
de l'historique de chaque protocole donne un peu plus d'éclairage et peut aider
à choisir le cryptage le mieux adapté au commerce électronique. Enfin, il est
bon de savoir ce que l'AS/400 propose dans ce domaine.

HPRIM-NET : le premier Intranet médical développé sous Linux
par Catherine China
Intranet privé de transmission de résultats médicaux, HPRIM-NET est destiné aux
médecins et laboratoires d'analyses. Souplesse des développements, réduction des
coûts, fiabilité du système d'exploitation : autant d'arguments qui ont joué en
faveur de l'adoption de Linux par Nagora Communication, la Web agency , chargée
de sa mise en oeuvre.
Epaulé par l'association HPRIM , le corps médical oeuvre en faveur du développement
d'intranets de santé privés, pour choisir librement son système de transmissions
de FSE (Feuilles de Soins Electroniques).
C'est ainsi, qu'est né en 1998, le projet de serveur HPRIM-NET du groupe Expand
Santé. "Le Réseau Santé Social, intranet d'état, ne disposait pas d'outil de diffusion
de résultats d'analyses médicales. Notre objectif était, via cet intranet privé,
de permettre aux médecins de récupérer des résultats d'analyses de manière souple,
tout en assurant le support du protocole de transmission Kermit utilisé par les
laboratoires d'analyses." explique Kevin de Beil, chef de projet chez Nagora Communication,
société chargée du développement de la solution. En mai 1998, une première maquette
de l'application voit le jour sous Linux.
Un an plus tard, cette maquette est testée avec la participation d'une vingtaine
d'éditeurs de logiciels de gestion de cabinet médicaux (Coccilog, Apsisanté…)
"Nous avons ensuite développé une nouvelle maquette du serveur HPRIM à grande
échelle, avant de rentrer en phase d'exploitation en janvier 2000." assure Kévin
de Beil.
Objectif du projet. Développement d'une application d'intranet médical sous Linux respectant les spécificités des télétransmissions aux normes Kermit/HPRIM. |
Grâce à la souplesse de Linux et à la disponibilité gratuite de tous les protocoles de communication, nous avons pu partir sur une maquette technique, l'arrêter en cours de route, repartir sur une autre alternative
Coûts et bénéfices de la solution Coûts : Le coût de développement de la solution (y compris le support hot line des éditeurs de logiciels médicaux) a été d'environ 600 kF, soit l'équivalent d'une année-homme. Coût de la formation Linux par Erian- Concept : environ 45.000 Francs. Bénéfices : - Souplesse de développement grâce à la disponibilité gratuite des codes sources et des protocoles de communications - Réduction des coûts de développements. - Simplicité de l'administration. |
Nagora Communication : fiche d'identité Agence Internet spécialisée dans la communication multimédia et la création de sites Web, appartenant au groupe Nagora. Effectif groupe 1999 : 85 personnes Siège à Paris et support de production à Nice |

Bienvenue dans le 21ème siècle
par Carson Soule
Maintenant que l'an 2000 est quasiment derrière nous et que nous entrons dans
le 21ème siècle et le nouveau millénaire, je souhaiterais me retourner un instant
sur 2000 et me demander "Que s'est-il passé ?" Mais peut-être devrais-je me demander
" Que ne s'est-il pas passé ?"

Optimiser les performances batch de l’AS/400
par Rick Turner
Structurer les applications et optimiser l'environnement d'exécution batch pour
une efficacité maximale
Au cours des derniers mois, je suis intervenu sur certains sites AS/400 qui devaient
multiplier par cinq voire même 50 leur charge de travail batch en back office.
Le premier cas concernait une application de paie devant traiter 500.000 employés
alors qu'elle en traitait 100.000 auparavant. Pour le deuxième cas, il s'agissait
d'une banque qui, par suite d'un regroupement, devait passer de 600.000 comptes
à 30 millions. Dans les deux cas, le traitement des nouvelles charges de travail
devait être effectué dans le même laps de temps qu'auparavant.
Pour atteindre leurs objectifs au niveau des temps de traitement, ces clients
devaient modifier leurs programmes applicatifs pour qu'ils exploitent au mieux
la puissance de l'AS/400. La méthode consistait à utiliser plusieurs copies des
jobs de traitement, chacune travaillant sur des parties distinctes des données
en entrée, pour effectuer davantage de travaux dans le même temps et en mettant
davantage la CPU à contribution. C'est tout à fait possible puisque l'AS/400 traite
parfaitement plusieurs jobs à la fois.
Pourtant, malgré les modifications, les utilisateurs ne parvenaient pas toujours
à pousser le débit de leurs applications batch jusqu'aux limites des ressources
du système. Et donc, ils ne pouvaient pas tenir les délais alloués. D'où leur
question, "Comment effectuer beaucoup plus de travail dans un laps de temps identique?"
On peut apporter deux éléments de réponse : Utiliser au maximum la CPU et utiliser
le disque jusqu'aux plus hautes valeurs de seuil recommandées. Cet article explique
quelques méthodes de traitement susceptibles d'améliorer le débit d'un travail
en batch. Je propose quelques idées générales sur la manière de structurer une
application et de créer un environnement d'exécution optimal (pour le matériel
et le logiciel), afin de réaliser le maximum de travail utile dans le minimum
de temps.

Révolutionnez vos messages d’erreur avec les sous-fichiers de messages
par Mike Cravitz
Voici deux méthodes interactives, informatives et simples à utiliser pour présenter des messages d'erreurVous est-il déjà
arrivé de ne pas vous souvenir de ce que quelqu'un vous avait dit, parce que
l'information n'avait aucun sens ? De nombreux programmeurs AS/400 éprouvent la
même chose avec les sous-fichiers de messages d'erreur. Souvent, quelqu'un (un
consultant peut-être) fait irruption sur un site, installe des sous-fichiers de
messages d'erreur dans l'un des programmes, puis disparaît. Les programmeurs
qui viennent derrière cessent parfois d'utiliser les sous-fichiers, jugeant que
cette technique n'a pas de sens.
Les sous-fichiers de messages d'erreur utilisent certainement des aspects de l'OS/400 (en particulier la messagerie) généralement mal maîtrisés par le programmeur AS/400 moyen. Mais leurs avantages (messagerie d'erreur plus interactive, informative et professionnelle pour les utilisateurs finaux) justifient les efforts consacrés à les apprendre. Dans cet article, j'entends bien lever le mystère entourant les sous-fichiers de messages, pour que vous n'hésitiez plus à en doter vos applications.
Les sous-fichiers de messages d'erreur utilisent des aspects de l'OS/400 généralement mal maîtrisés
Lire l'article
Personnalisez SEU !
par Vincent Taquin
Les commandes définies par l'utilisateur permettent d'optimiser
l'éditeur de fichiers sources de l'AS/400L'utilitaire d'édition de sources de l'AS/400 (SEU : Source Entry Utility) n'est peut être pas le meilleur éditeur au monde, mais pour la plupart d'entre nous, c'est le seul disponible. Heureusement, depuis la V4R2, il est possible de personnaliser cet utilitaire en ajoutant des commandes à celles déjà fournies par SEU. Dans le présent article, j'explique comment créer des commandes définies par l'utilisateur pour SEU, et fournis plusieurs exemples de ces commandes. Les exemples fournis permettent d' :
· appliquer une couleur (bleu, rose, rouge, turquoise, blanc, ou jaune) à une ligne ou un bloc de lignes dans un membre source
· effacer n caractères à droite ou à gauche d'un bloc de lignes
· scinder le Facteur 2 étendu d'une ligne de calcul RPG ILE ou de scinder une ligne de commentaires
En plus d'apporter de nouvelles fonctionnalités à SEU, ces commandes donnent l'occasion de travailler avec les espaces utilisateur, les pointeurs, les programmes de service et les variables exportées.

Windows 2000 et le TCO : les chiffres
par Barrie Sosinsky
Des études récentes d'analystes sur le coût total de possession de Windows 2000
ont fait couler beaucoup d'encre. Le Gartner Group affirme que Windows 2000 est
trop cher, tandis que le Giga Information Group prétend que c'est un investissement
rentable. Les différences d'appréciation tiennent à l'étude elle-même.
Les plus consultés sur iTPro.fr
- L’IA agentique ouvre la voie à davantage d’alliances stratégiques et d’intégrations technologiques
- Oneytrust, la fintech française référente de la lutte contre la fraude bancaire & e-commerce fête ses 25 ans !
- Prendre en compte le développement durable est un facteur de réussite
- L’IA et le machine learning au service d’une cybersécurité préventive
- 90 % des responsables IT et sécurité signalent une cyberattaque en 2024
