> Tech
Sept éléments à  connaître sur l’écriture de programmes RPG modulaires

Sept éléments à  connaître sur l’écriture de programmes RPG modulaires

par Bryan Meyers
Utilisez au mieux les techniques ILE pour écrire du RPG performant et facile à  gérer

La conversion des programmes RPG existants à  la syntaxe RPG IV n'est que la première phase du remaniement des applications nécessaires pour exploiter ILE (Integrated Language Environment). Il faut aussi concevoir et construire les applications au moyen de techniques et outils de modularisation ILE. Des modules contenant une ou plusieurs procédures présentent de nombreux avantages : meilleure productivité, code plus fiable, maintenance plus facile et, parfois, applications plus performantes que le modèle monolithique traditionnel. Je propose ici quelques pistes sur la manière d'examiner les applications existantes et de repenser les techniques de développement pour écrire un code RPG modulaire.

Des modules contenant une ou plusieurs procédures présentent de nombreux avantages

Lire l'article
Consolidation de serveurs: pour quoi faire ?

Consolidation de serveurs: pour quoi faire ?

par Sharon Hoffman
Tirez parti de la technologie AS/400 pour réduire les coûts induits d'administration des serveurs et améliorez par la même occasion l'efficacité de la gestion de vos systèmes. La consolidation de serveurs englobe toutes les stratégies et technologies capables de réduire le nombre ou la répartition géographique des serveurs que possède et gère une entreprise. Lorsqu'on minimise le nombre de serveurs et les connexions entre eux, les systèmes d'information fonctionnent de façon plus limpide.

Bien que le principal intérêt de la consolidation de serveurs soit de simplifier l'administration des systèmes, cette démarche peut également induire d'autres avantages allant de la réduction des coûts salariaux associés au personnel informatique à  une amélioration de la disponibilité des systèmes.

Bien que le principal intérêt de la consolidation de serveurs soit la simplification de l'administration, elle peut aussi induire d'autres avantage.

La consolidation des serveurs est un sujet d'actualité au sein de l'ensemble de la communauté informatique. Une rapide recherche sur Internet indique qu'IBM, Hewlett-Packard, Sun et Unisys plaident tous en sa faveur. Au départ, ces constructeurs utilisent tous le même raisonnement de base pour promouvoir leurs solutions de consolidation, à  savoir : la consolidation des serveurs contribue à  réduire le coût de revient global des systèmes.

L'AS/400 est une cible intéressante pour la consolidation des serveurs parce que ses points forts classiques, notamment un potentiel d'évolutivité et une fiabilité très élevés, sont essentiels pour la réussite de tout projet de consolidation de serveurs. Les fonctions d'administration système intégrées à  l'AS/400 contribuent également à  faire de cette plate-forme un concurrent efficace sur le marché de la consolidation des serveurs. Ces atouts, qui ont fait leur preuve depuis longtemps, sont désormais secondés par plusieurs nouvelles technologies AS/400, notamment le partitionnement logique, le clustering, le serveur NetFinity intégré, l'AS/400 NetServer et Domino for AS/400. Ces technologies améliorent d'autant le positionnement de l'AS/400 dans l'arène de la consolidation des serveurs.

Faut-il se lancer dans cette voie ? En fait, la réponse à  cette question dépend d'une corrélation complexe entre plusieurs facteurs dont les coûts et la fiabilité des communications, les prix des licences d'utilisation des logiciels, les possibilités d'évolution du matériel et l'attitude des utilisateurs.

Lire l'article
TSAC : le joyau du SP1 pour les services de terminaux

TSAC : le joyau du SP1 pour les services de terminaux

par Sean Daily
Le but ultime des services d'accès distant dans un réseau est de permettre aux utilisateurs distants d'accéder aux ressources du LAN. Les connexions RAS traditionnelles, telles que celles qu'assurent Windows 2000 et Windows NT, fonctionnent bien pour les besoins de connectivité de base des utilisateurs - par exemple les e-mails ou la navigation sur Internet. Mais des problèmes peuvent survenir lorsque l'on essaie d'en étendre l'utilisation, pour permettre aux utilisateurs d'accéder à  distance, librement, aux outils bureautiques.

Lire l'article
Intel, AMD et les processeurs 64 bit

Intel, AMD et les processeurs 64 bit

par Michael Otey
Prolongeant leur rivalité dans le domaine des puces 32 bit à  la prochaine génération informatique, Intel et AMD prévoient de sortir de nouveaux processeurs 64 bits compatibles x86 en 2001. Mais les deux grands rivaux ont adopté des voies différentes pour leurs prochaines générations de processeurs. Tout comme le bond en avant de puissance obtenu lorsque la plate-forme PC a évolué pour passer du processeur 286 à  16 bits au 386 à  32 bits, le saut au 64 bits promet de faire grimper la technologie PC vers de nouveaux sommets dans l'entreprise. Certes les processeurs 64 bits ne feront pas se calculer plus vite les tableaux Excel, ni tourner plus vite la plupart des autres applications. Mais les nouveaux processeurs répondront à  l'éternel besoin d'augmentation de la puissance du processeur qu'exprime l'informatique haut de gamme. Ce sont les stations graphiques haut de gamme et les grands systèmes de bases de données, tels que Microsoft SQL Server et Oracle, qui bénéficieront le plus directement des nouveaux processeurs. Les sociétés .com (prononcer " dot com ") et le nombre croissant d'applications d'aide à  la décision et de data warehouse sont généralement les forces motrices à  l'origine de la croissance massive des bases de données. Ces applications tireront moins parti des augmentations de vitesse brute des processeurs, que d'une plus grande capacité d'adressage de la mémoire. Les applications de bases de données en particulier sont terriblement gourmandes en RAM. Elles sont d'autant plus performantes qu'elles ont de la mémoire.

L'actuelle génération de processeurs 32 bits peut traiter en natif jusqu'à  4 Go (232 octets) de données. Sur ces 4 Go adressables, Windows 2000 Server réserve 2 Go de stockage pour son propre usage et en laisse 2 pour les applications. L'architecture EMA (Enterprise Management Architecture), que supportent Windows 2000 Advanced Server et Windows 2000 Datacenter, fournit deux méthodes pour étendre la quantité de RAM disponible pour les applications : 4 GT (4 GB RAM Tuning) et PAE (Physical Address Extension). 4 GT ajoute le commutateur /3GB au chemin ARC (Advanced RISC Computing) dans le fichier boot.ini pour permettre aux applications de gérer jusqu'à  3 Go de RAM. PAE utilise une fenêtre pour mapper des tranches de mémoire physique à  l'espace d'adressage virtuel d'une application et étendre la capacité d'adressage de la mémoire physique à  8 Go sur Windows 2000 Advanced Server et à  64 Go sur Windows 2000 Datacenter Server. (Pour en savoir plus sur le support EMA de Datacenter, voir l'article de Gregg Todd " Windows 2000 DataCenter : Microsoft vise la cours des grands ").
Les futurs processeurs 64 bits vont étendre considérablement la quantité de mémoire physique adressable disponible pour les systèmes haut de gamme. Les processeurs 64 bits d'Intel et AMD mettront la barre très haut, atteignant 16 exaoctets (EO), soit environ 18 milliards de gigaoctets (264 octets) - plus qu'il n'en faut, même pour les applications les plus massives d'aujourd'hui.

Les processeurs 64 bits ont en fait deux fonctions importantes. Outre la capacité d'utiliser 64 bits pour définir une adresse en mémoire, ils peuvent manipuler 64 bits de données simultanément. Etant donné que la capacité de manipuler 64 bits de données à  la fois dépend plus de la structure des bus que des processeurs, la tendance vers le traitement 64 bits va de pair avec d'importants progrès en matière de technologie des bus système.

Bien que partageant clairement un objectif commun, Intel et AMD ont choisi des chemins très différents pour atteindre leur destination

Lire l'article
Etablir des règles : le secret d’une parfaite intégrité

Etablir des règles : le secret d’une parfaite intégrité

par Carol Woodbury
S'assurer l'intégrité de ses collaborateurs et fournisseurs à  travers une politique de sécurités d'entreprise claire Avez-vous déjà  joué à  un jeu de cartes sans en connaître toutes les règles ? Le jeu commence, et soudain un joueur avance une carte qu'un autre considère comme interdite. Il s'ensuit une discussion houleuse pour déterminer celui qui a raison. Le jeu se termine souvent prématurément, et personne ne s'est amusé. Pour ma part, je préfère jouer à  un jeu de cartes dont tous les joueurs connaissent les règles. En sachant à  quoi s'attendre, on évite les discussions, et tout un chacun a les éléments pour gagner.

Gérer une entreprise sans politique de sécurité revient à  jouer à  un jeu de cartes dont personne ne connaîtrait les règles. Tout se passe peut-être bien au début, mais qu'advient-t-il si par exemple l'administrateur Web autorise des téléchargements FTP dans les deux sens, vers et à  partir du serveur Web ? Le responsable de la sécurité réprimandera l'administrateur Web. Sans une réelle politique de sécurité, rien ne permet de déterminer si les règles de la société permettent de faire des téléchargements vers le serveur Web. La querelle éclate, les esprits s'échauffent, l'administrateur Web estime que c'est à  lui d'autoriser les téléchargements vers le serveur Web. L'administrateur de sécurité pense au contraire que c'est de son ressort. Qui a raison ?

Une politique de sécurité est un document vital pour l'entreprise

Une politique de sécurité est un document vital pour l'entreprise. Il liste les règles et procédures de mise en oeuvre des sécurités. La conception de cette politique de sécurité d'entreprise est un acte de gestion primordial, tout aussi important que la politique salariale. Une fois la politique mise en place, il est possible d'analyser une proposition de nouveaux procédés ou méthodes, et de voir si elle s'inscrit dans les règles. Une politique de sécurité peut ainsi régler les différends et éviter des luttes de pouvoir.

La politique de sécurité présente un autre avantage : elle aide à  conserver la " mémoire de l'entreprise ". La rotation du personnel peut faire des ravages dans un service informatique si personne n'a répertorié les politiques et procédures en vigueur. Enfin, une politique de sécurité fournira une documentation officielle s'il fallait un jour avoir recours à  la justice pour non-respect des règles.

On peut rassembler toutes les politiques de sécurité dans un même document ou bien créer un document couvrant les politiques de sécurité générales et lui adjoindre des annexes décrivant les règles propres à  chaque système d'exploitation comme l'OS/400 et AIX.

Il n'existe pas de politique de sécurité unique convenant à  toutes les entreprises

Lire l'article
De gré ou de force, les constructeurs adoptent une stratégie Linux

De gré ou de force, les constructeurs adoptent une stratégie Linux

par René Beretz
A l'heure de l'adoption de Linux en entreprise, la stratégie des constructeurs informatiques évolue considérablement. La stratégie des constructeurs informatiques envers les systèmes d'exploitation a changé. Les systèmes propriétaires n'ont plus le vent en poupe et la plupart des sociétés vantent les standards. Mais du discours à  la réalité, il reste du chemin à  parcourir. Ne serait-ce que dans le monde Unix, il reste des différences bien réelles et une concurrence effective entre AIX d'IBM, HP-UX de Hewlett-Packard ou Solaris de Sun. Les constructeurs ont cependant sauté sans trop d'états d'âme sur la vague Linux qui a rattrapé également les groupes de travail qui se préoccupent de convergence d'Unix. Il est fort probable que l'avenir des différents Unix va donc dépendre de cet outsider.
De fait, poussés par l'engouement des développeurs, les entreprises commencent à  adopter Linux et il devient donc essentiel pour les constructeurs d'être présents sur ce créneau. En outre, il leur offre l'opportunité de se repositionner sur le marché de l'éducation et sur certains marchés étrangers.

Les constructeurs ont cependant sauté sans trop d'états d'âme sur la vague Linux

L'attitude des constructeurs oscille entre deux extrêmes : certains ont élaboré une vraie stratégie Linux : ils ont adopté une attitude dynamique qui devance le marché : c'est le cas, en particulier, d'IBM, de Hewlett-Packard et de Silicon Graphics.
D'autres sociétés se contentent de proposer des solutions Linux pour répondre aux attentes de leurs clients : c'est le cas de Compaq ou de Dell. Entre les deux, Sun accompagne le mouvement tout en protégeant ses acquis.

Lire l'article
Mettre en place des stratégies d’accès distant

Mettre en place des stratégies d’accès distant

par Douglas Toombs
Il y a 5 ou 6 ans, deux grands acteurs s'affrontaient autour d'une proie alléchante, baptisée « part de marché ». Celle qui remporterait la plus grosse part serait adorée par les richissimes habitants consensuels d'un pays mystique répondant au nom implacable de Wall Street. A l'époque cette part était entre les griffes de Novell et Microsoft la convoitait. Ceux de nos lecteurs qui fréquentent l'univers de l'informatique depuis suffisamment longtemps pour se rappeler les premiers pas de Windows NT, savent que si Microsoft a pu glisser un pied dans la porte (y compris de certains comptes Novell purs et durs), c'est grâce à  l'ajout à  NT de services inexistants sur les autres plates-formes. A l'époque, un de ces cadeaux gratuits les plus connus fut le service d'accès à  distance RAS. Ses concurrents les plus acharnés étaient les périphériques matériels propriétaires et Novell NetWare Connect, mais leurs coûts de licences par port étaient très élevés.
Windows NT s'est lentement infiltré dans les organisations en introduisant l'un après l'autre des services gratuits répondant à  des besoins spécifiques des consommateurs. Malheureusement, bon nombre de ces " plus " n'ont pas atteint la même maturité que Windows NT au fil des ans. Malgré quelques améliorations à  chaque révision du système d'exploitation, RAS s'est avéré insuffisant dans certains domaines importants pour entreprises, en particulier pour ce qui est de gérer quel utilisateur peut se connecter à  un serveur RAS et à  quel moment. Le RAS de NT n'est pas étranger à  la sécurité des domaines et aux stratégies de comptes, mais les administrateurs veulent souvent pouvoir contrôler davantage les utilisateurs appelant de l'extérieur. Pour répondre à  leurs attentes, Microsoft a ajouté à  Windows 2000 Server des stratégies d'accès à  distance que RAS peut appliquer aux connexions entrantes.

Lire l'article
Initiation aux concepts de l’OO (Orienté Objet)

Initiation aux concepts de l’OO (Orienté Objet)

par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à  investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels. Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.

Lire l'article
Exceptionnels ! Les Gestionnaires d’exceptions du RPG !

Exceptionnels ! Les Gestionnaires d’exceptions du RPG !

par Gary Guthrie
Passez en revue les possibilités de traitement des exceptions en RPG. Et voyez comment les gestionnaires de conditions et d'annulation de ILE pallient certaines des limitations du RPG/400Dring . . . dring . . . .

"Informatique. Francis à  l'appareil."

"Salut, Francis. C'est André du Service Financier. Un message d'erreur est apparu sur mon terminal il y a quelques instants, et maintenant plus rien ne fonctionne correctement !"

D'une voix calme, Francis demande, "Quel était ce message ?"

"Quelque chose à  propos d'un fichier ayant quelque chose, ou quelque chose de ce genre, je pense" répond André avec confiance.

"Pas de problème, je m'en occupe" répond Francis. Puis elle raccroche le téléphone et murmure "Bien, bien".

 Vous avez sûrement déjà  entendu çà , n'est-ce pas ? Heure après heure et franc après franc, les ressources de l'informatique s'amenuisent dès lors que les programmeurs consacrent un temps précieux aux réparations, après le crash d'une application. Or, on peut éviter les coûts et les migraines entraînés par les problèmes applicatifs, en plaçant le traitement des exceptions en tête de la liste des considérations en matière de conception d'applications.

Il existe de nombreux types d'exceptions et leurs techniques de traitement diffèrent en fonction de leur type, du langage utilisé, et du l'environnement modèle de programme (OPM et EPM vs ILE). Je classerai donc les exceptions en trois groupes distincts :

  • Exceptions concernant les fichiers. Il s'agit d'erreurs, comme les I/O sur des fichiers non encore ouverts, des types d'enregistrement indéfinis, des erreurs de programmes triggers et des erreurs d'unités.

  • Exceptions concernant les programmes applicatifs. Ce sont des exceptions comme des erreurs d'index de tableaux invalides, les divisions par zéro et les erreurs lors de l'appel de sous-programmes. La liste des erreurs de programmes possibles est énorme.

  • Exceptions associées au système. Il s'agit d'événements comme des défaillances de lignes de communications, des programmes annulés par les utilisateurs et une défaillance du code du système d'exploitation.

            Le plus souvent, des techniques de coding appropriées empêchent ces exceptions de provoquer des fins anormales. Les exceptions associées au système sont les plus délicates, parce qu'on les maîtrise parfois fort peu au niveau applicatif. Il est ainsi impossible d'écrire un code suffisamment parfait pour qu'il évite toute erreur du système d'exploitation.

            Quant aux langages évolués (HLL), chacun d'entre eux possède ses propres mécanismes de traitement des erreurs. Le CL par exemple, utilise abondamment la commande MONMSG (Monitor Message) pour piéger les exceptions. Les gestionnaires d'exceptions du RPG comportent des indicateurs d'erreur ou l'extension E sur certai

Lire l'article
Accéder aux membres de fichiers

Accéder aux membres de fichiers

par Jef Sutherland
Comment gérer les membres de fichiers, et quelques astuces de programmation CL pour générer un nom de membre unique Dans un récent article, nous avons vu les chemins d'accès indexés pour fichiers physiques et logiques, et comment lire des enregistrements à  partir d'un fichier avec clé. Aujourd'hui, nous allons examiner un autre aspect des fichiers AS/400 : les membres de fichiers. Nous allons aussi évoquer quelques astuces de programmation CL pour générer un nom de membre unique.

Lire l'article
XML: langage d’avenir du commerce électronique

XML: langage d’avenir du commerce électronique

XML fait actuellement son apparition dans de nombreux projets de commerce électronique XML (Extensible Markup Language) jouera probablement un rôle primordial dans le développement du commerce électronique. Sa capacité à  décrire les données dans un format ouvert standard aidera les consommateurs à  rechercher des informations produits sur le Web et simplifiera les échanges de données interentreprises par Internet. A n'en pas douter, XML transformera radicalement la manière d'acheter des consommateurs et, plus particulièrement pour les entreprises, celle d'acheter et de vendre des biens.

Dans cet article, nous allons examiner l'impact de XML sur le e-commerce.
Pourquoi suscite-t-il autant d'intérêt ?
Comment s'assurer de participer au devenir de XML et du commerce électronique ?
Les entreprises qui sont actuellement en train de mettre sur pied des transactions HTML devraient commencer sans tarder à  envisager XML.

A n'en pas douter, XML transformera radicalement la manière d'acheter des consommateurs

Lire l'article
Compaq et DC : une histoire d’amour

Compaq et DC : une histoire d’amour

par Benoît Herr
On le sait, dans les offres tournant autour de Windows 2000 DataCenter (DC), service, logiciel et matériel sont intimement liés, ce triptyque se mettant au service de la haute disponibilité. Chez Compaq, l'un des acteurs majeurs de cette nouvelle offre, SYSTEMS Journal a rencontré Robert Vassoyan et Ilham Ouzzani, pour faire un point sur la stratégie du constructeur en la matière. Le programme Windows 2000 Datacenter de Compaq, tout comme les programmes équivalents de ses concurrents, est une solution de haute disponibilité complète, englobant le ou les serveurs, le système d'exploitation Windows 2000 Datacenter de Microsoft, les solutions de stockage, de clustering et d'administration, ainsi que les services d'accompagnement, et clés en main. Ce type de solution n'est commercialisé que par des constructeurs agréés par Microsoft, c'est-à -dire qui ont passé avec succès les tests HCT. Au moment où nous mettions sous presse, ils étaient au nombre de deux : Unisys et Compaq.
D'autres constructeurs sont cependant en cours d'agrément, et devraient arriver sur le marché courant 2001. Certains seront peut-être déjà  dans le circuit au moment où vous lirez ces lignes. Il s'agit de Hewlett-Packard et IBM, talonnés par Fujitsu-Siemens, Stratus, et Dell, et peut-être aussi par Bull, ICL, NEC et Amdahl.

La cible de ce nouvel OS, à  travers lequel Microsoft espère gagner enfin la crédibilité qui lui a jusqu'ici été refusée depuis l'annonce initiale de Windows NT, et des programmes DataCenter des différents constructeurs agrées est très clairement les entreprises ayant besoin de haute disponibilité, et qui ne peuvent pas se permettre d'assumer les coûts d'une interruption de service.
Autrement dit, un marché jusqu'ici réservé aux gros Unix, mainframes, et autres systèmes "propriétaires", comme l'AS/400. Microsoft avoue d'ailleurs humblement son absence de ce marché, puisqu'elle représente selon ses propres dires 1,3% du nombre des serveurs d'entreprise de plus de 100.000$. Lorsqu'on traduit cette présence en chiffre d'affaires, le ratio tombe carrément à  0,5%.
Inversement, ces chiffres signent également le formidable potentiel de développement pour la firme de Redmond sur ce marché. A condition toutefois de se montrer à  la hauteur des attentes des entreprises, qui se proposent là  de lui confier leurs applications vraiment critiques. Mais à  en juger par la façon d'appréhender le problème de Microsoft, tout laisse à  penser que le succès devrait être au rendez-vous.

Au delà  de sa position de précurseur, aux côtés d'Unisys, Compaq, qui équipe l'ensemble des filiales Microsoft à  travers le monde, occupe une place un peu privilégiée dans son partenariat avec Microsoft. Nous avons demandé à  Robert Vassoyan, Directeur Industry Standard Server Division chez Compaq France pour la partie offre matérielle et logicielle, et à  Ilham Ouzzani, Chef de Produit Business Critical Marketing & Développement des Ventes pour la partie services de nous en dire plus.

La cible de ce nouvel OS et des programmes DataCenter des différents constructeurs agrées est très clairement les entreprises qui ne peuvent pas se permettre d'assumer les coûts d'une interruption de service

Lire l'article
Les Bugbusters de Rochester

Les Bugbusters de Rochester

par Joanna Moore
A Rochester, une armée de clients en bêta-test traque les imperfections dans le nouveau matériel et logiciel avant que l'utilisateur final ne les découvre.

Lire l'article
Protocoles de sécurité : un état des lieux

Protocoles de sécurité : un état des lieux

par Mel Beckman
Sécurisez vos transactions électroniques en suivant de près l'évolution des protocoles de sécurité du commerce électronique Lorsque le protocole SSL (Secure Sockets Layer) est arrivé sur le marché il y a 6 ans, les experts y ont vu la solution au problème de sécurité du commerce électronique. Et il est vrai que SSL a beaucoup contribué à  rassurer les internautes utilisant leurs numéros de cartes de crédit pour les achats en ligne, faisant ainsi exploser les ventes grand public sur le Web. SSL remplit bien sa fonction de cryptage des données circulant entre l'acheteur et le vendeur, pour déjouer l'interception par les voleurs des informations contenues sur les cartes de crédit.

Si la sécurité du commerce électronique se limitait à  cela, SSL aurait donc résolu la totalité des problèmes. Mais si la protection des numéros de cartes de crédit et d'autres informations sensibles dans les transactions HTTP est le problème le plus visible, ce n'est que le sommet de l'iceberg. Toutes les composantes d'une transaction de paiement électronique ne passent pas par HTTP. Le vendeur peut utiliser d'autres protocoles (courrier électronique, FTP (File Transfer Protocol), LDAP (Lightweight Directory Access Protocol) par exemple) comme moyen de règlement et pour s'assurer que l'argent aboutit bien dans son compte en banque. Une fois le numéro de carte de crédit reçu par le vendeur, il faut valider le numéro, faire approuver l'achat par l'organisme émetteur de la carte, et débiter l'organisme financier de l'acheteur (figure 1).
L'ensemble du processus de transaction n'a pas de protection standard. Pis encore, une faille du dispositif de sécurité peut intervenir dans l'une des étapes suivant la commande HTTP sans que l'acheteur n'en ait connaissance. Les acheteurs en ligne se croient donc plus en sécurité qu'ils ne le sont réellement.

Heureusement, les standards des protocoles Internet sont en train de changer pour combler ces lacunes en matière de sécurité. Malheureusement, ils ne changent pas assez vite et aucun standard de sécurité à  lui seul ne répond aujourd'hui à  tous les besoins. SSL est en train de devenir un transport multiprotocoles et a été rebaptisé TLS (Transport Layer Security) mais son adaptation au cryptage autre que HTTP pose des problèmes. L'autre principal protocole de sécurité, SET (Secure Electronic Transactions), est très efficace mais tellement lourd à  mettre en oeuvre que peu d'entreprises l'utilisent.

Pour arriver à  une bonne sécurité des transactions, il est important de bien comprendre les avantages et les limites de chaque protocole. De plus, une petite connaissance de l'historique de chaque protocole donne un peu plus d'éclairage et peut aider à  choisir le cryptage le mieux adapté au commerce électronique. Enfin, il est bon de savoir ce que l'AS/400 propose dans ce domaine.

Lire l'article
HPRIM-NET : le premier Intranet  médical  développé sous Linux

HPRIM-NET : le premier Intranet médical développé sous Linux

par Catherine China
Intranet privé de transmission de résultats médicaux, HPRIM-NET est destiné aux médecins et laboratoires d'analyses. Souplesse des développements, réduction des coûts, fiabilité du système d'exploitation : autant d'arguments qui ont joué en faveur de l'adoption de Linux par Nagora Communication, la Web agency , chargée de sa mise en oeuvre. Epaulé par l'association HPRIM , le corps médical oeuvre en faveur du développement d'intranets de santé privés, pour choisir librement son système de transmissions de FSE (Feuilles de Soins Electroniques).
C'est ainsi, qu'est né en 1998, le projet de serveur HPRIM-NET du groupe Expand Santé. "Le Réseau Santé Social, intranet d'état, ne disposait pas d'outil de diffusion de résultats d'analyses médicales. Notre objectif était, via cet intranet privé, de permettre aux médecins de récupérer des résultats d'analyses de manière souple, tout en assurant le support du protocole de transmission Kermit utilisé par les laboratoires d'analyses." explique Kevin de Beil, chef de projet chez Nagora Communication, société chargée du développement de la solution. En mai 1998, une première maquette de l'application voit le jour sous Linux.

Un an plus tard, cette maquette est testée avec la participation d'une vingtaine d'éditeurs de logiciels de gestion de cabinet médicaux (Coccilog, Apsisanté…) "Nous avons ensuite développé une nouvelle maquette du serveur HPRIM à  grande échelle, avant de rentrer en phase d'exploitation en janvier 2000." assure Kévin de Beil.

Objectif du projet.
Développement d'une application d'intranet médical sous Linux respectant les spécificités des télétransmissions aux normes Kermit/HPRIM.

Grâce à  la souplesse de Linux et à  la disponibilité gratuite de tous les protocoles de communication, nous avons pu partir sur une maquette technique, l'arrêter en cours de route, repartir sur une autre alternative

Coûts et bénéfices de la solution

Coûts :
Le coût de développement de la solution (y compris le support hot line des éditeurs de logiciels médicaux) a été d'environ 600 kF, soit l'équivalent d'une année-homme.
Coût de la formation Linux par Erian- Concept : environ 45.000 Francs.

Bénéfices :
- Souplesse de développement grâce à  la disponibilité gratuite des codes sources et des protocoles de communications
- Réduction des coûts de développements.
- Simplicité de l'administration.

Nagora Communication : fiche d'identité
Agence Internet spécialisée dans la communication multimédia et la création de sites Web, appartenant au groupe Nagora.

Effectif groupe 1999 : 85 personnes
Siège à  Paris et support de production à  Nice

Lire l'article
Bienvenue dans le 21ème siècle

Bienvenue dans le 21ème siècle

par Carson Soule
Maintenant que l'an 2000 est quasiment derrière nous et que nous entrons dans le 21ème siècle et le nouveau millénaire, je souhaiterais me retourner un instant sur 2000 et me demander "Que s'est-il passé ?" Mais peut-être devrais-je me demander " Que ne s'est-il pas passé ?"

Lire l'article
Optimiser les performances batch de l’AS/400

Optimiser les performances batch de l’AS/400

par Rick Turner
Structurer les applications et optimiser l'environnement d'exécution batch pour une efficacité maximale Au cours des derniers mois, je suis intervenu sur certains sites AS/400 qui devaient multiplier par cinq voire même 50 leur charge de travail batch en back office. Le premier cas concernait une application de paie devant traiter 500.000 employés alors qu'elle en traitait 100.000 auparavant. Pour le deuxième cas, il s'agissait d'une banque qui, par suite d'un regroupement, devait passer de 600.000 comptes à  30 millions. Dans les deux cas, le traitement des nouvelles charges de travail devait être effectué dans le même laps de temps qu'auparavant.

Pour atteindre leurs objectifs au niveau des temps de traitement, ces clients devaient modifier leurs programmes applicatifs pour qu'ils exploitent au mieux la puissance de l'AS/400. La méthode consistait à  utiliser plusieurs copies des jobs de traitement, chacune travaillant sur des parties distinctes des données en entrée, pour effectuer davantage de travaux dans le même temps et en mettant davantage la CPU à  contribution. C'est tout à  fait possible puisque l'AS/400 traite parfaitement plusieurs jobs à  la fois.

Pourtant, malgré les modifications, les utilisateurs ne parvenaient pas toujours à  pousser le débit de leurs applications batch jusqu'aux limites des ressources du système. Et donc, ils ne pouvaient pas tenir les délais alloués. D'où leur question, "Comment effectuer beaucoup plus de travail dans un laps de temps identique?"

On peut apporter deux éléments de réponse : Utiliser au maximum la CPU et utiliser le disque jusqu'aux plus hautes valeurs de seuil recommandées. Cet article explique quelques méthodes de traitement susceptibles d'améliorer le débit d'un travail en batch. Je propose quelques idées générales sur la manière de structurer une application et de créer un environnement d'exécution optimal (pour le matériel et le logiciel), afin de réaliser le maximum de travail utile dans le minimum de temps.

Lire l'article
Révolutionnez vos messages d’erreur avec les sous-fichiers de messages

Révolutionnez vos messages d’erreur avec les sous-fichiers de messages

par Mike Cravitz
Voici deux méthodes interactives, informatives et simples à  utiliser pour présenter des messages d'erreurVous est-il déjà  arrivé de ne pas vous souvenir de ce que quelqu'un vous avait dit, parce que l'information n'avait aucun sens ? De nombreux programmeurs AS/400 éprouvent la même chose avec les sous-fichiers de messages d'erreur. Souvent, quelqu'un (un consultant peut-être) fait irruption sur un site, installe des sous-fichiers de messages d'erreur dans l'un des programmes, puis disparaît. Les programmeurs qui viennent derrière cessent parfois d'utiliser les sous-fichiers, jugeant que cette technique n'a pas de sens.

Les sous-fichiers de messages d'erreur utilisent certainement des aspects de l'OS/400 (en particulier la messagerie) généralement mal maîtrisés par le programmeur AS/400 moyen. Mais leurs avantages (messagerie d'erreur plus interactive, informative et professionnelle pour les utilisateurs finaux) justifient les efforts consacrés à  les apprendre. Dans cet article, j'entends bien lever le mystère entourant les sous-fichiers de messages, pour que vous n'hésitiez plus à  en doter vos applications.

Les sous-fichiers de messages d'erreur utilisent des aspects de l'OS/400 généralement mal maîtrisés 

Lire l'article
Personnalisez SEU !

Personnalisez SEU !

par Vincent Taquin
Les commandes définies par l'utilisateur permettent d'optimiser l'éditeur de fichiers sources de l'AS/400L'utilitaire d'édition de sources de l'AS/400 (SEU : Source Entry Utility) n'est peut être pas le meilleur éditeur au monde, mais pour la plupart d'entre nous, c'est le seul disponible. Heureusement, depuis la V4R2, il est possible de personnaliser cet utilitaire en ajoutant des commandes à  celles déjà  fournies par SEU. Dans le présent article, j'explique comment créer des commandes définies par l'utilisateur pour SEU, et fournis plusieurs exemples de ces commandes. Les exemples fournis permettent d' : · appliquer une couleur (bleu, rose, rouge, turquoise, blanc, ou jaune) à  une ligne ou un bloc de lignes dans un membre source · effacer n caractères à  droite ou à  gauche d'un bloc de lignes · scinder le Facteur 2 étendu d'une ligne de calcul RPG ILE ou de scinder une ligne de commentaires En plus d'apporter de nouvelles fonctionnalités à  SEU, ces commandes donnent l'occasion de travailler avec les espaces utilisateur, les pointeurs, les programmes de service et les variables exportées.

Lire l'article
Windows 2000 et le TCO : les chiffres

Windows 2000 et le TCO : les chiffres

par Barrie Sosinsky
Des études récentes d'analystes sur le coût total de possession de Windows 2000 ont fait couler beaucoup d'encre. Le Gartner Group affirme que Windows 2000 est trop cher, tandis que le Giga Information Group prétend que c'est un investissement rentable. Les différences d'appréciation tiennent à  l'étude elle-même.

Lire l'article