
XML : au delà des frontières
par Sharon L. Hoffman
Comment étendre les possibilités de description de fichiers des DDS aux environnements
hétérogènes
Les développeurs AS/400 se passionnent pour XML (Extensible Markup Language) parce
que ce langage promet de régler deux problèmes pressants : échanger des informations
entre applications disparates, et insérer des données complexes dans des pages
Web. Comme l'AS/400 est avant tout un moteur de base de données, ces problèmes
intéressent tout particulièrement les développeurs AS/400.
Certes, le problème de l'échange d'informations n'est pas nouveau. Mais il s'accentue
dès lors qu'on partage de plus en plus de données avec ses clients et fournisseurs.
La prolifération des bases de données internes et des applications (depuis les
répertoires d'adresses sur chaque PC jusqu'aux applications de business intelligence
complexes), suscite de nouvelles demandes pour l'échange de données entre programmes.
La nécessité d'insérer des données complexes dans des pages Web est le corollaire
de la large utilisation d'Internet et, plus particulièrement, du développement
d'applications de e-commerce.
Au fur et à mesure que les sites Web deviennent plus sophistiqués, les pages HTML
statiques sont de moins en moins pratiques. Les développeurs Web adoptent des
outils comme Java et XML pour rendre les pages Web plus dynamiques et pour limiter
les traitements manuels nécessaires pour des transactions Web, comme des demandes
d'informations et des achats en ligne.
Plutôt que d'expliquer dans le détail les techniques et standards de coding XML,
voyons plutôt la relation entre XML et les langages de définition de données,
comme SQL et DDS, et les outils et technologies nécessaires pour utiliser XML
efficacement. (Pour avoir un bref aperçu de XML, voir l'encadré " XML : Vue d'avion
".)
A la base de toute discussion sur l'échange de données, on trouve l'encodage
des métadonnées

Quand faut-il utiliser SQL plutôt que RPG ou CL ?
par Jef Sutherland
Pendant très longtemps, RPG et CL ont été les seuls (ou les meilleurs) outils
dont disposait un programmeur AS/400 pour traiter toutes les tâches de développement.
Nous disposons aujourd'hui, de nombreux outils et langages, parmi lesquels il
est possible de choisir, et notamment, Visual Age for RPG, Net.Data et SQL.
Dans le présent article, j'explique comment utiliser SQL pour résoudre quelques-uns
des problèmes courants résolus auparavant à l'aide d'un programme RPG ou CL. Je
pense qu'il est facile de comprendre comment l'ajout de SQL à la boîte à outils
de développement peut faire gagner du temps.
On peut résoudre le problème avec une simple instruction SQL

Microsoft Application Center 2000
par Tao Zhou
Pour lancer un site Web majeur, la question de sa disponibilité et de ses performances
est une considération essentielle à prendre en compte. La mise à l'échelle (ou
scaling) matérielle ou logicielle sont des stratégies possibles pour traiter les
problèmes de disponibilité et de performances. La première consiste à installer
un système multiprocesseur robuste et évolutif, par exemple un serveur à 8 voies
avec des composants matériels redondants, comme serveur Web. La seconde permet
de mettre en miroir le contenu Web sur plusieurs serveurs Web formant un cluster.
Les serveurs en cluster peuvent avoir des configurations matérielles différentes
: combinaison de systèmes anciens et nouveaux, de systèmes lents et rapides.
Au fur et à mesure que le trafic augmente sur le site, il est possible d'ajouter
des machines au cluster. Pour mettre en oeuvre le scaling logiciel, vous pouvez
utiliser un équilibreur de charge de serveur Web (également baptisé équilibreur
de charge IP), logiciel qui dirige un client vers le serveur Web le moins occupé
ou le plus approprié parmi plusieurs serveurs prenant en charge un contenu en
miroir. Par exemple, pour équilibrer et basculer le trafic du client vers un serveur
Web en cas d'incident, vous pouvez utiliser des produits comme le service NLB
(Network Load Balancing) pour Windows 2000 ou WLBS (Windows NT Load Balancing
Service) de Microsoft, le commutateur Web de Cisco Systems, ou celui de Nortel.
Bien que la mise à l'échelle logicielle soit plus facile à adopter et donne plus
de flexibilité aux applications Web, que celle matérielle, il n'est pas facile
de gérer le contenu et les applications Web entre plusieurs serveurs. Tous les
changements apportés au contenu et aux composants applicatifs doivent être déployés
sur tous les serveurs. Si le contenu des serveurs n'est pas en miroir, les utilisateurs
obtiendront des résultats différents des serveurs d'un même site Web. En cas de
panne des serveurs d'un cluster, un équilibreur de charge de serveur Web peut
rediriger les requêtes des clients vers des serveurs en bonne santé. Mais il faut
tout de même un outil pour surveiller la santé et les performances des serveurs
Pour faciliter la gestion des sites Web et des applications, Microsoft a développé
Application Center (AppCenter) 2000, qui peut synchroniser le contenu du Web et
déployer des applications COM+ entre plusieurs serveurs d'un cluster. AppCenter
peut surveiller et communiquer l'état de santé et les performances des serveurs
et du cluster. Outre l'utilisation de NLB pour équilibrer la charge des serveurs
Web, AppCenter supporte le service CLB (Component Load Balancing), que Microsoft
a retiré de Windows 2000 après la RC1 (Release Candidate 1) de la beta 3. Le service
CLB peut équilibrer la charge du niveau médian (c'est-à -dire le niveau logique
d'entreprise) des applications Windows à plusieurs niveaux. Nous allons voir comment
installer et tirer parti de la capacité d'AppCenter à mettre en cluster, équilibrer
la charge, et surveiller l'état de santé et les performances des serveurs Web.
Application Center 2000 peut synchroniser le contenu du Web et déployer
des applications COM+ entre plusieurs serveurs d'un cluster

Utiliser les MODS pour organiser et stocker des données
par Jef Sutherland
Qui utilise les MODS dans les applications RPG III ? (à‡a y est, encore une abréviation
!) Les structures de données à occurrences multiples (en anglais, multiple-occurrence
data structures ou MODS) sont des outils efficaces mais assez peu utilisés en
RPG. Dans le présent article, nous couvrirons les principes de base de la déclaration
des MODS et la manière d'écrire et d'extraire des informations dans des structures
de données de ce type. Dans un prochain article, nous analyserons un sujet plus
pointu : l'utilisation des MODS pour extraire et afficher des enregistrements.
Pour déclarer une MODS, il faut créer une structure de données classique puis préciser le nombre d'occurrences

Peut-on vivre sans Active Directory ?
par Mark Minasi
Si vous n'avez pas encore entamé votre migration vers Active Directory (AD), vous
n'êtes pas seuls. Les entreprises semblent actuellement se poser la question suivante
: « Nous voulons bénéficier de toutes les fonctions améliorées de Windows 2000,
et nous irons vers AD, mais la mise en oeuvre d'Active Directory semble être une
première marche bien haute à franchir dans le déploiement de Windows 2000. Que
se passerait-il si nous procédions au déploiement de Windows 2000 sur les postes
de travail et sur les serveurs membres et que nous attendions pour déployer AD
plus tard ? Que perdrions-nous à cela ? »

Utiliser IPSEC pour protéger les ressources du LAN
par Paula Sharick
Les attaques contre les ordinateurs sévissant sur l'Internet sont très médiatisées,
ne serait-ce que parce qu'elles provoquent souvent une interruption de service
pour des millions d'utilisateurs. Mais les malveillances à l'encontre des données
d'une entreprise provenant de l'intérieur d'un réseau bénéficient de beaucoup
moins de publicité, même si elle provoquent au moins autant de dégâts que celles
venant d'Internet.
Les entreprises divulguent rarement des statistiques sur les sabotages internes
à l'encontre des réseaux ; reconnaître cette délinquance revient à déclarer l'incapacité
de l'informatique de l'entreprise à sécuriser correctement les informations sensibles.
Windows 2000 offre deux méthodes pour sécuriser l'accès aux données sensibles
: les protocoles de tunneling (qui protègent un paquet TCP/IP en l'encapsulant
dans un autre paquet TCP/IP, un peu comme quand on glisse une lettre dans une
enveloppe), et IPSec (IP Security). Celles-ci peuvent réduire et éventuellement
éliminer une bonne partie des atteintes internes à la sécurité, y compris le vol
et la modification non autorisée des données. PPTP ou L2TP (Layer 2 Tunneling
Protocol) sont les deux protocoles de tunneling proposés au choix pour sécuriser
les connexions entre clients et de client à serveur. L2TP présente l'avantage
d'interopérer avec IPSec.
IPSec se compose d'une architecture et de deux protocoles : AH (Authentification
Header) et ESP (Encapsulating Security Payload) pour sécuriser les connexions
LAN et WAN dans un réseau en mode Windows 2000 natif ou en mode mixte. Après avoir
déterminé les conditions requises pour une connexion sécurisée spécifique, il
convient de définir une stratégie IPSec pour les mettre en oeuvre, puis d'activer
cette stratégie sur les ordinateurs aux deux extrémités de la connexion. Windows
2000 comporte des stratégies intégrées qui aident à imposer des communications
à sécurité élevée, moyenne ou faible, et sont suffisantes dans de nombreux cas
de sécurité de réseau ordinaires.
Les stratégies intégrées ne couvrent toutefois pas tous les scénarios de sécurité
communs, et il importe donc de comprendre comment définir et tester une stratégie
personnalisée. Voyez l'encadré " Créer et tester une stratégie personnalisée "
pour un exemple de stratégie IPSec imposant une communication cryptée sécurisée
entre des systèmes Windows 2000 qui ne sont pas membres d'un domaine Windows 2000.
La lecture de cet article vous apportera les connaissances nécessaires pour implémenter
des connexions IPSec pour les membres des domaines Windows 2000, les serveurs
autonomes Windows 2000 et les serveurs Windows 2000 dans un domaine Windows NT
4.0.
Les stratégies intégrées ne couvrent pas tous les scénarios de sécurité
communs

Les bizarreries d’Active Directory
par Mark Minasi
Alors qu'Active Directory sort des laboratoires de test pour faire ses premiers
pas dans le monde réel, on découvre certains petits soucis des premières générations
du service d'annuaire de Windows 2000. Certains sont mineurs, mais d'autres ne
le sont pas. Voici un petit aperçu de quatre de ces bizarreries.

Les métadonnées
par Scott Steinacher
Ces " données concernant les données " sont indispensables à la structuration de tout data-warehouse.Pouvez-vous imaginer
à quel point il serait difficile, sans catalogue, de trouver un livre dans une
bibliothèque? Bien que les bibliothèques rangent les livres de manière
logique (par sujet, par exemple), il serait presque impossible de trouver un
ouvrage spécifique sans consulter d'abord un catalogue. Et bien, de la même
manière que les catalogues permettent aux lecteurs de trouver rapidement des
livres dans les bibliothèques, les métadonnées permettent aux utilisateurs de
retrouver facilement des données dans des entrepôts de données. Les entrepôts
de données d'applications complexes sont constitués de nombreux composants.
Sans métadonnées, les utilisateurs finaux ne peuvent pas trouver efficacement
les informations dans ces systèmes, pas plus que le personnel informatique ne
peut les maintenir correctement.
Les métadonnées permettent aux utilisateurs de retrouver facilement des données dans des entrepôts de données
Le terme de métadonnées est couramment défini comme “ des données concernant les données ”. Bien que les métadonnées décrivent essentiellement le schéma de la base de données et les données individuelles, elles ont aussi une autre utilisation importante. Outre les données, les métadonnées décrivent également les règles de gestion, les processus opérationnels, les procédures de transformation de données et, plus généralement, toute fonction servant à créer et à maintenir des données. Ces deux genres de métadonnées --que j'appelle métadonnées techniques et métadonnées de gestion—sont des composants critiques des entrepôts de données.
Bien que les métadonnées soient généralement associées aux systèmes informatiques, leur utilisation ne se limite pas au domaine des technologies de l'information. Comme je viens de le dire, les métadonnées sont au coeur de toute bibliothèque. En fait, la plupart d'entre nous accèdent à des métadonnées et en manipulent chaque jour, sans en être conscients. Outre les catalogues, il faut savoir que les annuaires téléphoniques, les index des magazines, les tables des matières et les listes de rues accompagnant les plans de villes, constituent aussi des référentiels de métadonnées. Au sens élémentaire, ces structures contiennent des informations sur des données. Considérons à nouveau le catalogue d'ouvrages, sous forme physique ou électronique. Ce système de classement spécialisé contient des informations sur les livres, périodiques, magazines et journaux. Dans les catalogues, on trouve les données suivantes : titres, descriptions, dates de publication, auteurs, numéros d'ISBN et emplacement sur les rayonnages. Sans un tel catalogue, les lecteurs ne sauraient pas quelles données (quels livres par exemple) existent dans une bibliothèque, pas plus qu'ils ne sauraient où se trouvent les données. Les catalogues sont des référentiels de métadonnées particulièrement efficaces, parce qu'ils respectent une norme d'indexation largement reconnue, comme le système de classification “ Dewey Decimal ” ou “ Library of Congress ”, grâce auxquels les lecteurs peuvent trouver des données dans l'ensemble des bibliothèques des Etats-Unis.
Vous vous doutez bien que les structures de métadonnées abondent dans le domaine des technologies de l'information. Dictionnaires de données, diagrammes de flux de données, spécifications de descriptions de données (DDS, Data-Description Specifications), listes de bibliothèques, descriptions d'objets, aide en ligne, job logs, commentaires de programmes, manuels de référence, définitions de requêtes, noms de zones, noms de fichiers et fichiers de référen
Lire l'article
Comment diviser la charge de ses projets par trois
par François Rihen
Paul Dequidt Torréfacteur solde sa mise en conformité AN 2000 avec les briques
logicielles de F.I-T, tout en réduisant les charges initialement prévues et en
identifiant des solutions d'avenir.
Vendre à distance ? La Société Paul Dequidt Torréfacteur n'a pas attendu Internet
pour promouvoir ses produits. Depuis le début des années 80, Paul Dequidt parcourt
sans cesse le monde à la recherche d'arabicas précieux et de mokas rares, issus
des meilleures plantations de caféiers. Oui, c'est bien de café dont on parle.
Et désormais, l'entreprise fait chaque jour le bonheur de milliers de clients
; les paquets rouge et or de Paul Dequidt Torréfacteur sont distribués à travers
tout l'hexagone.
La vente par correspondance a depuis bien longtemps dompté l'énergie informatique
pour utiliser au mieux les informations dont on dispose, et ce sont des milliers
de courriers qui partent régulièrement de Wormhout (59), siège de l'entreprise.
Comme beaucoup d'entreprises, Paul Dequidt Torréfacteur a été atteint par le virus
de ces derniers mois : l'AN 2000, bien sûr.

iSeries : déjà de retour
par Benoît Herr
Le point et quelques précisions sur les annonces IBM du 3 octobre, dont le dernier
numéro de NEWSMAGAZINE se faisait déjà l'écho
Quelle meilleure transition entre NEWSMAGAZINE et SYSTEMS Journal que cette annonce
Serveurs IBM du 3 octobre dernier ! Et pourtant, il n'y a eu aucune concertation
entre Big Blue et l'organe de Presse indépendant que nous sommes.

Faire coexister Windows 2000 et Windows NT 4.0
par Paula Sharick
Il y a quelques mois, je me suis posé la question de savoir si Windows 2000 et
NT 4.0 pouvaient coexister. Après avoir testé un environnement mixte Windows 2000
et Windows NT 4.0, j'ai fait part de mes expériences et j'ai eu l'agréable surprise
de constater que les deux technologies fonctionnent bien ensemble. Vous envisagez
peut-être de migrer, mais vous avez besoin de quelques conseils ? Jetons donc
un coup d'oeil sur les raisons de migrer, les principales différences entre les
plates-formes et quelques astuces pour une migration en toute confiance.

Traduction des logiciels : vers une meilleure compréhension
par John Ghrist
Quel est l'un des plus grands obstacles aux ventes de logiciels américains sur
les marchés internationaux ? La langue, bien sûr. Bien que reconnu comme une langue
internationale, l'anglais n'est en fait pas aussi universel que cela.
Sur les marchés extérieurs aux pays anglo-saxons, les logiciels ne proposant que
des interfaces en anglais ont un net handicap, même s'ils s'agit d'applications
plus performantes, tout simplement parce que la plupart des utilisateurs demandent
une interface leur permettant de travailler dans leur propre langue.
Pour un éditeur anglo-saxon, la solution logique est donc de fournir une version
des produits les plus stratégiques dans les différentes langues. Mais trouver
les personnes compétentes pour traduire des supports techniques comme des interfaces
utilisateurs, des fichiers d'aide et de la documentation relève de la mission
impossible. Faut-il s'allouer les services de traducteurs en interne ? Faut-il
avoir recours à des services de traduction ? Ou encore utiliser un logiciel de
traduction ? Et une fois le choix effectué, comment mesurer l'impact et la qualité
du travail, des outils et des services de la solution retenue ?
Mapics, Inc. (et les sociétés l'ayant historiquement précédée) est venue à bout
de ce problème, en diffusant avec succès à l'étranger une solution de gestion
industrielle réputée sur AS/400.
Le produit a d'abord été traduit dans quelques-unes des langues européennes
vers le milieu des années 80

Issu de Monterey, AIX 5 L rallie Caldera et les OEM Intel
par Mireille Boris
Le projet Monterey qui a réuni IBM, SCO et Intel pour le développement d'un Unix
64 bits standard donne naissance à un AIX 5 L. Volens nolens, tous les OEM Intel,
de Compaq à Unisys, vont supporter de l'AIX…IBM l'avait-il imaginé il y a un an?
Monterey a été le nom de code de l'action concertée entre IBM, SCO et Intel. Au
coeur du programme de développement, un Unix 64 bits dont AIX d'IBM, flanqué d'Unixware
de SCO et de Dynix ptx de Sequent, était l'élément le plus important. Objectif
: approcher en OEM les machines Intel.
Or, il s'est avéré que le nom le plus porteur était… AIX
Cet Unix collectif étant prêt à sortir en juillet dernier, il s'est agi de le
baptiser. Des agences de communication ont été consultées. Or, il s'est avéré
que le nom le plus porteur était… AIX. "Avec le succès du S80, AIX avait une image
très forte sur le marché", note Jean-Marc Ferré d'IBM. AIX 5, à cause de sa composante
Power PC dont l'AIX en était à la V4 et AIX 5 L pour bien indiquer que l'affinité
Linux est incluse dans cette nouvelle version. AIX 5L for Power, AIX 5L for IA
64 en attente de machines Itanium prévues pour le 10 octobre étaient disponibles
en août. Mais les 2000 machines 64 bits Intel en circulation étant toujours considérées
comme expérimentales et leur sortie en volume étant une fois de plus retardées
jusqu'en avril 2001, la décision fut prise de ne pas se presser. Aix 5.0L for
Power, 5.0L IA-64 restent des versions d'évaluation pour éditeurs. Les versions
de production d'Aix 5.1L for Power et for IA-64 sortiront en avril en même temps
que les serveurs Intel.
"Notre objectif premier est toujours un Unix standard, partagé par un marché plus
large, avec un Unix qui a déjà fait ses preuves sur Power", affirme Jean-Marc
Ferré. Rien de changé dans l'accord avec Intel, qui apporte de l'argent pour financer
les approches des éditeurs, ni dans l'adhésion d'un certain nombre de constructeurs.
Compaq a communiqué sur ce sujet. Les Proliant supporteront AIX. Il n'y a pas
d'autre alternative, Compaq ayant cessé de développer Tru64 sur plate-forme Intel.
SCO apporte à AIX 5 L un support constant. La stratégie de Caldera est de supporter
des plates-formes Linux 32 bits, mais la composante SCO est plus robuste. Il va
falloir un certain temps pour que Linux 64 bits monte en puissance de la même
manière.
Benoît Maillard, de SCO-Caldera, confirme : "La division Serveurs et Professional
Services de SCO est devenue Caldera Inc.. Le travail continue. Quand le nommage
de l'OS Monterey 64 a été décidé, le choix s'est porté sur AIX 5L, malgré une
petite résistance de la part de SCO. Mais prendre un nouveau nom aurait été perturbant
dans un marché Unix en phase de consolidation. La bannière AIX est haut de gamme,
ouverte, avec une connotation Linux. La filiation AIX est rassurante, et l'ouverture
multiplates-formes d'IBM réelle à tous les OEM du marché. Les OEM ont fait un
peu la tête. Mais le business Unix sur Intel est profitable. Le volume des ventes
de matériel avec SCO a dépassé les 4 milliards de $. Cela ne peut que continuer
vers le haut. Unisys, Dell, Compaq, Bull, Fujitsu ou encore Acer jouent dans la
pièce, et avalisent ce support. Plutôt que de fragmenter, ils participent à la
consolidation. "
Une partie importante du travail de Monterey a porté sur les applications. Oracle,
BEA, BMC, CA, Cygnus pour les outils de développement, IBM logiciel, JDEdwards,
I2, Informix, Software AG, Brio, Candle, Sybase, etc.., ont adopté la plate-forme
très tôt. Actuellement, un système accessible à distance depuis le Web est mis
en place pour les développeurs. De leur centre de portage, IBM et Bull reçoivent
les développeurs de logiciels avec représentation locale des programmes de recrutement
des partenaires. Des centres semblables utilisant des octoprocesseurs Intel ont
ouvert à San Mateo, dans le Massachussets, en Allemagne et en Angleterre. Le catalogue
de logiciels sera prêt en même temps que la V 5.1 et les machines Intel.
Les fonctionnalités NUMA et LPart sont inscrites dans AIX 5.0 L

La revanche des I/O
par Frank G. Soltis
Un système équilibré exige une mémoire et des entrées/sorties rapides
Depuis toujours, les entrées/sorties (I/O : Input/Output) ont été les parents
pauvres des modèles des systèmes informatiques. La vedette étant presque toujours
le processeur. Pourquoi ? A cause de la suprématie du Mégahertz (MHz), la mesure
des performances informatiques la plus répandue. Comme il est impossible de mesurer
la qualité du système des I/O d'un ordinateur avec des MHz, les concepteurs ont
le plus souvent ignoré cet aspect pour se concentrer sur les performances du processeur.
Après tout, c'est quand même le MHz qui fait vendre. Qui, devant un nouvel ordinateur
cherche à savoir quelle est la bande passante des I/O plutôt que les prouesses
en MHz du processeur ?
Pourtant, un ordinateur sans I/O, c'est comme une voiture sans roues, malgré toute
la puissance du moteur, elle n'ira pas loin. Au même titre que la mémoire, le
système des I/O détermine le temps de réponse et le débit de la plupart des ordinateurs.
Ce sont ces mesures qui intéressent le plus les clients, même si les concepteurs
de processeurs ne l'admettent pas.
La puissance des I/O pourrait alors bien devenir le seul critère distinctif
Heureusement, les choses sont en train de changer. Dans un futur proche, tous
les ordinateurs, des PC d'entrée de gamme aux superordinateurs les plus rapides,
utiliseront les mêmes briques de microprocesseur. La puissance des I/O pourrait
alors bien devenir le seul critère distinctif.
Même les concepteurs de processeurs commencent à prendre les I/O plus au sérieux.
C'est ainsi que les concepteurs de la prochaine génération de puces microprocesseur
PowerPC (appelées POWER4) mettent davantage en avant les largeurs de bande de
leurs nouvelles puces plutôt que leur performance en MHz. La situation s'est inversée,
et les I/O ont enfin leur heure de gloire. Et comme le système des I/O de la nouvelle
iSeries 400 est très différent de celui de l'AS/400, il convient d'examiner les
modifications apportées pour juger de leurs conséquences sur nos modèles de systèmes
futurs.

Les solutions de clustering de Microsoft
par Greg Todd
Au fil des ans Microsoft s'est efforcé d'étendre la capacité de montée en charge,
la disponibilité et la fiabilité de ses solutions serveurs. Le clustering est
un moyen éprouvé d'atteindre cet objectif et Microsoft l'a adopté en vue d'en
faire un élément à part entière de ses systèmes d'exploitation et de ses offres
produits. Avec la sortie de Windows 2000, les solutions de clustering de Microsoft
ont fait un bond en avant considérable vers la maturité.

Pour un contrôle d’accès efficace à Windows 2000 et NT
par Randy Franklin-Smith
La question la plus importante concernant la sécurité au sein du réseau interne
d'une entreprise consiste à se demander qui a accès et à quoi. Dans de nombreuses
entreprises, il manque une méthode cohérente pour contrôler l'accès à certains
fichiers. Des domaines contenant des dizaines de milliers de fichiers et de répertoires
peuvent avoir des dizaines de milliers d'utilisateurs.
Certains outils produisent un énorme rapport indiquant chaque fichier auquel un
utilisateur peut accéder, mais les administrateurs ont souvent du mal à faire
le tri dans des rapports aussi détaillés, qui, d'ailleurs, mettent habituellement
l'accent sur un serveur au lieu de prendre en compte la totalité d'un réseau.
Les rapports n'indiquent pas si des niveaux d'accès variés sont appropriés pour
les utilisateurs.
Windows 2000 et NT contrôlent l'accès au niveau des fichiers. Mais pour que le
contrôle d'accès soit efficace et contrôlable, les administrateurs système doivent
gérer l'accès à des niveaux plus élevés, tels que les applications, les bases
de données et les zones de partages de fichiers de départements ou de groupes
de travail. Le contrôle d'accès peut se gérer facilement dans Windows 2000 et
NT avec des outils shareware et une structure de groupes à deux niveaux. Cette
méthode crée un système de contrôle facile à maintenir, à vérifier et à apprendre.
On peut également mettre en oeuvre la nouvelle structure de contrôle d'accès parallèlement
à celle qui existe sur un système, puis supprimer cette dernière.

L’initiative Biztalk de Microsoft
par Tao Zhou
Le commerce électronique Business-to-business (B2B) permet aux entreprises d'effectuer leurs transactions commerciales par l'Internet sans processus manuels. Dans bien des cas, les entreprises utilisent des applications et des formats de documents différents, et l'intégration d'applications faisant appel à diverses structures de données pose au commerce électronique B2B un véritable défi. Traditionnellement, les grandes entreprises utilisent les standards d'échange de documents EDI pour mettre en oeuvre l'intégration des applications commerciales et l'exploitation. Mais l'implémentation de l'EDI est onéreuse et rares sont les petites et moyennes entreprises pouvant se permettre cette solution.
Pour régler le problème de l'intégration des applications et minimiser le coût de développement d'un système de e-commerce B2B, l'industrie informatique considère le standard XML du World Wide Web Consortium (W3C) comme langage standard pour les données du commerce électronique B2B. XML est gratuit, facile à utiliser et supporte la description des données pour toutes les applications et plates-formes. Lorsque deux partenaires commerciaux utilisent la même spécification de document XML pour échanger des informations, leurs applications supportant XML peuvent recevoir et traiter des données sans transformation manuelle ni saisie.
Plusieurs éditeurs, dont IBM, SoftQuad et Microsoft, offrent des applications de commerce B2B utilisant XML. En 1999 Microsoft a annoncé le développement de sa solution de commerce électronique B2B en XML, répondant au nom de code BizTalk Initiative, et a sortie, en 2000, BizTalk Framework et BizTalk Server 2000, les deux principaux éléments constitutifs de l'initiative BizTalk. BizTalk Framework est une spécification technique qui définit l'architecture et la structure des messages BizTalk. BizTalk Server 2000 est un serveur qui intègre les applications et automatise les processus commerciaux en acheminant et en transformant automatiquement les documents. Avant d'utiliser BizTalk, pour donner libre cours à une activité de commerce électronique, il importe de bien comprendre les composants de cette solution.

Les tableaux multidimensionnels en action
par Mike Cravitz
Liez le
programme de service MultiDim aux applications pour simplifiez la manipulation
des tableaux multidimensionnels simulés en RPGLes tableaux
multidimensionnels, c'est-à -dire ceux qui nécessitent plusieurs nombres ou
dimensions pour identifier de façon unique chaque élément de tableau, peuvent
se révéler utiles pour gérer des listes de valeurs dépendant de plusieurs
jeux de critères indépendants. Les commissions de vente, les primes, les
primes d'assurance et les remises accordées aux clients représentent quelques
exemples de types de valeurs que les tableaux multidimensionnels peuvent représenter
facilement et naturellement.
Dans l'article “ Multidimesionnal Arrays : the Basics ”, NEWS/400, mai 1998, j'ai présenté les tableaux multidimensionnels et ai expliqué en quoi ils étaient utiles au développement d'applications de gestion. Comme je l'ai indiqué dans cet article, même si le RPG ne supporte pas les tableaux multidimensionnels, il est possible de simuler ces derniers en faisant correspondre un tableau multidimensionnel à un tableau RPG unidimensionnel. Dans le présent article, je présente un programme RPG IV qui calcule les index réels correspondant aux index des tableaux multidimensionnels simulés. Il devient ainsi possible de travailler facilement avec des tableaux de ce type dans des applications. La V3R7 ou une version supérieure est indispensable pour utiliser ce programme de service (le code du programme de service MultiDim peut être downloadé depuis notre site Web, à l'adresse suivante).
Lire l'article
Comment utiliser SAP R/3 quand on ne pèse que 300 MF de CA
par Benoît Herr
Premier à utiliser la méthodologie ASAP en
France, Takasago Europe Perfumery Laboratory (TEPL), la filiale européenne du
groupe japonais Takasago est aujourd'hui équipé de SAP R/3 sur AS/400. Il y a à peine deux ans, la filiale française du groupe japonais Takasago prenait la décision d'installer SAP R/3. Et à l'heure où vous lisez ces lignes, ils ont déjà un an d'expérience d'utilisation de six modules de R/3 sur AS/400!
Le secret de cette implémentation rapide et couronnée de succès ? ASAP, qui veut dire Accelerated SAP. Il s'agit d'une méthodologie d'implémentation rapide de R/3 mise au point par la filiale américaine de SAP. Le client signe pour une mise en place en six ou neuf mois, et SAP et son DVA (Distributeur à Valeur Ajoutée) fait le reste… ou presque!
Non, pas vraiment, car l'implication du client doit également être très grande, mais le support DVA, assuré dans le cas de Takasago par la société Excelsius, filiale du groupe IBS, est essentiel. La méthodologie va d'une simple check-list des éléments à mettre en place à une suivi extrêmement étroit et précis de l'avancement des travaux en passant par un planning rigoureux et méticuleux, faisant parfois apparaître très tôt des choses auxquelles on aurait beaucoup plus tard, comme la formation par exemple. Sans oublier les fameux "accélérateurs", qui font partie intégrante de la méthodologie: il s'agit de simples documents Word ou Excel par exemple, mais préformatés pour des besoins tels que suivi du budget, compte-rendus de réunions ou guides uutilisateurs. Il ne restait plus à Takasago qu'à apposer son logo sur les documents… et à les remplir, bien sûr. Cependant, ASAP "mâche" considérablement le travail, par rapport à une conduite de projet classique.

Style RPG IV : même l’inattendu peut arriver !
par Julian Monypenny
Comment repérer les bogues potentiels dans des expressions arithmétiques, en écrivant des programmes "blindés"
Je ne me lasse pas des films La Panthère Rose de Blake Ewards. J'aime tout particulièrement
l'obsession qu'a l'inspecteur Clouseau de se perfectionner sans cesse dans les
arts martiaux. C'est dans ce but que son acolyte, Cato, l'attaque à l'improviste
au moment le plus inattendu. Clouseau estime que pour dominer la situation, il
faut apprendre à "s'attendre à l'inattendu".
Les programmeurs que nous sommes doivent aussi s'attendre à l'inattendu. Dans
l'article "Style RPG IV : pour écrire un code sain", NEWSMAGAZINE, septembre 2000,
nous avons vu comment écrire un code solide en nous concentrant sur le traitement
des erreurs renvoyées par les opérations d'I/O. Les erreurs d'I/O sont faciles
à piéger grâce aux indicateurs résultants ou aux fonctions intégrées comme %Error
et %Found. Mais certaines erreurs de programmation sont bien plus insidieuses
que celles d'I/O. Les erreurs les plus courantes rencontrées dans des programmes
RPG IV sont dues à des expressions arithmétiques associées à l'opération Eval.
Nous allons donc évaluer des expressions arithmétiques en décrivant les erreurs
auxquelles on peut s'attendre et en expliquant comment les contrôler fermement.
Certaines erreurs de programmation sont bien plus insidieuses que celles
d'I/O
Les plus consultés sur iTPro.fr
- AI Appreciation Day,16 juillet « cet email de 10 pages aurait pu se résumer en 3 points »
- L’informatique quantique perçue comme la menace de cybersécurité la plus critique
- Bâtir une entreprise AI-native : par où commencer
- La France à l’avant-garde de la conteneurisation et de l’IA générative
- La souveraineté numérique pour renforcer la cybersécurité
