> Windows
Des ponts vers le e-Business

Des ponts vers le e-Business

par Sharon L. Hoffman
Le nouveau middleware iSeries Connect d'IBM simplifie l'écriture de solutions e-business Pour les développeurs AS/400, l'élément logiciel le plus intéressant de l'annonce du 3 octobre 2000 d'IBM est un nouveau produit programme sous licence (LPP) (Licensed Program Product) appelé Connect for iSeries ou iSeries Connect. Dans le cadre du changement des noms IBM annoncé le 3 octobre, les derniers modèles AS/400 sont rebaptisés modèles e-Server iSeries 400. Pour en savoir plus sur iSeries 400, voir l'encadré. Le but d'iSeries Connect est de simplifier l'écriture de solutions e-business en facilitant l'accès aux ressources iSeries 400, comme les données stockées dans DB2 Universal Database for AS/400 (DB2 UDB) et les programme RPG existants. A l'aide de plug-ins et de connecteurs iSeries Connect, on peut développer des applications capables de transférer des informations entre la logique de gestion back-end et une interface utilisateur du type Web frontale, comme un catalogue en ligne.

Il est important de permettre la communication entre les différentes composantes des applications, les applications e-business présentent en effet généralement une structure à  trois niveaux dans laquelle les différentes parties de l'application s'exécutent sur des systèmes différents. Ainsi, le navigateur Web qui constitue le point d'entrée d'un catalogue en ligne fonctionne généralement sur un PC client, le traitement du caddie peut fort bien se faire sur un RS/6000 ou un iSeries400 jouant le rôle de serveur Web, et la logique de gestion chargée d'honorer les commandes fonctionne souvent sur un serveur back-end comme un iSeries400. Cette construction multiniveaux justifie le partitionnement d'une application afin de créer des programmes indépendants pour chaque fonction majeure. Mais pour que le partitionnement de l'application soit efficace, il faut que la transmission d'informations entre les partitions se fasse par une méthode, de préférence hautement standardisée. C'est précisément le rôle que joue iSeries Connect pour des applications e-business. Voyons donc de plus près cet outil et en quoi il simplifie le passage au e-business.

Les applications e-business présentent généralement une structure à  trois niveaux, dans laquelle les différentes parties s'exécutent sur des systèmes différents

Lire l'article
Issu de Monterey, AIX 5 L rallie Caldera et les OEM Intel

Issu de Monterey, AIX 5 L rallie Caldera et les OEM Intel

par Mireille Boris
Le projet Monterey qui a réuni IBM, SCO et Intel pour le développement d'un Unix 64 bits standard donne naissance à  un AIX 5 L. Volens nolens, tous les OEM Intel, de Compaq à  Unisys, vont supporter de l'AIX…IBM l'avait-il imaginé il y a un an? Monterey a été le nom de code de l'action concertée entre IBM, SCO et Intel. Au coeur du programme de développement, un Unix 64 bits dont AIX d'IBM, flanqué d'Unixware de SCO et de Dynix ptx de Sequent, était l'élément le plus important. Objectif : approcher en OEM les machines Intel.

Or, il s'est avéré que le nom le plus porteur était… AIX

Cet Unix collectif étant prêt à  sortir en juillet dernier, il s'est agi de le baptiser. Des agences de communication ont été consultées. Or, il s'est avéré que le nom le plus porteur était… AIX. "Avec le succès du S80, AIX avait une image très forte sur le marché", note Jean-Marc Ferré d'IBM. AIX 5, à  cause de sa composante Power PC dont l'AIX en était à  la V4 et AIX 5 L pour bien indiquer que l'affinité Linux est incluse dans cette nouvelle version. AIX 5L for Power, AIX 5L for IA 64 en attente de machines Itanium prévues pour le 10 octobre étaient disponibles en août. Mais les 2000 machines 64 bits Intel en circulation étant toujours considérées comme expérimentales et leur sortie en volume étant une fois de plus retardées jusqu'en avril 2001, la décision fut prise de ne pas se presser. Aix 5.0L for Power, 5.0L IA-64 restent des versions d'évaluation pour éditeurs. Les versions de production d'Aix 5.1L for Power et for IA-64 sortiront en avril en même temps que les serveurs Intel.

"Notre objectif premier est toujours un Unix standard, partagé par un marché plus large, avec un Unix qui a déjà  fait ses preuves sur Power", affirme Jean-Marc Ferré. Rien de changé dans l'accord avec Intel, qui apporte de l'argent pour financer les approches des éditeurs, ni dans l'adhésion d'un certain nombre de constructeurs. Compaq a communiqué sur ce sujet. Les Proliant supporteront AIX. Il n'y a pas d'autre alternative, Compaq ayant cessé de développer Tru64 sur plate-forme Intel. SCO apporte à  AIX 5 L un support constant. La stratégie de Caldera est de supporter des plates-formes Linux 32 bits, mais la composante SCO est plus robuste. Il va falloir un certain temps pour que Linux 64 bits monte en puissance de la même manière.

Benoît Maillard, de SCO-Caldera, confirme : "La division Serveurs et Professional Services de SCO est devenue Caldera Inc.. Le travail continue. Quand le nommage de l'OS Monterey 64 a été décidé, le choix s'est porté sur AIX 5L, malgré une petite résistance de la part de SCO. Mais prendre un nouveau nom aurait été perturbant dans un marché Unix en phase de consolidation. La bannière AIX est haut de gamme, ouverte, avec une connotation Linux. La filiation AIX est rassurante, et l'ouverture multiplates-formes d'IBM réelle à  tous les OEM du marché. Les OEM ont fait un peu la tête. Mais le business Unix sur Intel est profitable. Le volume des ventes de matériel avec SCO a dépassé les 4 milliards de $. Cela ne peut que continuer vers le haut. Unisys, Dell, Compaq, Bull, Fujitsu ou encore Acer jouent dans la pièce, et avalisent ce support. Plutôt que de fragmenter, ils participent à  la consolidation. "

Une partie importante du travail de Monterey a porté sur les applications. Oracle, BEA, BMC, CA, Cygnus pour les outils de développement, IBM logiciel, JDEdwards, I2, Informix, Software AG, Brio, Candle, Sybase, etc.., ont adopté la plate-forme très tôt. Actuellement, un système accessible à  distance depuis le Web est mis en place pour les développeurs. De leur centre de portage, IBM et Bull reçoivent les développeurs de logiciels avec représentation locale des programmes de recrutement des partenaires. Des centres semblables utilisant des octoprocesseurs Intel ont ouvert à  San Mateo, dans le Massachussets, en Allemagne et en Angleterre. Le catalogue de logiciels sera prêt en même temps que la V 5.1 et les machines Intel.

Les fonctionnalités NUMA et LPart sont inscrites dans AIX 5.0 L

Lire l'article
La revanche des I/O

La revanche des I/O

par Frank G. Soltis
Un système équilibré exige une mémoire et des entrées/sorties rapides Depuis toujours, les entrées/sorties (I/O : Input/Output) ont été les parents pauvres des modèles des systèmes informatiques. La vedette étant presque toujours le processeur. Pourquoi ? A cause de la suprématie du Mégahertz (MHz), la mesure des performances informatiques la plus répandue. Comme il est impossible de mesurer la qualité du système des I/O d'un ordinateur avec des MHz, les concepteurs ont le plus souvent ignoré cet aspect pour se concentrer sur les performances du processeur. Après tout, c'est quand même le MHz qui fait vendre. Qui, devant un nouvel ordinateur cherche à  savoir quelle est la bande passante des I/O plutôt que les prouesses en MHz du processeur ?
Pourtant, un ordinateur sans I/O, c'est comme une voiture sans roues, malgré toute la puissance du moteur, elle n'ira pas loin. Au même titre que la mémoire, le système des I/O détermine le temps de réponse et le débit de la plupart des ordinateurs. Ce sont ces mesures qui intéressent le plus les clients, même si les concepteurs de processeurs ne l'admettent pas.

La puissance des I/O pourrait alors bien devenir le seul critère distinctif

Heureusement, les choses sont en train de changer. Dans un futur proche, tous les ordinateurs, des PC d'entrée de gamme aux superordinateurs les plus rapides, utiliseront les mêmes briques de microprocesseur. La puissance des I/O pourrait alors bien devenir le seul critère distinctif.
Même les concepteurs de processeurs commencent à  prendre les I/O plus au sérieux. C'est ainsi que les concepteurs de la prochaine génération de puces microprocesseur PowerPC (appelées POWER4) mettent davantage en avant les largeurs de bande de leurs nouvelles puces plutôt que leur performance en MHz. La situation s'est inversée, et les I/O ont enfin leur heure de gloire. Et comme le système des I/O de la nouvelle iSeries 400 est très différent de celui de l'AS/400, il convient d'examiner les modifications apportées pour juger de leurs conséquences sur nos modèles de systèmes futurs.

Lire l'article
Linux : anatomie

Linux : anatomie

par Xavier Facélina
Cet article aborde le système Linux non pas par son histoire ou par son positionnement philosophique, politique ou économique, mais par sa structure technique. En traitant différents aspects de Linux, en allant du plus proche de la machine au plus éloigné, nous devrions arriver à  une compréhension globale de ce qu'est réellement Linux. Au coeur du système : un noyau (kernel). Tout est là . Linux s'articule tout entier autour de ce noyau dont le développement est réalisé par la communauté des kernel-developers, sous l'oeil vigilant de Linus Torvald en personne.

Lire l'article
Comment suivre un événement à  la trace

Comment suivre un événement à  la trace

par Itzik Ben-Gan
Tracez les problèmes de base de données avec les puissants outils de suivi inclus dans SQL Server 7.0 Suivre à  la trace les requêtes des clients et les réponses du serveur n'est pas chose facile avec les versions de SQL Server antérieures à  la version 6.5. Un outil de suivi freeware, appelé SQLEye, analyseur de trames réseau ODS (Open Data Services) peut permettre de s'en sortir mais il est difficile à  configurer et compliqué à  utiliser, même pour des opérations de suivi de base.

SQL Server 6.5 a apporté un outil graphique, SQL Trace, facilitant l'utilisation de SQLEye. SQL Trace, qui peut sauvegarder ses résultats dans un fichier trace ou un fichier script SQL, peut gérer un nombre limité d'événements et de filtres ; il indique également, par exemple, les instructions SQL passées par un client et les procédures cataloguées exécutées par le serveur. En revanche, on ne pourra pas savoir ce qui se passe à  l'intérieur du serveur. On ne saura pas par exemple quelles procédures cataloguées ont été appelées par d'autres procédures cataloguées, ou quand une connexion a mis en place ou libéré un verrouillage (à  moins d'utiliser SQL Server 7.0).

Profiler capture des informations détaillées à  propos des événements se produisant sur le serveur

Les puissantes fonctions de suivi de SQL Server, et en particulier de son nouvel outil de traçage, SQL Profiler, améliorent les fonctionnalités de SQL Trace et introduisent de nouvelles fonctions de suivi, d'analyse et d'optimisation de SQL Server. Profiler capture des informations détaillées à  propos des événements se produisant sur le serveur. Cela permet ainsi de passer dans les coulisses du problème ; on peut découvrir les requêtes aboutissant à  un blocage, les raisons de la lenteur de certaines requêtes, les opérations effectuées dans une procédure cataloguée, etc... Non seulement peut-on déterminer si un événement s'est produit, mais on peut également analyser les opérations ayant conduit à  cet événement. Outre l'interception des requêtes client et des réponses du serveur, Profiler enregistre les événements générés par les composants internes du serveur.

La configuration d'une trace Profiler de base est relativement simple. Mais on peut rapidement se retrouver noyé dans la masse des données générées par cet outil. Profiler résout le problème en fournissant des filtres permettant de contrôler la quantité et le type des données incluses dans le suivi. Le présent article permet de se familiariser avec SQL Profiler, et montre comment définir graphiquement une trace. L'encadré "Boîte noire SQL Server", décrit la fonction Flight Recorder de SQL Server, qui trace les 100 dernières requêtes. L'article "Résolution de problèmes avec SQL Profiler", analyse plus en détail les fonctions de suivi de Profiler et de SQL Server.


Boîte noire SQL Server


Les traces permettent d'analyser le comportement du système. Toutefois, l'analyse d'un problème donné peut se révéler difficile, car les événements ayant conduit au problème se sont déjà  produits. Pour parer à  toute éventualité, on peut créer une trace qui fonctionne en tâche de fond et de façon permanente. En plus de consommer des ressources systèmes, une telle trace génère trop d'informations difficiles à  analyser efficacement. Une autre alternative consiste à  essayer de reproduire le problème. Cependant, la solution la plus simple consiste à  utiliser la fonction Flight Recorder de SQL Server, qui enregistre les 100 dernières requêtes traitées. Les informations de Flight Recorder sont particulièrement utiles lorsque le système s'arrête brutalement.

Pour démarrer Flight Recorder, exécutez la procédure cataloguée étendue xp_trace_setqueryhistory 1. Cette procédure démarre automatiquement la fonction Flight Recorder à  chaque fois que SQL Server démarre. Pour arrêter la trace, exécutez xp_trace_setque

Lire l'article
Optimiser les performances batch de l’AS/400

Optimiser les performances batch de l’AS/400

par Rick Turner
Structurer les applications et optimiser l'environnement d'exécution batch pour une efficacité maximale Au cours des derniers mois, je suis intervenu sur certains sites AS/400 qui devaient multiplier par cinq voire même 50 leur charge de travail batch en back office. Le premier cas concernait une application de paie devant traiter 500.000 employés alors qu'elle en traitait 100.000 auparavant. Pour le deuxième cas, il s'agissait d'une banque qui, par suite d'un regroupement, devait passer de 600.000 comptes à  30 millions. Dans les deux cas, le traitement des nouvelles charges de travail devait être effectué dans le même laps de temps qu'auparavant.

Pour atteindre leurs objectifs au niveau des temps de traitement, ces clients devaient modifier leurs programmes applicatifs pour qu'ils exploitent au mieux la puissance de l'AS/400. La méthode consistait à  utiliser plusieurs copies des jobs de traitement, chacune travaillant sur des parties distinctes des données en entrée, pour effectuer davantage de travaux dans le même temps et en mettant davantage la CPU à  contribution. C'est tout à  fait possible puisque l'AS/400 traite parfaitement plusieurs jobs à  la fois.

Pourtant, malgré les modifications, les utilisateurs ne parvenaient pas toujours à  pousser le débit de leurs applications batch jusqu'aux limites des ressources du système. Et donc, ils ne pouvaient pas tenir les délais alloués. D'où leur question, "Comment effectuer beaucoup plus de travail dans un laps de temps identique?"

On peut apporter deux éléments de réponse : Utiliser au maximum la CPU et utiliser le disque jusqu'aux plus hautes valeurs de seuil recommandées. Cet article explique quelques méthodes de traitement susceptibles d'améliorer le débit d'un travail en batch. Je propose quelques idées générales sur la manière de structurer une application et de créer un environnement d'exécution optimal (pour le matériel et le logiciel), afin de réaliser le maximum de travail utile dans le minimum de temps.

Lire l'article
Exceptionnels ! Les Gestionnaires d’exceptions du RPG !

Exceptionnels ! Les Gestionnaires d’exceptions du RPG !

par Gary Guthrie
Passez en revue les possibilités de traitement des exceptions en RPG. Et voyez comment les gestionnaires de conditions et d'annulation de ILE pallient certaines des limitations du RPG/400Dring . . . dring . . . .

"Informatique. Francis à  l'appareil."

"Salut, Francis. C'est André du Service Financier. Un message d'erreur est apparu sur mon terminal il y a quelques instants, et maintenant plus rien ne fonctionne correctement !"

D'une voix calme, Francis demande, "Quel était ce message ?"

"Quelque chose à  propos d'un fichier ayant quelque chose, ou quelque chose de ce genre, je pense" répond André avec confiance.

"Pas de problème, je m'en occupe" répond Francis. Puis elle raccroche le téléphone et murmure "Bien, bien".

 Vous avez sûrement déjà  entendu çà , n'est-ce pas ? Heure après heure et franc après franc, les ressources de l'informatique s'amenuisent dès lors que les programmeurs consacrent un temps précieux aux réparations, après le crash d'une application. Or, on peut éviter les coûts et les migraines entraînés par les problèmes applicatifs, en plaçant le traitement des exceptions en tête de la liste des considérations en matière de conception d'applications.

Il existe de nombreux types d'exceptions et leurs techniques de traitement diffèrent en fonction de leur type, du langage utilisé, et du l'environnement modèle de programme (OPM et EPM vs ILE). Je classerai donc les exceptions en trois groupes distincts :

  • Exceptions concernant les fichiers. Il s'agit d'erreurs, comme les I/O sur des fichiers non encore ouverts, des types d'enregistrement indéfinis, des erreurs de programmes triggers et des erreurs d'unités.

  • Exceptions concernant les programmes applicatifs. Ce sont des exceptions comme des erreurs d'index de tableaux invalides, les divisions par zéro et les erreurs lors de l'appel de sous-programmes. La liste des erreurs de programmes possibles est énorme.

  • Exceptions associées au système. Il s'agit d'événements comme des défaillances de lignes de communications, des programmes annulés par les utilisateurs et une défaillance du code du système d'exploitation.

            Le plus souvent, des techniques de coding appropriées empêchent ces exceptions de provoquer des fins anormales. Les exceptions associées au système sont les plus délicates, parce qu'on les maîtrise parfois fort peu au niveau applicatif. Il est ainsi impossible d'écrire un code suffisamment parfait pour qu'il évite toute erreur du système d'exploitation.

            Quant aux langages évolués (HLL), chacun d'entre eux possède ses propres mécanismes de traitement des erreurs. Le CL par exemple, utilise abondamment la commande MONMSG (Monitor Message) pour piéger les exceptions. Les gestionnaires d'exceptions du RPG comportent des indicateurs d'erreur ou l'extension E sur certai

Lire l'article
Accéder aux membres de fichiers

Accéder aux membres de fichiers

par Jef Sutherland
Comment gérer les membres de fichiers, et quelques astuces de programmation CL pour générer un nom de membre unique Dans un récent article, nous avons vu les chemins d'accès indexés pour fichiers physiques et logiques, et comment lire des enregistrements à  partir d'un fichier avec clé. Aujourd'hui, nous allons examiner un autre aspect des fichiers AS/400 : les membres de fichiers. Nous allons aussi évoquer quelques astuces de programmation CL pour générer un nom de membre unique.

Lire l'article
XML: langage d’avenir du commerce électronique

XML: langage d’avenir du commerce électronique

XML fait actuellement son apparition dans de nombreux projets de commerce électronique XML (Extensible Markup Language) jouera probablement un rôle primordial dans le développement du commerce électronique. Sa capacité à  décrire les données dans un format ouvert standard aidera les consommateurs à  rechercher des informations produits sur le Web et simplifiera les échanges de données interentreprises par Internet. A n'en pas douter, XML transformera radicalement la manière d'acheter des consommateurs et, plus particulièrement pour les entreprises, celle d'acheter et de vendre des biens.

Dans cet article, nous allons examiner l'impact de XML sur le e-commerce.
Pourquoi suscite-t-il autant d'intérêt ?
Comment s'assurer de participer au devenir de XML et du commerce électronique ?
Les entreprises qui sont actuellement en train de mettre sur pied des transactions HTML devraient commencer sans tarder à  envisager XML.

A n'en pas douter, XML transformera radicalement la manière d'acheter des consommateurs

Lire l'article
La valeur RPG IV *JOBRUN simplifie la conversion des formats de date

La valeur RPG IV *JOBRUN simplifie la conversion des formats de date

par Azubike Oguine  Cet utilitaire met à  profit la valeur spéciale *JOBRUN du RPG IV pour permettre aux utilisateurs finaux de tous les pays d'utiliser le format de dates auquel ils sont habitués

Lire l'article
Lorsque PASE paraît

Lorsque PASE paraît

La Division AS/400 place de grands espoirs dans l'environnement PASE (Portable Application Solutions Environment), qui représente l'une des facettes de la stratégie Unix de Big Blue Voici quelques années, Rochester avait lancé un environnement d'exécution Unix sur AS/400. Mais en dehors de quelques moments d'attention toute particulière, comme lorsque les comptes et les éditeurs AS/400 les plus importants y ont porté leurs applications Unix, ou lorsque SAP a porté son progiciel R/3 sur la plate-forme, cet environnement a évolué à  bas bruit, jusqu'au 24 janvier dernier, jour auquel IBM a fait son annonce PASE (Portable Application Solutions Environment) à  l'occasion de PartnerWorld, à  San Diego, Californie (cf. encadré "The big show").

L'environnement PASE est supposé accélérer la venue de nouvelles applications sur plate-forme AS/400

Lire l'article
Utiliser Ntbackup avec Windows 2000 et NT

Utiliser Ntbackup avec Windows 2000 et NT

Ntbackup.exe, le programme de sauvegarde intégré à  Windows NT, est fait pour des sauvegardes rapides et rudimentaires de fichiers. Mais il n'est pas suffisant pour un environnement d'entreprise. Il ne permet pas, en effet, d'exécuter des sauvegardes automatiques pendant les heures de fermeture des bureaux, puisqu'il est dépourvu de la capacité de programmation intégrée. Il ne permet pas non plus de sauvegarder des ressources distantes et de maintenir des catalogues de supports de sauvegarde, fonctions indispensables aux entreprises. Les utilisateurs qui passent de Windows NT à  Windows 2000 constateront que Microsoft a amélioré la nouvelle version de Ntbackup pour remédier aux trois lacunes citées plus haut. Mais tout le monde n'est pas pressé de passer à  Windows 2000. Pour ceux qui comptent rester encore quelque temps sous NT, cer article explique comment éviter ces faiblesses pour planifier des sauvegardes, sauvegarder des ressources sur des machines distantes et maintenir des catalogues de leurs supports. Pour ceux qui passent à  Windows 2000, nous décrirons les améliorations apportées par la nouvelle version de Ntbackup dans ces domaines par rapport à  celle de NT.

Lire l'article
Norton Antivirus 4.0 et les serveurs NT

Norton Antivirus 4.0 et les serveurs NT

En voyant Norton AntiVirus 4.0 for Windows NT Server arriver au labo, je me suis dit " Tiens, on n'a pas déjà  testé ce produit ? " Après une petite enquête j'ai découvert que nous avions examiné la version station de travail pour l'article " Logiciels antivirus pour Windows NT Workstation " de Jonathan Chau de février 98. Nous avons donc vérifié s'il y avait une différence entre les deux versions du produit. Norton AntiVirus (NAV) 4.0 for Windows NT Server se trouve sur un CD-ROM qui comprend des fichiers d'aide hypertexte et vidéo et des fichiers d'installation pour les systèmes Intel et Alpha. Cette nouvelle version permet de " pousser " l'installation du logiciel à  partir d'un serveur central vers les serveurs et les postes de travail NT, ainsi que les systèmes Windows 95, Windows 3.1 et DOS. La version serveur offre la même interface utilisateur et les mêmes options que la version station de travail examinée par le Labo.

Lire l'article
Microsoft en quête de fiabilité

Microsoft en quête de fiabilité

Ancien de Banyan Systems, Jim Allchin n'aime pas les bugs. Ex Senior Vice President de Microsoft en charge du développement de Windows 2000, désormais VP responsable des plates-formes, il est l'homme d'une mission : rendre Windows 2000 l'OS le plus fiable du marché. Après plus de 10 ans chez Microsoft à  travailler sur Windows NT, le penchant de Jim Allchin pour l'excellence et sa détermination pourraient bien porter leurs fruits Au cours d'un discours prononcé au dernier Comdex d'automne, Jim Allchin a déclaré : " vous avez devant vous le bureau des réclamations de Microsoft pour Windows. Je reçois des lettres à  propos de Windows 95, 98 et NT et je passe beaucoup de temps à  les lire. C'est une lecture pénible car, même si j'en reçois de nombreuses très gentilles, la plupart des lettres qui arrivent sur mon bureau sont celles dans lesquelles quelqu'un a vécu une mauvaise expérience. Il y a deux ans, Microsoft a décidé d'essayer de comprendre la réalité en ce qui concerne la fiabilité et la compatibilité de Windows NT. Parce qu'au moment où je recevais toutes ces lettres, je savais que Dell.com tournait sous Windows NT, que le Nasdaq ou le Chicago Board of Trade étaient sous NT. Nous savions en outre que ces clients étaient absolument ravis de la fiabilité de nos produits. "

Lire l'article
Au coeur de la gestion de la mémoire sous Windows NT (II)

Au coeur de la gestion de la mémoire sous Windows NT (II)

2ème partie

Dans notre numéro de novembre, nous avons commencé cette série en deux parties sur la gestion de la mémoire dans Windows NT en introduisant le concept de mémoire virtuelle. Nous avons vu l'utilisation par le processeur d'un système de traduction d'adresses virtuelles en adresses physiques à  deux niveaux. Nous avons évoqué la pagination et deux puissantes fonctions du Gestionnaire de mémoire : le mapping de fichiers en mémoire et la mémoire copy-on-write. Ce mois-ci nous allons détailler encore les structures de données internes utilisées par le Gestionnaire de mémoire pour faire le suivi de l'état de la mémoire. Nous évoquerons les working sets et la base de données PFN (Page Frame Number). Nous terminerons par une exploration d'autres structures de données utilisées par le Gestionnaire de mémoire pour faire le suivi de la mémoire partagée par deux ou plusieurs applications, et nous aborderons les Objets de section, structures de données utilisées par la base de données PFN pour mettre en oeuvre le mapping des fichiers en mémoire.

Lire l'article
Architecture Profusion : la fin des limites ?

Architecture Profusion : la fin des limites ?

Un grand nombre d'entreprises exécutent NT Server sur processeurs Intel. Ce choix est intéressant à  plusieurs titres : le matériel est meilleur marché, l'éventail des constructeurs et très large, le catalogue applicatif est extrêmement important… mais les systèmes plafonnent à  4. La situation change avec la nouvelle architecture Profusion d'Intel. NT Server progresse fortement et les entreprises sont de plus en plus nombreuses à  déployer sur NT Server des applications telles que data mining, progiciels de gestion (ERP) et serveurs de terminaux, tournant sur des serveurs SMP à  architecture Intel. Parallèlement elles sont plus exigeantes sur les niveaux d'évolutivité des systèmes, en vue d'améliorer les performances. Or le serveur SMP à  quatre voies ne peut plus répondre à  ces besoins. Pour apporter une solution à  cette situation, Intel a donc mis au point un nouveau standard, le système SMP baptisé Profusion, une méthode standardisée permettant de placer huit processeurs dans une CPU. On trouve sur le marché quantité de machines à  4 voies et plus, mais elles utilisent des architectures propriétaires. Un serveur SMP à  8 voies vraiment évolutif permet aux applications comme SAP et SQL Server 7.0 d'atteindre de meilleures performances.Le support de huit processeurs par l'architecture Intel Profusion est unique et il est important de comprendre cette nouvelle architecture avant d'évaluer et d'acheter un nouveau serveur SMP à  8 voies. Quelle est donc cette nouvelle architecture, ses composants, ses perspectives ?

Lire l'article
DB2 devient universel sur l’AS/400

DB2 devient universel sur l’AS/400

L'universalité de DB2 UDB for AS/400 permet d'utiliser une base de données unique pour stocker toutes les données de l'entreprise, traditionnelles et non traditionnelles C'est vrai, IBM a de nouveau rebaptisé la base de données intégrée de l'AS/400. Avec la V4R4, DB2/400 devient DB2 Universal Database for AS/400 (DB2 UDB for AS/400). Mais la V4R4 de la base de données AS/400 va bien au delà  d'un simple nouveau nom. En effet, cette nouvelle version permet à  la base de données de l'AS/400 de réaliser une avancée significative, et ce en l'enrichissant de fonctions permettant de stocker, de gérer, d'indexer et de contrôler toutes les formes d'information imaginables s'appuyant sur une architecture base de données unique et homogène.

Avec un serveur base de données universel il est possible de mettre en oeuvre ou de supporter pratiquement tous les types d'applications. Pour cela, un serveur base de données universel doit posséder les caractéristiques fondamentales suivantes :

  • Fiabilité universelle
  • Support universel d'applications
  • Accès universel
  • Evolutivité universelle
  • Gestion universelle
  • Extensibilité universelle
Depuis longtemps, la base de données intégrée de l'AS/400 fait partie des produits phares du marché dans les cinq premiers domaines cités. Le domaine restant à  améliorer était l'extensibilité. Aussi fort logiquement, le progrès fondamental de la base de données AS/400 en V4R4 réside dans l'extension des types d'informations pouvant être stockés et gérés par la base de données intégrée. Après tout, les informations stockées dans des formats non traditionnels (documents, images et objets multimédias) sont tout aussi importantes que les données hautement structurées généralement stockées dans les bases de données relationnelles. DB2 UDB for AS/400 met en oeuvre une technologie relationnelle objet permettant de stocker, traiter et gérer aussi bien les types de données traditionnels que non traditionnels. Les améliorations de l'extensibilité de la base de données universelle comprennent le support des objets binaires de grande taille (BLOB : Binary Large OBjects), des types et des fonctions définis par l'utilisateur.

Avec un serveur base de données universel il est possible de mettre en oeuvre tous les types d'applications

Outre les améliorations spectaculaires concernant l'extensibilité, DB2 UDB for AS/400 présente également des améliorations de l'accessibilité, de l'évolutivité et de la gestion. Les nouvelles fonctionnalités englobent les tables dérivées, un environnement script SQL Operations Navigator et une optimisation des performances des requêtes. Tout comme avec les précédentes améliorations de DB2 sur l'AS/400, les tables et applications actuelles fonctionneront parfaitement sous DB2 UDB for AS/400 sans modification.

Lire l'article
SysPrep : clonez vos systèmes

SysPrep : clonez vos systèmes

Les grands réseaux sont très longs à  créer. Plus le nombre de systèmes est important, plus il faut de temps pour les déployer. SysPrep facilite considérablement cette tâche pour les administrateurs Windows NT en permettant le clonage de systèmes. Supposons que deviez créer entièrement 500 postes de travail Windows NT 4.0. S'il faut une heure pour créer chaque système, ces 500 heures de déploiement correspondront à  près de 13 semaines de travail d'un administrateur ou à  plus 3 semaines de travail de quatre administrateurs - en supposant qu'il suffit d'une heure pour créer chaque poste de travail. Car il suffit d'ajouter quelques applications à  l'installation de l'OS pour augmenter exponentiellement le temps de création et, par voie de conséquence, le coût global de possession de ces postes de travail.

Les logiciels de clonage de disque peuvent remédier au problème de l'augmentation du TCO. Ils permettent, en effet, d'installer et de configurer une seule fois des progiciels de systèmes complets et de cloner l'installation sur un grand nombre de postes de travail supplémentaires. Une fois l'installation initiale terminée, le coût de son clonage sur d'autres systèmes diminue considérablement, puisqu'il ne s'agit que de faire une copie d'un disque à  un autre.

Pour déterminer les drivers et les paramètres de configuration à  installer sur un système particulier, les OS se basent sur la plate-forme matérielle. C'est pourquoi pour cloner des systèmes, il faut s'assurer que toutes les machines clonées utilisent des composants identiques. Sinon, de mauvais drivers s'installeront et les machines ne parviendront pas à  fonctionner correctement. Dans le cas de matériels différents, il faut réinstaller les bons drivers après le clonage et cette tâche contredit l'objectif même du clonage.

Jusqu'ici Microsoft ne supportait pas le clonage, en raison de problèmes inhérents au mécanisme même du clonage. Les systèmes NT requièrent des comptes sécurisés (dits SID pour Secure ID) uniques pour fonctionner correctement dans un réseau.

De même, chaque système NT cloné nécessite un compte unique. Les générateurs de SID, tels que Norton Ghost Walker et le shareware NewSID de Systems Internals, créent des comptes uniques à  affecter à  des systèmes NT clonés. Les générateurs de SID fonctionnent bien, dans la mesure où l'on connaît bien les limites du clonage et les pièges que comporte cette technique. Cependant, Microsoft ne supporte que les logiciels et systèmes clonés avec les SID générés par son propre nouvel outil SysPrep (System Preparation). (Pour savoir comment se procurer SysPrep, allez sur le site Web de Microsoft à  l'adresse http://www.microsoft.com/ntworkstation/deployment/deployment/syspreptool.asp).

Les logiciels de clonage de disque peuvent remédier au problème de l'augmentation du TCO

Lire l'article
Principes des architectures sécurisées contre le vol d’informations

Principes des architectures sécurisées contre le vol d’informations

La sécurité informatique est une sorte de fourre-tout dans lequel on trouve des domaines de compétences biens différents. Deux courants de pensées majeurs se présentent : la sécurité informatique contre les pannes matérielles ou logicielles et la sécurité informatique contre l'espionnage et le piratage. L'une des différences majeures entre ces deux familles, est que la première nécessite des compétences techniques précises en informatique, télécommunication et électricité ainsi qu'une grande sagesse ; là  où la seconde demande plutôt des qualités psychologiques comme l'extrême paranoïa et la schizophrénie. Un administrateur doit savoir se transformer en une effroyable machine de guerre au moindre signe suspect. Dans cet article, nous traiterons exclusivement de la sécurité contre l'espionnage et le piratage. Il s'agit ici de se prémunir contre le vol d'informations confidentielles, la détérioration, la modification d'information, bref contre l'intrusion. La sécurité de l'information est à  l'origine une tache qui n'a pas grand chose à  voir avec l'informatique : l'intrusion existe depuis bien plus longtemps.
Cependant, l'information étant à  l'heure actuelle stockée sur support informatique, il est devenu plus facile de s'introduire au coeur des entreprises en faisant l'économie du déplacement - Un bon modem, un téléphone, et c'est parti. Du coup, les entreprises ont mis leur sécurité entre les mains des administrateurs systèmes et réseaux, oubliant parfois que ce n'est parce qu'une information est disponible sur le réseau, qu'elle n'est disponible que sur le réseau. Une bonne politique de sécurité englobe plus qu'une simple problématique technique.

Lire l'article
Utilisation des API de files d’attente de données en RPG IV

Utilisation des API de files d’attente de données en RPG IV

Cet extrait tiré d'un nouveau Redbook propose des exemples de programmes RPG IV utilisant les API de files d'attente de donnéesLes files d'attente de données sont des objets que l'on peut créer pour établir des communications entre des programmes en langage évolué (HLL : high-level language). Le principe en est le suivant : un programme HLL envoie des données à  une file d'attente et un autre les reçoit. Le type le plus fréquent de file d'attente de données est constitué par les communications entre programmes HLL résidant sur le même système AS/400. Mais on peut aussi utiliser des files d'attente de type DDM (Distributed Data Management) pour faire communiquer des programmes HLL tournant sur des AS/400 différents.

Les files d'attente de données offrent de nombreux avantages :

· Elles constituent un moyen rapide de communications asynchrones entre deux travaux, qui utilise moins de ressources systèmes que les échanges via les fichiers base de données, les files d'attente de messages ou les zones de données.
· Elles peuvent être communes à  plusieurs travaux. C'est intéressant lorsqu'un travail ne peut pas traiter un trop grand nombre d'entrées dans le temps imparti. Ainsi, si plusieurs imprimantes sont prêtes à  imprimer des commandes, une seule file d'attente peut envoyer des données à  un job distinct pour chaque imprimante, en mode FIFO (premier entré/premier sorti), LIFO (dernier entré/premier sorti), ou dans un ordre déterminé par clé.
· Elles peuvent attacher une ID d'émetteur à  chaque message. L'ID d'émetteur est un attribut de file d'attente de données établi au moment où elle est créée. Il contient le nom de job qualifié et le profil utilisateur courant.
· Elles peuvent être assorties d'un délai (time-out) afin qu'un job récepteur attende jusqu'à  ce qu'il reçoive une certaine entrée en provenance d'une file d'attente de données.

On peut aussi utiliser des files d'attente de données pour faire communiquer des programmes HLL tournant sur des AS/400 différents.

· Elles allègent la tâche d'un travail. Les API de file d'attente peuvent fournir un meilleur temps de réponse et diminuer la taille d'un programme interactif. Si, par exemple, plusieurs utilisateurs entrent des transactions pour mettre à  jour plusieurs fichiers, on peut ordonner aux jobs interactifs de pousser les données dans une file d'attente pour un traitement asynchrone par un programme batch (plutôt que d'avoir chaque file d'attente de job interactif mettre à  jour un fichier base de données). Seules les files d'attente de données permettent cette technique de programmation asynchrone.

Lire l'article