Utiliser Ntbackup avec Windows 2000 et NT
Ntbackup.exe, le programme de sauvegarde intégré à Windows NT, est fait pour des sauvegardes rapides et rudimentaires de fichiers. Mais il n'est pas suffisant pour un environnement d'entreprise. Il ne permet pas, en effet, d'exécuter des sauvegardes automatiques pendant les heures de fermeture des bureaux, puisqu'il est dépourvu de la capacité de programmation intégrée. Il ne permet pas non plus de sauvegarder des ressources distantes et de maintenir des catalogues de supports de sauvegarde, fonctions indispensables aux entreprises. Les utilisateurs qui passent de Windows NT à Windows 2000 constateront que Microsoft a amélioré la nouvelle version de Ntbackup pour remédier aux trois lacunes citées plus haut. Mais tout le monde n'est pas pressé de passer à Windows 2000. Pour ceux qui comptent rester encore quelque temps sous NT, cer article explique comment éviter ces faiblesses pour planifier des sauvegardes, sauvegarder des ressources sur des machines distantes et maintenir des catalogues de leurs supports. Pour ceux qui passent à Windows 2000, nous décrirons les améliorations apportées par la nouvelle version de Ntbackup dans ces domaines par rapport à celle de NT.
Lire l'article
Norton Antivirus 4.0 et les serveurs NT
En voyant Norton AntiVirus 4.0 for Windows NT Server arriver au labo, je me suis dit " Tiens, on n'a pas déjà testé ce produit ? " Après une petite enquête j'ai découvert que nous avions examiné la version station de travail pour l'article " Logiciels antivirus pour Windows NT Workstation " de Jonathan Chau de février 98. Nous avons donc vérifié s'il y avait une différence entre les deux versions du produit. Norton AntiVirus (NAV) 4.0 for Windows NT Server se trouve sur un CD-ROM qui comprend des fichiers d'aide hypertexte et vidéo et des fichiers d'installation pour les systèmes Intel et Alpha. Cette nouvelle version permet de " pousser " l'installation du logiciel à partir d'un serveur central vers les serveurs et les postes de travail NT, ainsi que les systèmes Windows 95, Windows 3.1 et DOS. La version serveur offre la même interface utilisateur et les mêmes options que la version station de travail examinée par le Labo.
Lire l'article
Microsoft en quête de fiabilité
Ancien de Banyan Systems, Jim Allchin n'aime pas les bugs. Ex Senior Vice President de Microsoft en charge du développement de Windows 2000, désormais VP responsable des plates-formes, il est l'homme d'une mission : rendre Windows 2000 l'OS le plus fiable du marché. Après plus de 10 ans chez Microsoft à travailler sur Windows NT, le penchant de Jim Allchin pour l'excellence et sa détermination pourraient bien porter leurs fruits Au cours d'un discours prononcé au dernier Comdex d'automne, Jim Allchin a déclaré : " vous avez devant vous le bureau des réclamations de Microsoft pour Windows. Je reçois des lettres à propos de Windows 95, 98 et NT et je passe beaucoup de temps à les lire. C'est une lecture pénible car, même si j'en reçois de nombreuses très gentilles, la plupart des lettres qui arrivent sur mon bureau sont celles dans lesquelles quelqu'un a vécu une mauvaise expérience. Il y a deux ans, Microsoft a décidé d'essayer de comprendre la réalité en ce qui concerne la fiabilité et la compatibilité de Windows NT. Parce qu'au moment où je recevais toutes ces lettres, je savais que Dell.com tournait sous Windows NT, que le Nasdaq ou le Chicago Board of Trade étaient sous NT. Nous savions en outre que ces clients étaient absolument ravis de la fiabilité de nos produits. "
Lire l'article
Au coeur de la gestion de la mémoire sous Windows NT (II)
2ème partie
Dans notre numéro de novembre, nous avons commencé cette série en deux parties
sur la gestion de la mémoire dans Windows NT en introduisant le concept de mémoire
virtuelle. Nous avons vu l'utilisation par le processeur d'un système de traduction
d'adresses virtuelles en adresses physiques à deux niveaux. Nous avons évoqué
la pagination et deux puissantes fonctions du Gestionnaire de mémoire : le mapping
de fichiers en mémoire et la mémoire copy-on-write.
Ce mois-ci nous allons détailler encore les structures de données internes utilisées
par le Gestionnaire de mémoire pour faire le suivi de l'état de la mémoire. Nous
évoquerons les working sets et la base de données PFN (Page Frame Number). Nous
terminerons par une exploration d'autres structures de données utilisées par le
Gestionnaire de mémoire pour faire le suivi de la mémoire partagée par deux ou
plusieurs applications, et nous aborderons les Objets de section, structures de
données utilisées par la base de données PFN pour mettre en oeuvre le mapping des
fichiers en mémoire.
Au coeur du noyau de Windows 2000
Microsoft a déclaré que Windows 2000 est la plus importante mise à niveau de toute
son histoire. Windows NT 4.0 est sorti mi-1996, et pour créer la nouvelle version
Windows 2000, Microsoft a bénéficié de l'expérience des utilisateurs et de sa
propre étude du système d'exploitation pendant trois années.
Je voudrais dissiper le mythe selon lequel le kernel de Windows 2000 est une simple
réécriture de celui de NT 4.0. Il s'agit, en réalité, d'une version tunée et peaufinée
du noyau de NT 4.0, comportant certaines améliorations significatives de zones
particulières et deux nouveaux sous-systèmes. Avec ces modifications, Microsoft
a voulu améliorer l'évolutivité, la fiabilité et la sécurité du système d'exploitation
par rapport à NT 4.0, et permettre le support de nouvelles fonctions telles que
Plug and Play (PnP) et la gestion de l'alimentation.
Dans cet article, je fais rapidement le tour des changements apportés au kernel
dans Windows 2000. Je ne parle pas des composants Windows 2000 du mode utilisateur,
comme Active Directory (AD) ou les interfaces d'administration, qui ne tirent
pas parti des changements du kernel pour leur implémentation. Je n'ai pas suffisamment
d'espace pour décrire une fonction particulière en détail, mais vous pouvez consulter
d'autres articles spécifiquement consacrés aux fonctions internes de NT.
NT 4.0 a la réputation de ne pas supporter suffisamment les montées
en charge sur les machines SMP, en particulier à plus de quatre CPU
Tirer pleinement profit du serveur universel
Avec l'annonce de la V4R4 de l'OS/400, IBM a rebaptisé la base de données de l'AS/400, “ DB2 Universal Database for AS/400 ”. Big Blue aurait également dû rebaptiser l'AS/400 en “ Serveur Universel ”. En effet, l'AS/400 est en train d'émerger comme serveur universel, défiant toute concurrence dans sa capacité à exécuter un grand nombre d'applications, des plus anciennes (il existe encore quelques applications System/3 sur le terrain) aux solutions Java, Web et e-business les plus récentes. Des applications de type traitement transactionnel, gestionnaires de bases de données, partage de fichiers et d'imprimantes, ERP (Enterprise Resource Planning), serveurs Web ainsi que des applications sollicitant le processeur de façon intensive comme Lotus Domino, fonctionnent parfaitement sur les modèles récents d'AS/400. En fait, l'AS/400 est tellement universel en matière de prise en charge des technologies émergentes qu'il peut être difficile pour les entreprises utilisatrices et les éditeurs de logiciels de choisir une stratégie de modernisation. Et pourtant, il faut bien faire un choix et poursuivre sa route. IBM a investi des fortunes pour positionner la société et ses systèmes de gestion midrange comme moteurs du commerce électronique. Si cet effort marketing s'avère concluant et que les applications nécessaires deviennent disponibles, les fournisseurs de systèmes et de logiciels AS/400 pourraient voir la plate-forme refaire surface comme élément moteur dans la création de nouvelles opportunités commerciales. Naturellement, ce résultat serait bénéfique pour tous ceux d'entre nous qui utilisons l'AS/400.
Lire l'article
Renforcez la sécurité de Proxy Server
De nombreuses entreprises considèrent Microsoft Proxy Server comme une solution
de premier plan pour la sécurité du réseau. Cependant, même avec Proxy Server,
les hackers peuvent trouver des moyens de pénétrer dans un réseau.
Associant la capacité de cacher l'espace d'adressage IP interne d'une entreprise
et celle d'empêcher le routage IP entre le réseau interne et Internet, Proxy Server
constitue pour les entreprises une sérieuse base de sécurité. Ce qui séduit aussi
beaucoup la clientèle de Proxy Server c'est la promesse d'une sécurité plug-and-play
et l'exploitation de l'infrastructure BackOffice et de la base de données des
comptes d'utilisateurs déjà présents dans une entreprise.
Mais, même avec Proxy Server, les pirates intelligents peuvent pénétrer dans un
réseau. Malheureusement, beaucoup d'entreprises comptent en tout et pour tout
sur la configuration par défaut de Proxy Server pour assurer toute leur sécurité.
Cette confiance les laisse souvent vulnérables aux attaques.
Pour maximiser la sécurité des réseaux, il faut mettre en oeuvre un certain nombre
de mesures de sécurité, notamment les fonctions de sécurité avancées de Proxy
Server et quelques configurations spéciales du réseau. Cet article décrit les
techniques pour renforcer la sécurité de votre réseau au-delà de la configuration
par défaut de base.
La plupart de ces techniques ne demandent que quelques modifications mineures
des réseaux et des serveurs existants. Vous pouvez les appliquer dès à présent
pour protéger votre entreprise contre les attaques venant d'Internet. Elles vous
permettront d'ailleurs aussi très vraisemblablement de tirer le maximum de votre
investissement dans Proxy Server.
La plupart de ces techniques ne demandent que quelques modifications mineures
des réseaux et des serveurs existants
Plans de modernisation des éditeurs AS/400
par Paul Conte Quand les applications des éditeurs (ou ISV : Independent Software Vendor) AS/400 prennent une direction, la communauté AS/400 leur emboîte le pas
Si l'on veut prévoir et se préparer aux tendances des développements logiciels dans la communauté AS/400 étendue, il est bon de regarder ce que font les fournisseurs de logiciels indépendants (ISV : Independent Software Vendors) AS/400. Comme une grande partie des logiciels AS/400 sont acquis auprès des ISV, de nombreux services informatiques AS/400 développent des connaissances, en matière de langages et d'outils, adaptées aux mêmes technologies que celle des ISV. Pendant de nombreuses années, il n'y a pas eu beaucoup de changement, ni parmi les ISV ni dans les grands comptes ; l'AS/400 a connu peu de nouvelles technologies logicielles, et donc une majorité de sites continue à utiliser le RPG III et SEU (Source Entry Utility).
Pourtant, plusieurs tentatives ponctuelles ont tenté de modifier le paysage des développements. Rappelons-nous qu'à diverses occasions, IBM a mis en avant SAA (Systems Application Architecture) et AD/Cycle (Application Development Cycle). Pourtant, aucune de ces initiatives parrainées par IBM n'a rencontré le moindre succès dans le monde AS/400, tout simplement parce que les ISV n'y ont pas vu de grands avantages et ne les ont donc pas intégrées dans leurs technologies de développement. Par voie de conséquence, constatant le manque d'enthousiasme des ISV, et sans obligation de supporter SAA ou AD/Cycle dans le logiciel acheté, la plupart des sites AS/400 les ont eux aussi purement et simplement ignorées.
Aucune des initiatives parrainées par IBM n'a rencontré le moindre succès parce que les ISV n'y ont pas vu de grands avantages et ne les ont donc pas intégrées
Mais, une nouvelle fois, la communauté AS/400 est confrontée à plusieurs nouvelles technologies susceptibles de modifier radicalement le mode de développement des logiciels sur mesure et des progiciels. Parmi les plus importantes, on trouve le RPG IV, Java, les GUI (Graphical User Interfaces, ou interfaces graphiques), l'Internet et le Web, ainsi que l'ensemble des technologies de “ e-commerce ”. S'agit-il simplement d'autres SAA et AD/Cycle, qui s'évanouiront parce que la communauté AS/400 continue à utiliser et à améliorer ses nombreuses applications RPG III existantes ? Ou bien certaines de ces technologies deviendront-elles aussi importantes pour les développeurs de logiciels AS/400 que le RPG III l'a été de par le passé ? Pour mieux connaître l'avenir, NEWS/400 a sondé des ISV AS/400 pour connaître leurs plans.
Dans notre enquête, nous nous sommes d'abord intéressés au RPG III (RPG OPM) pour voir si cet ancêtre bougeait encore, puis nous avons examiné dans quelle mesure le RPG IV (RPG ILE) a remplacé ou remplacera le RPG III. Au-delà du RPG, nous nous sommes intéressés aux choix les plus importants en matière de modernisation et de technologie, demandant aux fournisseurs s'ils ont déjà développé, ou s'ils envisagent de développer un nouveau code serveur avec Java ou d'autres outils orientés objet (OO), d'ajouter des GUI
Lire l'article
Utilisation des API de files d’attente de données en RPG IV
Cet extrait tiré d'un nouveau Redbook propose des exemples de programmes RPG IV utilisant les API de files d'attente de donnéesLes files d'attente de données sont des objets que l'on peut créer pour établir des communications entre des programmes en langage évolué (HLL : high-level language). Le principe en est le suivant : un programme HLL envoie des données à une file d'attente et un autre les reçoit. Le type le plus fréquent de file d'attente de données est constitué par les communications entre programmes HLL résidant sur le même système AS/400. Mais on peut aussi utiliser des files d'attente de type DDM (Distributed Data Management) pour faire communiquer des programmes HLL tournant sur des AS/400 différents.
Les files d'attente de données offrent de nombreux avantages :
· Elles constituent un moyen rapide de communications asynchrones
entre deux travaux, qui utilise moins de ressources systèmes que les échanges
via les fichiers base de données, les files d'attente de messages ou les zones
de données.
· Elles peuvent être communes à plusieurs travaux. C'est intéressant lorsqu'un
travail ne peut pas traiter un trop grand nombre d'entrées dans le temps imparti.
Ainsi, si plusieurs imprimantes sont prêtes à imprimer des commandes, une seule
file d'attente peut envoyer des données à un job distinct pour chaque imprimante,
en mode FIFO (premier entré/premier sorti), LIFO (dernier entré/premier sorti),
ou dans un ordre déterminé par clé.
· Elles peuvent attacher une ID d'émetteur à chaque message. L'ID d'émetteur
est un attribut de file d'attente de données établi au moment où elle est créée.
Il contient le nom de job qualifié et le profil utilisateur courant.
· Elles peuvent être assorties d'un délai (time-out) afin qu'un job récepteur
attende jusqu'à ce qu'il reçoive une certaine entrée en provenance d'une file
d'attente de données.
On peut aussi utiliser des files d'attente de données pour faire communiquer des programmes HLL tournant sur des AS/400 différents.
· Elles allègent la tâche d'un travail. Les API de file d'attente peuvent fournir un meilleur temps de réponse et diminuer la taille d'un programme interactif. Si, par exemple, plusieurs utilisateurs entrent des transactions pour mettre à jour plusieurs fichiers, on peut ordonner aux jobs interactifs de pousser les données dans une file d'attente pour un traitement asynchrone par un programme batch (plutôt que d'avoir chaque file d'attente de job interactif mettre à jour un fichier base de données). Seules les files d'attente de données permettent cette technique de programmation asynchrone.
Lire l'article
La machine de l’extrême
Abandonnant sa ritournelle e-business le temps des dernières annonces, IBM a qualifié
les nouvelles machines AS/400, qui verront le jour en août, de "machines de l'extrême"
Une fois n'est pas coutume : IBM nous a surpris en devançant ses annonces AS/400
de plusieurs mois. Initialement prévues pour juillet, elles ont en fait eu lieu
le 22 mai. Baptisées "AS/400e for extreme business", elles ont, en dehors de leur
date inhabituelle, revêtu une forme tout ce qu'il y a de plus classique pour des
annonces AS/400. En d'autres termes, il reste sept mois sur l'année 2000, au cours
desquels il n'y a officiellement aucune annonce de prévu…. que nous réservent
ces sept mois ? Voyez l'encadré "AS/6000 ?" à ce sujet. Tous les éléments matériels
et logiciels constitutifs de l'annonce du 22 mai seront disponibles en août 2000
(pas de date précise connue au moment où nous mettions sous presse, mais ce pourrait
être en début de mois), ce qui constitue aussi une première : en effet, IBM nous
avait habitués à ce que le contenu de ses annonces soit disponible immédiatement
ou très peu de temps après, et en aucun cas trois mois plus tard.
|
Extremecast live |
Avec de telles performances, l'AS/400e surclasse désormais les mainframes les plus puissants Lire l'article
Transférer des feuilles 97 Excel vers la base de données AS/400
Obtenir les informations dont on a besoin pour assurer un téléchargement Excel
réussi
Downloader un fichier base de données AS/400 vers une feuille de calcul Microsoft
Excel est une opération relativement simple. En fait, depuis la V3R1M3 de Client
Access pour Windows 95/NT, un add-in pour Excel 95 et Excel 97 permet de downloader
directement des données AS/400 dans une feuille de calcul.
En revanche, si on a besoin “ d'uploader ” (c'est-à -dire de réaliser l'opération
en sens inverse) une feuille de calcul depuis Excel vers une base de données AS/400,
la tâche n'est pas aussi simple. Assurer le chargement de la feuille de calcul
peut s'avérer difficile si on ne maîtrise pas les types de fichiers utilisés dans
Client Access et Excel. Dans cet article, je passe en revue les phases de préparation
d'une feuille de calcul à uploader vers un AS/400 en utilisant Client Access pour
Windows 95/NT. Je présente également certains des problèmes que l'on est susceptible
de rencontrer si on choisit des types de fichier incompatibles.
Le Service Pack 4 et les technologies réseau
Longtemps attendu, le Service Pack 4 de Windows NT 4.0 contient notamment des corrections de bugs importantes et de nouvelles fonctions pour trois technologies réseau fondamentales : DHCP, WINS et DNS. Voyons donc les problèmes liés à ces technologies et les corrections apportées par le SP4. Nous avons déjà évoqué le SP4 pour son SCE (Security Configuration Editor) dans l'article de Mark Joseph Edwards " Le nouvel éditeur de configuration de sécurité du SP4 " de décembre 1998), mais ne passez pas à côté de ses avantages réels. Le SP4 comporte en effet des corrections qui améliorent trois technologies réseau essentielles : DHCP (Dynamic Host Configuration Protocol), WINS (Windows Internet Naming Service) et DNS (Domain Name Service).
Lire l'article
Les options de déploiement de Windows 2000 Professional
Au cours des deux dernières années, le déploiement a été maintes fois évoqué,
en référence au processus consistant à installer un OS ou une application sur
les postes de travail de l'entreprise. A l'origine de Windows NT, l'installation
de l'OS nécessitait la présence d'un opérateur pour fournir des informations pendant
le processus. Windows NT 4.0 comportait quelques des options pour simplifier ce
processus, avec Windows 2000, l'OS en comporte beaucoup. Windows 2000 Professional offre de nombreuses méthodes de déploiement, que ce
soit sur un poste de travail ou pour tout un réseau.
Aussi, avant de commencer à installer l'OS, vous devez prendre en compte quelques
considérations. Si vous installez Windows 2000 Pro sur du matériel flambant neuf
garanti prêt pour Windows 2000, vous ne devriez pas rencontrer de problèmes.
En revanche, si vous envisagez de mettre à jour des systèmes existants, vous devez
vous préparer à quelques pièges en termes de compatibilité.
Les drivers sont un des points sensibles potentiels : Windows 2000 Pro utilise
une architecture de drivers différente de celle utilisée par Windows 9x. Bien
que Windows 2000 soit en gros une mise à jour de Windows NT, Microsoft a suffisamment
changé l'OS pour que l'on ne puisse pas partir du principe que les drivers NT
4.0 fonctionneront sous Windows 2000 Professionnal. Ne croyez pas la propagande
de Microsoft selon laquelle le Windows Driver Model (WDM) règlera tous ces problèmes
de compatibilité de drivers.
Au cours d'une récente conversation avec un des développeurs de WDM, ce dernier
m'a révélé que WDM ne s'applique à aucune forme de driver d'affichage (écrans,
imprimantes ou tout autre driver interagissant directement avec GDI - Graphical
Driver Interface). Le développeur m'a également appris que Microsoft avait reconçu
WDM pour les programmeurs et non les utilisateurs finaux et que, même lorsque
WDM fonctionne, la compatibilité binaire entre Windows 2000 Pro et Windows 9x
n'était pas garantie.
Même lorsque le Windows Driver Model fonctionne, la compatibilité binaire entre
Windows 2000 Pro et Windows 9x n'était pas garantie La compatibilité des applications
est également un problème. J'ai testé la RC3 de Windows 2000 Pro et, à l'heure
de mise sous presse, les applications suivantes présentaient des problèmes de
compatibilité (peut-être résolus depuis la disponibilité de la version définitive)
: Illustrator, Photoshop et Adobe Type Manager d'Adobe ; les logiciels d'Aldus
Freehand, Compuserve et AOL ; Inoculan et InoculanIT de Computer Associates ;
Exceed d'Hummingbird ; Diskshare et GeoMedia d'Intergraph ; cc:Mail, Notes, Organizer
et SmartSuite de Lotus ; Macromedia Director ; iGraphx Designer de Micrografx
; Encarta, Office, Photodraw, les Services for UNIX de NT 4.0, Visual Basic, Visual
C++, FoxPro, Visual Interdev et Visual Studio de Microsoft ; GroupWise de Novell
; Panda Antivirus ; PowerQuest Drive Image ; Crystal Report de Seagate ; et les
application sde Symantec dont pcANYWHERE.
Pour être honnête, les problèmes de compatibilité n'affectent pas toutes les versions
de tous ces produits et la plupart peuvent être contournés. Je n'ai évoqué ici
que deux des nombreux problèmes de compatibilité que vous pouvez rencontrer.
Que peut-on y faire ?
Les bonnes vieilles règles de la mise à niveau de Windows NT fonctionnent encore
: vérifiez la liste de compatibilité matérielle (HCL) pour vérifier que Windows
2000 Pro supporte votre système, vérifiez tous les drivers d'éditeurs tiers et
lisez la note accompagnant Windows 2000 Pro pour voir si un de vos logiciels présente
un problème.
Pour faciliter la découverte de problèmes de compatibilité, on peut utiliser le
commutateur \checkupgradeonly sur winnt32.exe. (Winnt32.exe est le nom du programme
d'installation de Windows 2000 Professionnal et on peut le trouver dans le répertoire
\i386 du CD-ROM de distribution.) On peut également utiliser le vérificateur de
compatibilité de Microsoft (checkupgrade_1.exe) que l'on peut télécharger depuis
le site Web de Microsoft.
Windows NT contre Unix : y-a-t-il un gagnant ?
Les parts de marché grignotées par Windows NT ayant fini par éroder la domination
d'Unix, le débat continue à faire rage sur la supériorité éventuelle de l'un des
deux OS. Beaucoup d'utilisateurs prétendent avec une ferveur quasi religieuse
que, quel que soit le système d'exploitation, le meilleur est celui avec lequel
on a travaillé en premier. Dans le clan Unix, en particulier, certains sont apparemment
convaincus qu'il suffit de vanter haut et fort les mérites d'Unix pour endiguer
la marée Windows NT.
Ce débat brûlant met en lumière, non sans ironie, que l'origine des deux OS remonte
au milieu des années soixante-dix et qu'ils ont tous deux été influencés en grande
partie par des concepts et des théories identiques. Personne ne sera surpris de
découvrir que Windows NT et Unix ont beaucoup de similitudes, mais aussi de différences.
Cet article va traiter en parallèle Windows NT et Unix et comparer leurs architectures,
avec un examen des principales caractéristiques de chacun : gestion des processus,
ordonnancement, gestion de la mémoire et traitement des I/O. Il se terminera par
une présentation des résultats des mesures les plus objectives disponibles, à
savoir les résultats des benchmarks reconnus par l'industrie.
Enfin, il abordera la question qui s'impose dans toute comparaison : " Quel est
le meilleur des deux OS ? "Peu importe de quel côté du débat Windows NT-Unix vous
vous trouvez, quelques surprises vous attendent.
Le PC doit-il faire sa révolution ?
Il semble évident que les PC sont là pour toujours. Pourtant, on peut en douter. Lors du dernier Comdex, en voyant les derniers PC les plus puissants, il était étonnant de voir combien les nouveaux PC ressemblent à ceux des années précédentes, y compris les premiers PC de 1981.Bien que l'industrie du PC donne l'image d'un marché en constante innovation, cette image est une illusion. Il stagne dans bien des domaines et cette stagnation pourrait bien annoncer de nombreux changements. Entre 1981 et 1987, les PC ont connu une évolution très rapide, passant de processeurs hybrides 8-bit et des 8088 16-bit aux processeurs 80386 pures 32-bit ; d'un affichage purement textuel à VGA ; et du stockage sur des disquettes de 160 Ko au disques durs généralisés et aux disquettes 3,5" de 1,44 Mo. Mais bien peu de choses ont changé depuis 1987. La disquette standard est toujours de 1,44 Mo et VGA est toujours la base de l'affichage vidéo. Les processeurs Intel à l'état de l'art(les Pentiums III) sont des 386 gonflés avec un jeu d'instruction amélioré. Intel a lancé les 386 32-bit en 1985 et, 15 ans plus tard, on attend toujours le processeur 64-bit que le fondeur avait promis avec la puce Itanium, (anciennement connue sous le nom de code Merced). Les vitesses d'horloge des processeurs ont certes augmenté considérablement, en apparence, mais en fait les apparences sont trompeuses. La vitesse d'horloge externe du 80386 atteignait 33 Mhz il y a 10 ans environ et le Pentium III, prétendument cadencé à 500 Mhz, n'offre en fait qu'une vitesse d'horloge externe de 100 Mhz, soit trois fois plus seulement.
Lire l'article
NUMA : vers de très gros AS/400
Avec NUMA (Non-Uniform Memory Access), les systèmes AS/400 pourraient supporter
des centaines ou des milliers de processeurs
Voilà des années que le débat fait rage chez IBM sur l'utilisation de NUMA (Non-Uniform
Memory Access) - une architecture mémoire permettant de bâtir de très grands systèmes
avec de nombreux processeurs. Les partisans avançaient que NUMA permet à un grand
nombre de processeurs de fonctionner comme un système unique, tout en conservant
la simplicité de programmation et d'administration d'un petit système.
Pour ses opposants, une architecture NUMA, trop complexe, ne permettrait jamais
de construire de très grands systèmes. Selon eux, les technologies Cluster étaient
seules valables en la matière.
NUMA
permet à un grand nombre de processeurs de fonctionner comme un système unique,
tout en conservant la simplicité d'un petit système
Pendant les 10 dernières années, les adversaires de NUMA
ont imposé leur point de vue. Les plus grands systèmes d'IBM, le RS/6000 SP et
le S/390 Sysplex, sont effectivement des systèmes en cluster.
Certaines des plus grandes installations d'AS/400, elles aussi, utilisent cette
même technique. Mais, récemment, Big Blue a commencé à penser autrement. La plupart
d'entre nous ont probablement entendu parler du projet lancé en 1995 par le Department
of Energy (DOE) visant à créer les plus gros et plus puissants ordinateurs du
monde. Les grands de l'informatique (dont IBM, SGI et Sun) collaborent avec les
laboratoires nationaux du DOE pour créer ces super-ordinateurs.
Début 1999, IBM a livré les derniers éléments d'un super-ordinateur appelé Blue
Pacific, au Lawrence Livermore National Laboratory de DOE en Californie. Blue Pacific est un hyper-cluster constitué de trois systèmes RS/6000 SP
avec 5856 processeurs PowerPC. C'est la plus grosse installation de RS/6000 SP
jamais construite et elle revendique le titre d'ordinateur le plus rapide au monde.
Toujours cette année, SGI a livré un super-ordinateur appelé Blue Mountain au
Los Alamos National Laboratory de DOE au Nouveau Mexique. Blue Mountain est un
très grand système SGI Origin2000 doté de 6144 processeurs. Bien que les tests
de ces deux monstres ne soient pas encore terminés, Blue Pacific et Blue Mountain
ont atteint les mêmes niveaux de performances. Mais il est intéressant de constater
qu'IBM utilise les technologies cluster pour Blue Pacific, tandis que SGI utilise
les technologies NUMA pour Blue Mountain.
Ceux qui, chez IBM, prétendaient que NUMA était inférieur au cluster, en ont pris
un coup. A tel point que, en juillet, IBM a annoncé la conclusion
d'un accord avec Sequent Computer Systems visant à acquérir toutes les actions
de Sequent pour fusionner avec elle. Rappelons que Sequent développe, fabrique
et vend de grands serveurs de bases de données basés Intel, sous Unix ou Windows
NT.
A l'heure actuelle, ces serveurs vont jusqu'à 64 processeurs avec les technologies
NUMA et le chiffre de 256 est déjà envisagé. Non seulement IBM vendra les serveurs
actuels de Sequent, NUMA-Q 1000 et 2000, mais Big Blue envisage aussi d'intégrer
les technologies NUMA de Sequent dans ses propres serveurs. Et l'AS/400 dans tout
çà ?
Les nouvelles fonctions de sécurité d’IIS 5.0
Microsoft Internet Information Server 5.0 comporte une foule de nouvelles fonctions,
et notamment un traitement amélioré des comptes des utilisateurs et des ordinateurs,
une meilleure exécution des applications des utilisateurs, ainsi que des fonctions
de sécurité perfectionnées.
Etant donné que de nombreux utilisateurs vont commencer à utiliser Windows 2000,
lui aussi porteur d'améliorations majeures en termes de sécurité, et qu'IIS 5.0
est quatre à cinq fois plus rapide qu'IIS 4.0, il était grand temps de consacrer
un article aux nouvelles fonctions de sécurité de la dernière version d'IIS. Celles-ci
facilitent la configuration de la sécurité des applications et, grâce aux nouvelles
technologies comme Kerberos, améliorent la cohérence de l'utilisation de la sécurité
d'IIS avec d'autres systèmes.
L'utilisation d'IIS 5.0 commence par son installation sur Windows 2000. Pour tester
IIS 5.0, j'ai utilisé la beta de Windows 2000 Server. La configuration de Windows
2000 a un impact sur l'utilisation d'IIS 5.0 et sur le fonctionnement des fonctions
de sécurité du logiciel. Le serveur IIS 5.0 peut être configuré comme contrôleur
de domaine ou installé dans un domaine Windows 2000 existant. En d'autres termes
on peut l'installer sur n'importe quelle machine du domaine.
Une fois IIS 5.0 installé, j'ai utilisé Microsoft Visual InterDev 6.0 pour créer
un nouveau répertoire virtuel, tâche que rendent pénible les Extensions FrontPage
Server. Windows 2000 m'a obligé à me connecter par le biais de Visual InterDev
et a vérifié le compte d'utilisateur utilisé par l'OS pour créer le répertoire.
En dehors de mon ID de logon et de mon mot de passe, je n'ai eu besoin d'aucune
information de plus sur Windows 2000. Ce processus correspond à celui d'IIS 4.0
pour créer un répertoire virtuel et travailler avec les fonctions de sécurité.
L'accès aux paramètres de sécurité se fait par le Gestionnaire des services
Internet comme dans IIS 4.0 de Windows NT 4.0
Vues partitionnées distribuées (partie I)
par Kalen Delaney et Itzik Ben-Gan
NDLR : cet article est le premier d'une série de trois sur les Vues partitionnées distribuées de SQL Server 2000.
Les environnements OLTP (OnLine Transaction Processing) et
les bases de données des grands sites Web sont en général constitués de
nombreuses requêtes individuelles, interrogeant ou manipulant une quantité de
données relativement petite. Quand la taille du système augmente, et que les
utilisateurs font de plus en plus de requêtes base de données, les
administrateurs essaient habituellement d'améliorer les temps de réponse en
augmentant la puissance des serveurs. On peut alors ajouter des CPU, remplacer
ses CPU par des CPU plus rapides, ajouter de la mémoire, renforcer le réseau
ou ajouter des disques durs plus rapides, avec de meilleurs contrôleurs. Mais
à un certain moment, on va épuiser les ressources disponibles car les limites
de la machine seront atteintes; à moins que ce ne soit votre budget. SQL Server
2000 apporte une solution à la demande sans cesse grandissante en puissance de
traitement : l'expansion horizontale. Cette solution consiste à fractionner de gigantesques tables
en tables plus petites (chacune étant un sous ensemble, ou partition, de la
table d'origine) et à les faire coexister sur des serveurs distincts. Chaque
serveur peut être géré indépendamment, mais ensemble, ces serveurs forment
une fédération. Pour accéder à une donnée sur n'importe laquelle des
partitions, on définit une vue du même nom sur tous les serveurs, ce qui rend
transparent le fait que les données sont distribuées sur plusieurs noeuds. Un
utilisateur ou une application connectés aux serveurs peut passer des
instructions DML (Data Manipulation Language : langage de manipulation de
données) comme SELECT, INSERT, UPDATE et DELETE sur cette vue comme s'il
interrogeait la table d'origine. SQL Server 2000 intercepte les instructions
et les reroute vers les serveurs appropriés. Cette configuration distribue la
charge de traitement entre tous les membres de la fédération.
Apprenez à utiliser les techniques liées à la stratégie d'expansion horizontale de Microsoft
SQL Server 7.0 permet de créer des vues partitionnées locales. Avec SQL Server 7.0, on peut également créer des vues partitionnées sur de multiples serveurs, mais on ne peut pas les modifier, ce qui limite beaucoup leur utilité. De plus, avec SQL Server 7.0 ainsi que les versions précédentes, toute vue basée sur une opération UNION ne peut être mise à jour, qu'elle se trouve sur un serveur unique ou soit distribuée sur de multiples serveurs. SQL Server 2000 remédie à cette restriction en permettant aux utilisateurs de mettre à jour certains types de vues basée sur la commande UNION, et introduit de nouvelles techniques d'optimisation pour la mise en place des vues partitionnées. Nous allons présenter ces nouvelles techniques d'optimisation dans cet article, et vous montrer comment mettre en place et modifier des vues partitionnées distribuées.
Lire l'article
Améliorer la sécurité avec les timeout d’écran
par Jim Elkins Les timeout des écrans protègent les utilisateurs d'actes de sabotage et contribuent à empêcher les verrouillages d'enregistrements Au cours de ces dernières années, j'ai interviewé et embauché plusieurs consultants AS/400. Pour parvenir à prendre les décisions d'embauche, j'invite les candidats à passer une épreuve technique que j'ai développée pour mesurer les connaissances et l'expérience des développeurs AS/400. Une des questions de l'épreuve à laquelle les candidats répondent rarement de façon correcte concerne les timeout d'écrans. Ces derniers permettent d'améliorer la sécurité du site et fournissent un outil pour gérer le verrouillage d'enregistrements. Pour contribuer à former les professionnels AS/400 sur les timeout d'écrans, j'ai décidé de créer une application simple qui illustre cette fonction essentielle et pourtant si souvent ignorée.
Lire l'article
Tel le Phénix, l’AS/400 renaît de ses cendres
Il y a des serpents de mer qui s'apparentent plus au monstre du Loch Ness tellement
peu souvent on les voit. La disparition annoncée de l'AS/400 est de ceux-là . Universal
Server va-t-il sauver cette plate-forme?
Ce n'est un secret pour personne : l'AS/400 connaît une crise d'identité. Au sein
de la communauté AS/400, les gens bien informés, les utilisateurs loyaux et les
clients dédiés connaissent et apprécient la machine pour ses nombreux avantages.
Mais à l'extérieur de ce cercle d'initiés, l'AS/400 reste une énigme, une plate-forme
largement sous-appréciée et incomprise.
La crise et les problèmes qu'elle engendre semblent aujourd'hui à marée haute
Les plus consultés sur iTPro.fr
- Cloud souverain : répondre aux enjeux d’hybridation et de maîtrise des dépendances
- Cybermenaces 2026 : l’IA devient la nouvelle arme des attaquants
- DevX Summit EMEA : les développeurs au cœur de la révolution de l’IA
- Editeurs, crawlers et équipes sécurité, les alliances qui feront tenir le web
Articles les + lus
Communes, entreprises ? Non, face au RGAA 5, l’IA seule ne rendra pas vos sites accessibles
DevX Summit EMEA : les développeurs au cœur de la révolution de l’IA
Adapter la sécurité OT aux réalités de l’industrie
Coder vite, mais coder juste : trouver l’équilibre à l’ère de l’IA
Mixité dans la Tech : en 2026, un choix de souveraineté stratégique
À la une de la chaîne Tech
- Communes, entreprises ? Non, face au RGAA 5, l’IA seule ne rendra pas vos sites accessibles
- DevX Summit EMEA : les développeurs au cœur de la révolution de l’IA
- Adapter la sécurité OT aux réalités de l’industrie
- Coder vite, mais coder juste : trouver l’équilibre à l’ère de l’IA
- Mixité dans la Tech : en 2026, un choix de souveraineté stratégique
