Les fonctions définies par l’utilisateur
par Robert Vieira
Maîtrisez les UDF de SQL Server 2000
J'ai commencé à travailler avec SQL Server en version 6.0. Bien que j'aie antérieurement
déjà utilisé le langage SQL en environnement VMS en 1989, la majeure partie de
mon expérience relative aux bases de données s'était déroulée dans un environnement
de fichiers plats. J'ai été étonné de constater que les opérations sur les enregistrements
de type curseur ne me manquaient pas autant que la capacité de définir simplement
des fonctions. Avec SQL Server 2000, je peux enfin créer des UDF (User-Defined
Functions : fonctions définies par l'utilisateur) utilisables non seulement dans
les scripts, mais aussi en ligne dans des instructions DML (Data Manipulation
Language). SQL Server 2000 possède deux types d'UDF. Le premier type renvoie une
valeur scalaire et le second des tables. Dans le présent article, je présente
des exemples de chacun des deux types et décris brièvement la manière d'utiliser
les UDF dans des applications SQL Server 2000.
à€ bien des égards, les UDF ressemblent à des procédures cataloguées
Un coup d’oeil à Whistler
par John Ruley
Whistler est le nom de code du nouveau système d'exploitation 32 bits qui remplacera
Windows 2000 Professional et Windows Millennium Edition (Windows Me). Microsoft
n'a pas encore livré beaucoup de détails sur Whistler - qui repose sur le noyau
de Windows 2000 et de Windows NT -, pas même la date de sa sortie (probablement
l'an prochain), mais commence à dévoiler et à expliquer certaines de ses caractéristiques.
Il s'agit notamment de modifications de l'interface utilisateur, de l'existence
d'une version personnelle (c'est-à -dire mono-utilisateur) de la technologie Terminal
Services de Windows 2000 Server, et d'une révision drastique du traitement des
DLL par les précédentes versions de Windows 32 bits.
Gérer la croissance de vos applications avec Application Center
par David Chernicoff
Si vous avez déjà été confronté à l'installation, la configuration ou l'administration
de Microsoft Cluster Server ou de Network Load Balancing, vous savez à quel point
cette mission est périlleuse. De plus, malgré sa convivialité améliorée, Windows
2000 n'a pas rendu cette tâche plus facile.
Les fournisseurs ont bien compris l'ampleur du problème que représente la configuration
de MSCS (Microsoft Cluster Server) et ils proposent désormais une multitude de
solutions qui font que les administrateurs système ne sont plus obligés de partir
de zéro pour installer un cluster et le faire fonctionner. Mais peu de solutions
adressent la complexité de configuration de l'équilibrage de charges des applications
avec NLB (Network Load Balancing) et CLB (Component Load Balancing).
L'idée sur laquelle reposent NLB et CLB est simple : si vous voulez accroître
les capacités des applications de votre réseau, alors configurez un serveur pour
qu'il puisse supporter une application en réseau et ajoutez le serveur dans votre
réseau. La possibilité d'utiliser ce type de démarche pour faire monter en charge
les applications est une des composantes fondamentales des montées en charge horizontales
(scale-out) pour Microsoft et de sa stratégie .NET. Microsoft Application Center
2000 est au coeur de la stratégie .NET de Microsoft. Le rôle de Application Center
est d'intégrer et de simplifier la montée en charge des applications, leur gestion
et leur disponibilité.
Le clustering de Application Center n'est pas MSCS, mais plutôt un équilibrage
de charges réseau associé au clustering d'objets COM+. Bien que le clustering
de Application Center n'assure pas le même niveau de tolérance aux pannes que
MSCS, il améliore les performances et ne nécessite pas de matériel spécifique
contrairement à MSCS. Application Center n'exige même pas que les serveurs du
cluster soient identiques, que ce soit en configuration ou en performances. De
plus, Application Center n'offre pas un clustering de type failover à 2 ou 4 voies,
il offre le clustering jusqu'à 32 voies que supporte NLB. L'équilibrage de charges
COM+ est limité à 8 voies, et la complexité des applications tournant sous Application
Center peut cependant limiter le nombre de noeuds du cluster.
Le rôle de Application Center est d'intégrer et de simplifier la montée
en charge des applications, leur gestion et leur disponibilité
SMP et traitements parallèles sur AS/400
par James Steward et Dan Cruikshank
Le parallélisme donne un réel coup de pouce aux performances. Certes, mais est-ce
toujours dans la bonne direction ?
Peu après les problèmes systèmes survenus chez e-Gads (voir l'article "The Case
of the Missing Index", NEWS/400, août 2000), nous avons discuté, Dan et moi-même,
la nécessité de publier quelques informations de base à propos du parallélisme
sur AS/400. Il faut se souvenir que les dysfonctionnements d'e-Gads étaient provoqués
(en partie) par le parallélisme des requêtes. La valeur système QQRYDEGREE était
définie pour utiliser le parallélisme des I/O (*IO). La requête à problème tournait
en haute priorité et le gros fichier d'historique financier détaillé existait
sur la plupart (si ce n'est sur tous) des bras disque. Ainsi, la mise en oeuvre
de la requête de l'optimiseur des requêtes lisait de manière dynamique depuis
ces bras en parallèle, et provoquait la dégradation des autres travaux du système.
La situation d'e-Gads est un parfait exemple de la manière dont le parallélisme
peut entraîner des difficultés si on ne prend aucune précaution.
La stratégie de croissance d'IBM pour les AS/400 haut de gamme a été de mettre
en place des systèmes plus grands, utilisant plusieurs processeurs. Cette approche
améliore considérablement le traitement interactif et les taux de transmission
des transactions associés. En revanche, pour les traitements classiques des travaux
par lot à une seule unité de traitement, cela signifie des systèmes largement
sous-utilisés.
Le parallélisme peut entraîner des difficultés si on ne prend aucune précaution
Lorsque les systèmes bi-processeurs sont apparus, Dan et moi avons commencé à
répondre à des questions du genre : "Pourquoi ne puis-je pas exploiter mon système
à plus de 50 % d'utilisation de CPU pendant les heures creuses ?" Nous avons encouragé
les traitements parallèles et nos analyses sur la conception d'applications étaient
centrées sur l'utilisation de cette fonctionnalité. Avec des systèmes à 4, 8 et
12 processeurs, les traitements parallèles deviennent encore plus judicieux. Nous
recevons encore des appels mais, aujourd'hui, avec un système à 12 processeurs,
les questions ressemblent à ceci : "Pourquoi ne puis-je pas exploiter mon système
à plus de 10 % d'utilisation de CPU pendant les heures creuses ?"
Les demandes des requêtes impliquent en général, le traitement de gros volumes
d'I/O. Ainsi, le parallélisme, tout comme les traitements par lot, profite du
traitement des requêtes sur AS/400. Les améliorations récentes apportées au système
ont été centrées sur les traitements parallèles ; il existe même une fonction
OS/400 téléchargeable permettant d'étendre l'utilisation du parallélisme du système.
Si elle est installée, la fonction SMP (Symmetrical Multiprocessing) permet de
diviser automatiquement certains travaux de requête en plusieurs tâches pouvant
être traitées simultanément par plusieurs processeurs. J'entends, par travaux
de requête, toutes les requêtes utilisant l'optimiseur de requêtes. Par conséquent,
SQL, Query/400, OPNQRYF, ODBC, l'API de requêtes, DRDA (Distributed Relational
Database Architecture) et JDBC figurent parmi les interfaces tirant profit de
SMP.
| Méthodes d'accès utilisant le parallélisme | |
| Méthodes d'accès aux données sans clés Parallel table scan Parallel skip sequential Parallel pre-fetch Parallel table pre-load Méthodes d'accès aux données avec clé Key positionning and parallel key positionning Key selection and parallel key selection Parallel index pre-load |
Parallélisme SMP SMP I/O I/O Parallélisme SMP SMP I/O |
La tâche de l'optimiseur de requêtes consiste à développer l Lire l'article
Tirer toute la puissance de la MMC de Windows 2000
par Kathy Ivens
La Microsoft Management Console (MMC) de Windows 2000 constitue un framework pour
l'administration et la gestion des configurations des systèmes. La beauté de la
MMC est qu'elle remplace les nombreuses interfaces nécessaires pour gérer Windows
NT et qu'elle simplifie la gestion des systèmes. La MMC a été amplement documentée
par Microsoft. On peut donc s'attendre à ce que les éditeurs de logiciels commencent
à inclure dans leurs solutions des composants logiciels enfichables la MMC pour
leur installation et configuration.
La Microsoft Management Console constitue une interface graphique pour les composants
logiciels enfichables d'administration - également baptisées snap-in. Ces briques
logicielles définissent et réalisent les tâches d'administration. La MMC en elle-même
n'offre pas de fonctions d'administration. Sa valeur ajoutée est qu'elle vous
permet d'ajouter et coordonner facilement les composants enfichables. La MMC offre
une interface de documents multiples qui peut exploiter les technologies Internet
et les contrôles ActiveX.
La MMC tourne sur les plates-formes Win32 (par exemple Windows 2000, NT 4.0 ou
Windows 9x). Windows 2000 comprend des snap-in en standard dans le menu Outils
d'administration du menu Démarrer. De nombreux autres produits Microsoft (notamment
le Kit de ressources de Windows 2000, SQL Server et Exchange 2000 Server), offrent
des composants enfichables supplémentaires.
On peut assembler plusieurs composants logiciels enfichables pour créer une console
personnalisée pour administrer les différents ordinateurs de votre entreprise.
Sauvegardez les consoles que vous avez créées sous forme de fichiers .msc (Management
Saved Console), et utilisez la méthode qui conviendra la mieux à votre environnement
pour les distribuer dans le système d'informations. (On peut par exemple rendre
les fichiers disponibles sous forme de raccourcis sur les bureaux ou comme options
du menu démarrer, envoyer les fichiers par e-mails ou encore publier les fichiers
dans une page Web.)
On peut assembler plusieurs composants logiciels enfichables pour créer
une console personnalisée
Les bizarreries d’Active Directory
par Mark Minasi
Alors qu'Active Directory sort des laboratoires de test pour faire ses premiers
pas dans le monde réel, on découvre certains petits soucis des premières générations
du service d'annuaire de Windows 2000. Certains sont mineurs, mais d'autres ne
le sont pas. Voici un petit aperçu de quatre de ces bizarreries.
Utilisation des zones de données en RPG et en CL
par Jef Sutherland
Les zones des données
sont des objets AS/400 permettant de stocker des morceaux d'information ou des
ensembles de valeurs (comme des paramètres société, des taux de TVA ou des
options de sauvegarde/restauration) là où on ne souhaite pas forcément avoir
un fichier physique avec de multiples enregistrements. Les zones de données
peuvent stocker jusqu'à 2000 caractères, et constituent une manière intéressante
d'assurer les communications de programme à programme ...le premier
programme positionne la data area pour que le second puisse récupérer
l'information et l'utiliser. Lorsqu'on crée une zone de données avec la
commande CRTDTAARA (figure 1), on peut spécifier si la zone de données est de
type caractère (*CHAR), numérique (*DEC) ou logique (*LGL).
Une zone de données spéciale appelée LDA (Local Data Area), utilisable par n'importe quel programme, est créée systématiquement avec chaque job AS/400. Ceci est bien pratique car les programmeurs n'ont pas à créer de LDA lorsque celle-ci s'avère nécessaire ; elle est déjà disponible. Cependant, cette LDA peut être source de problèmes si un grand nombre de programmes s'en servent sans tenir compte des modifications de la LDA faites par les autres programmes.
Une zone de données spéciale appelée LDA, utilisable par n'importe quel programme, est créée systématiquement avec chaque job AS/400
Lire l'article
Une informatique de gestion
par Catherine China
Société de négoce de vins basée à Beaune, Vinipar vient de terminer le développement
d'une application client-serveur de gestion des forces de vente en environnement
AS/400. Conçu à partir de l'AGL Adelia d'Hardis, cet applicatif permettra notamment
d'optimiser la gestion de relevés de linéaires, dans une optique de passage An
2000.
Depuis plusieurs générations, l'entreprise familiale Vinipar relève le défi du
négoce de vins. Dans un secteur devenu de plus en plus concurrentiel, être à la
pointe de l'informatique est devenu son fer de lance. Cela fait près de 8 ans,
qu'elle travaille avec l'éditeur grenoblois Hardis pour le développement d'applications
de gestion sur mesure.
Son équipe informatique vient ainsi de terminer le développement d'une nouvelle
application de gestion des forces de vente basée sur l'AGL Adelia. “ Il y a trois
ans, nous avions choisi d'installer leprogiciel Nomade de gestion des forces de
ventes, mais l'application ne passant pas l'an 2000, il nous fallait trouver une
alternative. Deux solutions s'offraient à nous : soit trouver un autre progiciel
du marché qui passe l'an 2000, soit développer l'application en interne ” explique
ainsi Yves Ganavat, directeur informatique chez Vinipar.
Etre à la pointe de l'informatique est devenu le fer de lance de Vinipar
Après une étude réalisée auprès des différents éditeurs du marché à la fin 1998,
c'est finalement l'option du développement sur mesure qui a été retenue. “ Avec
Hardis, c'est avant tout une affaire de confiance. Cela fait plusieurs années
que nous travaillons ensemble pour le développement de nos applicatifs de gestion
commerciale et de production. Nous avons ainsi préféré faire appel à une société
que nous connaissions déjà pour nous accompagner dans le développement complet
de ce nouvel applicatif, et en nous basant sur un AGL que nos équipes de développement
maîtrisait déjà ” ajoute le directeur informatique.
XML : au delà des frontières
par Sharon L. Hoffman
Comment étendre les possibilités de description de fichiers des DDS aux environnements
hétérogènes
Les développeurs AS/400 se passionnent pour XML (Extensible Markup Language) parce
que ce langage promet de régler deux problèmes pressants : échanger des informations
entre applications disparates, et insérer des données complexes dans des pages
Web. Comme l'AS/400 est avant tout un moteur de base de données, ces problèmes
intéressent tout particulièrement les développeurs AS/400.
Certes, le problème de l'échange d'informations n'est pas nouveau. Mais il s'accentue
dès lors qu'on partage de plus en plus de données avec ses clients et fournisseurs.
La prolifération des bases de données internes et des applications (depuis les
répertoires d'adresses sur chaque PC jusqu'aux applications de business intelligence
complexes), suscite de nouvelles demandes pour l'échange de données entre programmes.
La nécessité d'insérer des données complexes dans des pages Web est le corollaire
de la large utilisation d'Internet et, plus particulièrement, du développement
d'applications de e-commerce.
Au fur et à mesure que les sites Web deviennent plus sophistiqués, les pages HTML
statiques sont de moins en moins pratiques. Les développeurs Web adoptent des
outils comme Java et XML pour rendre les pages Web plus dynamiques et pour limiter
les traitements manuels nécessaires pour des transactions Web, comme des demandes
d'informations et des achats en ligne.
Plutôt que d'expliquer dans le détail les techniques et standards de coding XML,
voyons plutôt la relation entre XML et les langages de définition de données,
comme SQL et DDS, et les outils et technologies nécessaires pour utiliser XML
efficacement. (Pour avoir un bref aperçu de XML, voir l'encadré " XML : Vue d'avion
".)
A la base de toute discussion sur l'échange de données, on trouve l'encodage
des métadonnées
Partager des fichiers avec NFS
NFS (Network File System) permet à l'AS/400 d'accéder à une activité d'import/export de fichiers
A chaque release de l'OS/400, IBM ajoute de nouvelles fonctions
TCP/IP, rendant du même coup l'AS/400 plus ouvert et plus adapté aux réseaux,
au fur et à mesure qu'il mûrit. Nous avons récemment assisté à l'addition de
services IP comme DNS (Domain Name System : système de noms de domaines) et
DHCP (Dynamic Host Control Protocol : protocole dynamique de contrôle d'hôtes)
mais aussi à celle de SMB (Server Message Block) qui permet à l'AS/400 de partager
le système de fichiers et les ressources d'impression de la même manière que
Windows NT.
Le partage des fichiers de NetServer avec SMB fonctionne bien pour des clients
Windows 95/98/NT. Mais qu'en est-il si les applications AS/400 doivent accéder
aux données d'un PC ? L'AS/400 peut être un serveur SMB, mais pas un client.
Autre cas : qu'en est-il si on a besoin de partager les fichiers avec de nombreuses
plates-formes hétérogènes, telles que plusieurs Unix, et que l'on ne souhaite
pas transférer les fichiers par FTP sur chaque système ? Entrez donc dans NFS
(Network File System).
Sun a sorti la version 1 de NFS en 1984 comme la solution au partage des fichiers sur des ordinateurs Unix en réseau
Lire l'article
Quitter la fraternité de l’anneau
Voici quelques indications pour réussir votre voyage de Token Ring vers une nouvelle
vie avec Ethernet haute vitesse
Bilbo Baggins, le hobbit héros de la trilogie Le
Seigneur des anneaux de J.R.R. Tolkien, entama un difficile voyage de son
pays natal vers un royaume étranger où l'attendaient de terribles batailles. Il
quitta un pays doux et confortable, parce qu'il le fallait - le monde extérieur
avait changé, et des nouveautés s'annonçaient. Il était membre de la Fraternité
de l'anneau, un groupe de camarades itinérants poursuivant une cause commune.
Mais les événements du monde rendirent inévitable la fin de la fraternité. Bilbo
espérait qu'en fin de compte, le bien triompherait du mal et que le monde deviendrait
un endroit meilleur.
En tant qu'administrateur de réseau Token-Ring (anneau à jeton), vous êtes membre
d'une semblable fraternité. Comme Bilbo, un long voyage vous attend: un voyage
qui vous entraînera hors de la Fraternité du Token-Ring. Heureusement, vous pouvez
en voir la fin. Vous savez que les batailles des réseaux à haut débit ont déjà
été livrées, que le bien a triomphé, et qu'un monde meilleur vous attend. Mais
nombreuses sont les routes qui mènent au Pays d'Ethernet. Vous devez savoir laquelle
prendre et comment l'emprunter.
Peu de gens doutent sérieusement de la disparition de Token-Ring; IBM elle-même
semble constituer le dernier carré des fidèles à Token-Ring, mais Big Blue s'est
couvert en déployant une gamme complète de produits Ethernet. Le marché a parlé:
le monde appartient à Ethernet. Non seulement ce dernier est plus rapide - on
trouve actuellement des produits à 1 Gbps, tandis que le Token Ring à 100 Mbps
apparaît à peine (voir l'encadré "Token-Ring haute vitesse: trop petit, trop bancal"),
mais pratiquement tous les composants réseau (firewalls, cartes interface réseau
(NIC, network interface cards), routeurs), en ont besoin. Seule une petite frange
du marché LAN s'intéresse encore à Token-Ring.
De par le passé, les voies de migration favorites des utilisateurs Token-Ring
étaient FDDI (Fiber Distributed Data Interchange) à 100 Mbps ou ATM (Asynchronous Transfer Mode) à 155 Mbps. L'arrivée du Gigabit
Ethernet bon marché a modifié tout cela. FDDI, avec ses 100 Mbps, est tout simplement
trop lent, et même si ATM atteint 620 Mbps, ses composants sont coûteux et complexes
par rapport à 1000BaseTF de l'Ethernet à 1 Gigabit. Donc, à moins d'avoir déjà
investi dans FDDI ou ATM, il vaut mieux passer carrément en 100 Mbps et à Ethernet
à 1 Gigabit.
Il n'y a donc plus de doute: il est temps de changer. Mais comment passer de Token-Ring
à Ethernet sans dépenser une fortune en nouveau câblage et en matériel, sans perdre
des centaines d'heures à réinstaller les NIC et à reconfigurer les systèmes, et
pourquoi encourir le reproche d'avoir initialement choisi Token-Ring pour son
LAN?
La réponse est la même que celle que Gandalf le sorcier a faite à Bilbo lorsque
celui-ci lui a demandé comment commencer son voyage: "Un pas à la fois". En apprenant
les aspects techniques de la migration, où commencer le déploiement d'Ethernet,
comment le faire rentablement, et comment obtenir d'autres avantages en même temps,
on peut migrer vers Ethernet à moindre coût et avec peu de perturbations.
Au lieu de perdre la face, vous gagnerez en crédibilité car votre réseau sera
plus rapide et plus fiable.
Gandalf le sorcier, lorsque Bilbo
lui a demandé comment commencer son voyage, a répondu: "Un pas à la fois".
Une exploration de Client Access Express
Express simplifie considérablement l'installation et la configuration de Client
Access. Voici comment !
Client Access Express guérit les principaux maux dont souffrait Client Access
pour Windows 95/NT. L'ancien Client Access s'appropriait le PC client et consommait
une grande partie de ses ressources mémoire et disque pour, somme toute, un simple
morceau de logiciel de connectivité. L'installation de Client Access pour Windows
95/NT demandait également la présence de services d'arrière-plan pour tout prendre
en charge, depuis l'accès au réseau AS/400 jusqu'aux commandes à distance en entrée.
De plus, le produit ne permettait pas aux utilisateurs de supprimer facilement
les parties indésirables. Et le support SNA de Client Access pour Windows 95/NT
n'était pas irréprochable. Le système se bloquait souvent, ou les PC étaient immobilisés
pendant le démarrage ou la fermeture. Même après plusieurs années de développement
et de corrections, le produit n'a jamais totalement satisfait de nombreux utilisateurs.
Client Access Express résout les problèmes grâce à un ensemble de fonctionnalités
qui se concentrent sur l'essentiel de la connectivité PC-AS/400
Client Access Express résout ces problèmes grâce à un ensemble de fonctionnalités
qui se concentrent sur l'essentiel de la connectivité PC-AS/400. Comme son prédécesseur
Client Access pour Windows 95/NT, le nouveau client Express s'exécute sur des
systèmes Windows 9x et NT. Express a supprimé une bonne partie du support
devenu obsolète de Client Access pour Windows 95/NT et donne aux utilisateurs
une plus grande maîtrise de l'exécution des processus d'arrière-plan. En outre,
Express utilise les possibilités des services de fichiers et d'impression natifs
de l'AS/400, via AS/400 NetServer.
Cela permet à un PC Client Access d'utiliser “ Windows Neighborhood Network ”
pour se connecter à l'AS/400 et aussi de se passer des daemons et des tâches d'arrière-plan
qu'utilisait Client Access pour Windows 95/NT. Le client Express résout les problèmes
SNA en abandonnant la connectivité et le support SNA des applications 16 bits.
Comme la plupart des connexions TCP/IP actuelles, ces modifications permettent
à Client Access Express de mieux répondre aux besoins de connectivité de l'AS/400.
Voyons les étapes de base nécessaires pour installer et configurer Client Access
Express.
Centraliser l’administration avec les stratégies de groupe
Les stratégies de groupe, ou group policies, sont la nouvelle fonction de Windows 2000 que je préfère. Elles permettent une chose qui n'existait pas dans Windows NT : le contrôle centralisé, mais granulaire, des ordinateurs des utilisateurs. On pourrait en quelque sorte comparer les stratégies de groupe à des stratégies système NT 4.0 qui seraient arrivées à maturité. Les Group Policy Objects (GPO), ou Objets de stratégie de groupe, sont des objets Active Directory (AD) permettant une configuration centralisée des ordinateurs et des serveurs Windows 2000. Les fonctionnalités des stratégies de groupe englobent tout, du verrouillage des PC à la mode NT 4.0 jusqu'à la configuration de la sécurité et l'installation des logiciels.Cet article explique comment fonctionnent les stratégies de groupe, ce qui se passe à l'intérieur du système et comment traiter un certain nombre de défis à relever, avant de procéder au déploiement de cette technologie dans un environnement Windows 2000. Sachez enfin que pour bien comprendre la stratégie de groupe, il vaut mieux connaître le mode de fonctionnement des stratégies système de NT 4.0.
Lire l'article
Le blues du double boot
Lorsque Steve Balmer, Président de Microsoft, a annoncé la disponibilité de Windows 2000 Professional, il a qualifié l'OS de "meilleur système d'exploitation pour les utilisateurs d'entreprise", point ! A bien des égards, cette assertion est vraie, mais l'OS n'est pas entièrement compatible avec les matériels et logiciels pour Windows 9x. Le double boot est donc souvent une nécessité.J'attends toujours un driver de scanner/fax afin de pouvoir exploiter mon imprimante HP OfficeJet 710 sous Windows 2000 et j'utilise des logiciels de simulation de vol qui ne tournent pas sous Windows 2000. Je ne peux donc pas supprimer Windows 98, quelle que soit mon envie de le faire et, à en juger par le courrier que je reçois, je ne suis pas le seul dans ce cas. Il est donc plus que possible que vous souhaitiez savoir comment créer un environnement à double initialisation qui permette de passer de Windows 2000 à Windows 98.
Lire l'article
Comment intégrer Windows NT dans un environnement Unix
Les serveurs Windows NT empiètent de plus en plus sur les environnements UNIX.
Or, ni l'un ni l'autre des deux OS ne convient à toutes les situations. Les tenants
de Windows NT et d'UNIX préfèrent généralement que les réseaux se limitent à leur
solution respective, mais beaucoup de fournisseurs (dont Microsoft, HP, Compaq
et SCO) ont adopté des programmes d'interopérabilité agressifs.
Au final, la plupart des entreprises exploitent à la fois NT et UNIX, car chacun
des OS offre des fonctionnalités propres.
Avant de prendre la décision d'intégrer Windows NT dans une entreprise fortement
engagée dans UNIX, il convient de répondre à quelques questions fondamentales.
Commencez par cerner quels sont les facteurs qui vous incitent à ajouter NT à
votre réseau.
Avez-vous des raisons techniques ou professionnelles pressantes, ou bien suivez-vous
simplement la tendance du secteur ?
Etudiez ensuite le coût des matériels et logiciels qu'exigerait un réseau mixte
sur une période de cinq ans.
Troisièmement, pensez aux coûts cachés d'une telle intégration, y compris son
effet sur les utilisateurs de votre réseau (par exemple la formation, le temps
d'arrêt potentiel, la résistance au changement…).
Quatrièmement, assurez-vous que les applications sous Windows NT peuvent répondre
aux exigences de votre organisation. Cinquièmement, déterminez si les avantages
qui en découlent l'emportent sur le coût occasionné par l'intégration des deux
OS.Pour associer NT et UNIX dans un réseau, il faut mettre sur pied un projet
d'intégration adapté aux besoins de l'entreprise. Les administrateurs systèmes
qui en sont chargés risquent facilement d'être submergés. Il n'est malheureusement
pas possible d'utiliser de schéma clair pour mixer les deux OS. Il n'existe aucune
solution convenant à toutes les entreprises.
Linux : les mauvaises nouvelles …
Comme nous l'avons vu dans l'article " NT versus Linux : les trois avantages de Linux " du mois dernier, Linux a des forces, mais essayez de l'utiliser et vous lui découvrirez également des faiblesses. Dans les recherches que j'ai eu l'occasion de faire sur Linux, j'ai découvert que la chose la plus redoutable de l'utilisation de l'OS est son installation. De nombreux utilisateurs m'ont dit qu'après avoir installé Linux, l'OS est stable et fiable et, dans une certaine mesure, mon expérience confirme cette impression. Mais ne vous y trompez pas : l'installation de Linux est un cauchemar ! J'ai installé cinq versions de distibution de Linux - SuSE Linux beta 6.3, Red Hat Linux 6.0, OpenLinux 2.3 de Cadera System's, Corel Linux et Slackware Linux 7.0 de LinuxMafia - sur plusieurs systèmes. Les cinq versions de distribution sont similaires mais ont des routines d'installation différentes. J'ai eu de nombreux problèmes en installant toutes les versions.
Lire l'article
NUMA : vers de très gros AS/400
Avec NUMA (Non-Uniform Memory Access), les systèmes AS/400 pourraient supporter
des centaines ou des milliers de processeurs
Voilà des années que le débat fait rage chez IBM sur l'utilisation de NUMA (Non-Uniform
Memory Access) - une architecture mémoire permettant de bâtir de très grands systèmes
avec de nombreux processeurs. Les partisans avançaient que NUMA permet à un grand
nombre de processeurs de fonctionner comme un système unique, tout en conservant
la simplicité de programmation et d'administration d'un petit système.
Pour ses opposants, une architecture NUMA, trop complexe, ne permettrait jamais
de construire de très grands systèmes. Selon eux, les technologies Cluster étaient
seules valables en la matière.
NUMA
permet à un grand nombre de processeurs de fonctionner comme un système unique,
tout en conservant la simplicité d'un petit système
Pendant les 10 dernières années, les adversaires de NUMA
ont imposé leur point de vue. Les plus grands systèmes d'IBM, le RS/6000 SP et
le S/390 Sysplex, sont effectivement des systèmes en cluster.
Certaines des plus grandes installations d'AS/400, elles aussi, utilisent cette
même technique. Mais, récemment, Big Blue a commencé à penser autrement. La plupart
d'entre nous ont probablement entendu parler du projet lancé en 1995 par le Department
of Energy (DOE) visant à créer les plus gros et plus puissants ordinateurs du
monde. Les grands de l'informatique (dont IBM, SGI et Sun) collaborent avec les
laboratoires nationaux du DOE pour créer ces super-ordinateurs.
Début 1999, IBM a livré les derniers éléments d'un super-ordinateur appelé Blue
Pacific, au Lawrence Livermore National Laboratory de DOE en Californie. Blue Pacific est un hyper-cluster constitué de trois systèmes RS/6000 SP
avec 5856 processeurs PowerPC. C'est la plus grosse installation de RS/6000 SP
jamais construite et elle revendique le titre d'ordinateur le plus rapide au monde.
Toujours cette année, SGI a livré un super-ordinateur appelé Blue Mountain au
Los Alamos National Laboratory de DOE au Nouveau Mexique. Blue Mountain est un
très grand système SGI Origin2000 doté de 6144 processeurs. Bien que les tests
de ces deux monstres ne soient pas encore terminés, Blue Pacific et Blue Mountain
ont atteint les mêmes niveaux de performances. Mais il est intéressant de constater
qu'IBM utilise les technologies cluster pour Blue Pacific, tandis que SGI utilise
les technologies NUMA pour Blue Mountain.
Ceux qui, chez IBM, prétendaient que NUMA était inférieur au cluster, en ont pris
un coup. A tel point que, en juillet, IBM a annoncé la conclusion
d'un accord avec Sequent Computer Systems visant à acquérir toutes les actions
de Sequent pour fusionner avec elle. Rappelons que Sequent développe, fabrique
et vend de grands serveurs de bases de données basés Intel, sous Unix ou Windows
NT.
A l'heure actuelle, ces serveurs vont jusqu'à 64 processeurs avec les technologies
NUMA et le chiffre de 256 est déjà envisagé. Non seulement IBM vendra les serveurs
actuels de Sequent, NUMA-Q 1000 et 2000, mais Big Blue envisage aussi d'intégrer
les technologies NUMA de Sequent dans ses propres serveurs. Et l'AS/400 dans tout
çà ?
Les nouvelles fonctions de sécurité d’IIS 5.0
Microsoft Internet Information Server 5.0 comporte une foule de nouvelles fonctions,
et notamment un traitement amélioré des comptes des utilisateurs et des ordinateurs,
une meilleure exécution des applications des utilisateurs, ainsi que des fonctions
de sécurité perfectionnées.
Etant donné que de nombreux utilisateurs vont commencer à utiliser Windows 2000,
lui aussi porteur d'améliorations majeures en termes de sécurité, et qu'IIS 5.0
est quatre à cinq fois plus rapide qu'IIS 4.0, il était grand temps de consacrer
un article aux nouvelles fonctions de sécurité de la dernière version d'IIS. Celles-ci
facilitent la configuration de la sécurité des applications et, grâce aux nouvelles
technologies comme Kerberos, améliorent la cohérence de l'utilisation de la sécurité
d'IIS avec d'autres systèmes.
L'utilisation d'IIS 5.0 commence par son installation sur Windows 2000. Pour tester
IIS 5.0, j'ai utilisé la beta de Windows 2000 Server. La configuration de Windows
2000 a un impact sur l'utilisation d'IIS 5.0 et sur le fonctionnement des fonctions
de sécurité du logiciel. Le serveur IIS 5.0 peut être configuré comme contrôleur
de domaine ou installé dans un domaine Windows 2000 existant. En d'autres termes
on peut l'installer sur n'importe quelle machine du domaine.
Une fois IIS 5.0 installé, j'ai utilisé Microsoft Visual InterDev 6.0 pour créer
un nouveau répertoire virtuel, tâche que rendent pénible les Extensions FrontPage
Server. Windows 2000 m'a obligé à me connecter par le biais de Visual InterDev
et a vérifié le compte d'utilisateur utilisé par l'OS pour créer le répertoire.
En dehors de mon ID de logon et de mon mot de passe, je n'ai eu besoin d'aucune
information de plus sur Windows 2000. Ce processus correspond à celui d'IIS 4.0
pour créer un répertoire virtuel et travailler avec les fonctions de sécurité.
L'accès aux paramètres de sécurité se fait par le Gestionnaire des services
Internet comme dans IIS 4.0 de Windows NT 4.0
Vues partitionnées distribuées (partie I)
par Kalen Delaney et Itzik Ben-Gan
NDLR : cet article est le premier d'une série de trois sur les Vues partitionnées distribuées de SQL Server 2000.
Les environnements OLTP (OnLine Transaction Processing) et
les bases de données des grands sites Web sont en général constitués de
nombreuses requêtes individuelles, interrogeant ou manipulant une quantité de
données relativement petite. Quand la taille du système augmente, et que les
utilisateurs font de plus en plus de requêtes base de données, les
administrateurs essaient habituellement d'améliorer les temps de réponse en
augmentant la puissance des serveurs. On peut alors ajouter des CPU, remplacer
ses CPU par des CPU plus rapides, ajouter de la mémoire, renforcer le réseau
ou ajouter des disques durs plus rapides, avec de meilleurs contrôleurs. Mais
à un certain moment, on va épuiser les ressources disponibles car les limites
de la machine seront atteintes; à moins que ce ne soit votre budget. SQL Server
2000 apporte une solution à la demande sans cesse grandissante en puissance de
traitement : l'expansion horizontale. Cette solution consiste à fractionner de gigantesques tables
en tables plus petites (chacune étant un sous ensemble, ou partition, de la
table d'origine) et à les faire coexister sur des serveurs distincts. Chaque
serveur peut être géré indépendamment, mais ensemble, ces serveurs forment
une fédération. Pour accéder à une donnée sur n'importe laquelle des
partitions, on définit une vue du même nom sur tous les serveurs, ce qui rend
transparent le fait que les données sont distribuées sur plusieurs noeuds. Un
utilisateur ou une application connectés aux serveurs peut passer des
instructions DML (Data Manipulation Language : langage de manipulation de
données) comme SELECT, INSERT, UPDATE et DELETE sur cette vue comme s'il
interrogeait la table d'origine. SQL Server 2000 intercepte les instructions
et les reroute vers les serveurs appropriés. Cette configuration distribue la
charge de traitement entre tous les membres de la fédération.
Apprenez à utiliser les techniques liées à la stratégie d'expansion horizontale de Microsoft
SQL Server 7.0 permet de créer des vues partitionnées locales. Avec SQL Server 7.0, on peut également créer des vues partitionnées sur de multiples serveurs, mais on ne peut pas les modifier, ce qui limite beaucoup leur utilité. De plus, avec SQL Server 7.0 ainsi que les versions précédentes, toute vue basée sur une opération UNION ne peut être mise à jour, qu'elle se trouve sur un serveur unique ou soit distribuée sur de multiples serveurs. SQL Server 2000 remédie à cette restriction en permettant aux utilisateurs de mettre à jour certains types de vues basée sur la commande UNION, et introduit de nouvelles techniques d'optimisation pour la mise en place des vues partitionnées. Nous allons présenter ces nouvelles techniques d'optimisation dans cet article, et vous montrer comment mettre en place et modifier des vues partitionnées distribuées.
Lire l'article
Pour que Domino ne devienne pas le prochain OS/2
Attention à la complexité de Domino: pour qu'il devienne le cheval de bataille
de l'AS/400, il lui faut un plan marketing efficace.
L'acquisition de Lotus par IBM il y a quelques années a suscité de multiples interrogations:
comment les produits Lotus s'harmoniseraient-ils avec l'offre IBM existante? Quelles
solutions une société à forte culture PC pourrait-elle offrir à la force de frappe
supérieure d'IBM? L'osmose entre les deux cultures serait-elle possible?
S'il est trop tôt pour avoir des réponses définitives à ces questions, on a au
moins des réponses partielles face au produit Domino pour AS/400 des partenaires.
Avec Domino pour AS/400, IBM et Lotus ont peut-être lancé l'application phare
dont l'AS/400 manquait cruellement pour faire son trou dans les infrastructures
des entreprises modernes. Domino pour AS/400 offre une solution de groupware et
de messagerie évolutive, dotée d'une solide intégration données et utilisateur
OS/400. Et les multiples facettes de Domino lui permettent de bien se comporter
dans divers rôles: solution de workflow, serveur Web et environnement de développement
d'applications.
Du faitde sa puissance, Domino est difficile à comprendre et à apprécier
Les plus consultés sur iTPro.fr
- Souveraineté numérique : réinvestir les fondations pour sortir de la dépendance à Microsoft
- L’essor de l’IA propulse les cyberattaques à des niveaux records
- L’IA sous contrôle : un impératif pour la souveraineté des entreprises
- CESIN : un baromètre qui mesure le risque cyber réel
À la une de la chaîne Data
- L’essor de l’IA propulse les cyberattaques à des niveaux records
- Face aux ransomwares, la résilience passe par les sauvegardes immuables
- Les 6 tournants qui redéfinissent l’IA en entreprise
- Infrastructures IT : 5 leviers concrets pour éviter les impasses technologiques
- Une menace à 1 milliard d’euros : le gouffre de la fraude e-commerce en France
