> Windows
Les fonctions définies par l’utilisateur

Les fonctions définies par l’utilisateur

par Robert Vieira
Maîtrisez les UDF de SQL Server 2000 J'ai commencé à  travailler avec SQL Server en version 6.0. Bien que j'aie antérieurement déjà  utilisé le langage SQL en environnement VMS en 1989, la majeure partie de mon expérience relative aux bases de données s'était déroulée dans un environnement de fichiers plats. J'ai été étonné de constater que les opérations sur les enregistrements de type curseur ne me manquaient pas autant que la capacité de définir simplement des fonctions. Avec SQL Server 2000, je peux enfin créer des UDF (User-Defined Functions : fonctions définies par l'utilisateur) utilisables non seulement dans les scripts, mais aussi en ligne dans des instructions DML (Data Manipulation Language). SQL Server 2000 possède deux types d'UDF. Le premier type renvoie une valeur scalaire et le second des tables. Dans le présent article, je présente des exemples de chacun des deux types et décris brièvement la manière d'utiliser les UDF dans des applications SQL Server 2000.

à€ bien des égards, les UDF ressemblent à  des procédures cataloguées

Lire l'article
Un coup d’oeil à  Whistler

Un coup d’oeil à  Whistler

par John Ruley
Whistler est le nom de code du nouveau système d'exploitation 32 bits qui remplacera Windows 2000 Professional et Windows Millennium Edition (Windows Me). Microsoft n'a pas encore livré beaucoup de détails sur Whistler - qui repose sur le noyau de Windows 2000 et de Windows NT -, pas même la date de sa sortie (probablement l'an prochain), mais commence à  dévoiler et à  expliquer certaines de ses caractéristiques. Il s'agit notamment de modifications de l'interface utilisateur, de l'existence d'une version personnelle (c'est-à -dire mono-utilisateur) de la technologie Terminal Services de Windows 2000 Server, et d'une révision drastique du traitement des DLL par les précédentes versions de Windows 32 bits.

Lire l'article
Gérer la croissance de vos applications avec Application Center

Gérer la croissance de vos applications avec Application Center

par David Chernicoff
Si vous avez déjà  été confronté à  l'installation, la configuration ou l'administration de Microsoft Cluster Server ou de Network Load Balancing, vous savez à  quel point cette mission est périlleuse. De plus, malgré sa convivialité améliorée, Windows 2000 n'a pas rendu cette tâche plus facile. Les fournisseurs ont bien compris l'ampleur du problème que représente la configuration de MSCS (Microsoft Cluster Server) et ils proposent désormais une multitude de solutions qui font que les administrateurs système ne sont plus obligés de partir de zéro pour installer un cluster et le faire fonctionner. Mais peu de solutions adressent la complexité de configuration de l'équilibrage de charges des applications avec NLB (Network Load Balancing) et CLB (Component Load Balancing).

L'idée sur laquelle reposent NLB et CLB est simple : si vous voulez accroître les capacités des applications de votre réseau, alors configurez un serveur pour qu'il puisse supporter une application en réseau et ajoutez le serveur dans votre réseau. La possibilité d'utiliser ce type de démarche pour faire monter en charge les applications est une des composantes fondamentales des montées en charge horizontales (scale-out) pour Microsoft et de sa stratégie .NET. Microsoft Application Center 2000 est au coeur de la stratégie .NET de Microsoft. Le rôle de Application Center est d'intégrer et de simplifier la montée en charge des applications, leur gestion et leur disponibilité.

Le clustering de Application Center n'est pas MSCS, mais plutôt un équilibrage de charges réseau associé au clustering d'objets COM+. Bien que le clustering de Application Center n'assure pas le même niveau de tolérance aux pannes que MSCS, il améliore les performances et ne nécessite pas de matériel spécifique contrairement à  MSCS. Application Center n'exige même pas que les serveurs du cluster soient identiques, que ce soit en configuration ou en performances. De plus, Application Center n'offre pas un clustering de type failover à  2 ou 4 voies, il offre le clustering jusqu'à  32 voies que supporte NLB. L'équilibrage de charges COM+ est limité à  8 voies, et la complexité des applications tournant sous Application Center peut cependant limiter le nombre de noeuds du cluster.

Le rôle de Application Center est d'intégrer et de simplifier la montée en charge des applications, leur gestion et leur disponibilité

Lire l'article
SMP et traitements parallèles sur AS/400

SMP et traitements parallèles sur AS/400

par James Steward et Dan Cruikshank
Le parallélisme donne un réel coup de pouce aux performances. Certes, mais est-ce toujours dans la bonne direction ? Peu après les problèmes systèmes survenus chez e-Gads (voir l'article "The Case of the Missing Index", NEWS/400, août 2000), nous avons discuté, Dan et moi-même, la nécessité de publier quelques informations de base à  propos du parallélisme sur AS/400. Il faut se souvenir que les dysfonctionnements d'e-Gads étaient provoqués (en partie) par le parallélisme des requêtes. La valeur système QQRYDEGREE était définie pour utiliser le parallélisme des I/O (*IO). La requête à  problème tournait en haute priorité et le gros fichier d'historique financier détaillé existait sur la plupart (si ce n'est sur tous) des bras disque. Ainsi, la mise en oeuvre de la requête de l'optimiseur des requêtes lisait de manière dynamique depuis ces bras en parallèle, et provoquait la dégradation des autres travaux du système. La situation d'e-Gads est un parfait exemple de la manière dont le parallélisme peut entraîner des difficultés si on ne prend aucune précaution.
La stratégie de croissance d'IBM pour les AS/400 haut de gamme a été de mettre en place des systèmes plus grands, utilisant plusieurs processeurs. Cette approche améliore considérablement le traitement interactif et les taux de transmission des transactions associés. En revanche, pour les traitements classiques des travaux par lot à  une seule unité de traitement, cela signifie des systèmes largement sous-utilisés.

Le parallélisme peut entraîner des difficultés si on ne prend aucune précaution

Lorsque les systèmes bi-processeurs sont apparus, Dan et moi avons commencé à  répondre à  des questions du genre : "Pourquoi ne puis-je pas exploiter mon système à  plus de 50 % d'utilisation de CPU pendant les heures creuses ?" Nous avons encouragé les traitements parallèles et nos analyses sur la conception d'applications étaient centrées sur l'utilisation de cette fonctionnalité. Avec des systèmes à  4, 8 et 12 processeurs, les traitements parallèles deviennent encore plus judicieux. Nous recevons encore des appels mais, aujourd'hui, avec un système à  12 processeurs, les questions ressemblent à  ceci : "Pourquoi ne puis-je pas exploiter mon système à  plus de 10 % d'utilisation de CPU pendant les heures creuses ?"
Les demandes des requêtes impliquent en général, le traitement de gros volumes d'I/O. Ainsi, le parallélisme, tout comme les traitements par lot, profite du traitement des requêtes sur AS/400. Les améliorations récentes apportées au système ont été centrées sur les traitements parallèles ; il existe même une fonction OS/400 téléchargeable permettant d'étendre l'utilisation du parallélisme du système. Si elle est installée, la fonction SMP (Symmetrical Multiprocessing) permet de diviser automatiquement certains travaux de requête en plusieurs tâches pouvant être traitées simultanément par plusieurs processeurs. J'entends, par travaux de requête, toutes les requêtes utilisant l'optimiseur de requêtes. Par conséquent, SQL, Query/400, OPNQRYF, ODBC, l'API de requêtes, DRDA (Distributed Relational Database Architecture) et JDBC figurent parmi les interfaces tirant profit de SMP.


Méthodes d'accès utilisant le parallélisme
Méthodes d'accès aux données sans clés
Parallel table scan
Parallel skip sequential
Parallel pre-fetch
Parallel table pre-load

Méthodes d'accès aux données avec clé
Key positionning and parallel key positionning
Key selection and parallel key selection
Parallel index pre-load
Parallélisme
SMP
SMP
I/O
I/O

Parallélisme
SMP
SMP
I/O

La tâche de l'optimiseur de requêtes consiste à  développer l

Lire l'article
Tirer toute la puissance de la MMC de Windows 2000

Tirer toute la puissance de la MMC de Windows 2000

par Kathy Ivens
La Microsoft Management Console (MMC) de Windows 2000 constitue un framework pour l'administration et la gestion des configurations des systèmes. La beauté de la MMC est qu'elle remplace les nombreuses interfaces nécessaires pour gérer Windows NT et qu'elle simplifie la gestion des systèmes. La MMC a été amplement documentée par Microsoft. On peut donc s'attendre à  ce que les éditeurs de logiciels commencent à  inclure dans leurs solutions des composants logiciels enfichables la MMC pour leur installation et configuration. La Microsoft Management Console constitue une interface graphique pour les composants logiciels enfichables d'administration - également baptisées snap-in. Ces briques logicielles définissent et réalisent les tâches d'administration. La MMC en elle-même n'offre pas de fonctions d'administration. Sa valeur ajoutée est qu'elle vous permet d'ajouter et coordonner facilement les composants enfichables. La MMC offre une interface de documents multiples qui peut exploiter les technologies Internet et les contrôles ActiveX.
La MMC tourne sur les plates-formes Win32 (par exemple Windows 2000, NT 4.0 ou Windows 9x). Windows 2000 comprend des snap-in en standard dans le menu Outils d'administration du menu Démarrer. De nombreux autres produits Microsoft (notamment le Kit de ressources de Windows 2000, SQL Server et Exchange 2000 Server), offrent des composants enfichables supplémentaires.
On peut assembler plusieurs composants logiciels enfichables pour créer une console personnalisée pour administrer les différents ordinateurs de votre entreprise. Sauvegardez les consoles que vous avez créées sous forme de fichiers .msc (Management Saved Console), et utilisez la méthode qui conviendra la mieux à  votre environnement pour les distribuer dans le système d'informations. (On peut par exemple rendre les fichiers disponibles sous forme de raccourcis sur les bureaux ou comme options du menu démarrer, envoyer les fichiers par e-mails ou encore publier les fichiers dans une page Web.)

On peut assembler plusieurs composants logiciels enfichables pour créer une console personnalisée

Lire l'article
Les bizarreries d’Active Directory

Les bizarreries d’Active Directory

par Mark Minasi
Alors qu'Active Directory sort des laboratoires de test pour faire ses premiers pas dans le monde réel, on découvre certains petits soucis des premières générations du service d'annuaire de Windows 2000. Certains sont mineurs, mais d'autres ne le sont pas. Voici un petit aperçu de quatre de ces bizarreries.

Lire l'article
Utilisation des zones de données en RPG et en CL

Utilisation des zones de données en RPG et en CL

par Jef Sutherland
Les zones des données sont des objets AS/400 permettant de stocker des morceaux d'information ou des ensembles de valeurs (comme des paramètres société, des taux de TVA ou des options de sauvegarde/restauration) là  où on ne souhaite pas forcément avoir un fichier physique avec de multiples enregistrements. Les zones de données peuvent stocker jusqu'à  2000 caractères, et constituent une manière intéressante d'assurer les communications de programme à  programme ...le premier programme positionne la data area pour que le second puisse récupérer l'information et l'utiliser. Lorsqu'on crée une zone de données avec la commande CRTDTAARA (figure 1), on peut spécifier si la zone de données est de type caractère (*CHAR), numérique (*DEC) ou logique (*LGL).

Une zone de données spéciale appelée LDA (Local Data Area), utilisable par n'importe quel programme, est créée systématiquement avec chaque job AS/400. Ceci est bien pratique car les programmeurs n'ont pas à  créer de LDA lorsque celle-ci s'avère nécessaire ; elle est déjà  disponible. Cependant, cette LDA peut être source de problèmes si un grand nombre de programmes s'en servent sans tenir compte des modifications de la LDA faites par les autres programmes. 

Une zone de données spéciale appelée LDA, utilisable par n'importe quel programme, est créée systématiquement avec chaque job AS/400 

Lire l'article
Une informatique de gestion

Une informatique de gestion

par Catherine China
Société de négoce de vins basée à  Beaune, Vinipar vient de terminer le développement d'une application client-serveur de gestion des forces de vente en environnement AS/400. Conçu à  partir de l'AGL Adelia d'Hardis, cet applicatif permettra notamment d'optimiser la gestion de relevés de linéaires, dans une optique de passage An 2000. Depuis plusieurs générations, l'entreprise familiale Vinipar relève le défi du négoce de vins. Dans un secteur devenu de plus en plus concurrentiel, être à  la pointe de l'informatique est devenu son fer de lance. Cela fait près de 8 ans, qu'elle travaille avec l'éditeur grenoblois Hardis pour le développement d'applications de gestion sur mesure.
Son équipe informatique vient ainsi de terminer le développement d'une nouvelle application de gestion des forces de vente basée sur l'AGL Adelia. “ Il y a trois ans, nous avions choisi d'installer leprogiciel Nomade de gestion des forces de ventes, mais l'application ne passant pas l'an 2000, il nous fallait trouver une alternative. Deux solutions s'offraient à  nous : soit trouver un autre progiciel du marché qui passe l'an 2000, soit développer l'application en interne ” explique ainsi Yves Ganavat, directeur informatique chez Vinipar.

Etre à  la pointe de l'informatique est devenu le fer de lance de Vinipar

Après une étude réalisée auprès des différents éditeurs du marché à  la fin 1998, c'est finalement l'option du développement sur mesure qui a été retenue. “ Avec Hardis, c'est avant tout une affaire de confiance. Cela fait plusieurs années que nous travaillons ensemble pour le développement de nos applicatifs de gestion commerciale et de production. Nous avons ainsi préféré faire appel à  une société que nous connaissions déjà  pour nous accompagner dans le développement complet de ce nouvel applicatif, et en nous basant sur un AGL que nos équipes de développement maîtrisait déjà  ” ajoute le directeur informatique.

Lire l'article
XML : au delà  des frontières

XML : au delà  des frontières

par Sharon L. Hoffman
Comment étendre les possibilités de description de fichiers des DDS aux environnements hétérogènes Les développeurs AS/400 se passionnent pour XML (Extensible Markup Language) parce que ce langage promet de régler deux problèmes pressants : échanger des informations entre applications disparates, et insérer des données complexes dans des pages Web. Comme l'AS/400 est avant tout un moteur de base de données, ces problèmes intéressent tout particulièrement les développeurs AS/400.

Certes, le problème de l'échange d'informations n'est pas nouveau. Mais il s'accentue dès lors qu'on partage de plus en plus de données avec ses clients et fournisseurs. La prolifération des bases de données internes et des applications (depuis les répertoires d'adresses sur chaque PC jusqu'aux applications de business intelligence complexes), suscite de nouvelles demandes pour l'échange de données entre programmes.

La nécessité d'insérer des données complexes dans des pages Web est le corollaire de la large utilisation d'Internet et, plus particulièrement, du développement d'applications de e-commerce.
Au fur et à  mesure que les sites Web deviennent plus sophistiqués, les pages HTML statiques sont de moins en moins pratiques. Les développeurs Web adoptent des outils comme Java et XML pour rendre les pages Web plus dynamiques et pour limiter les traitements manuels nécessaires pour des transactions Web, comme des demandes d'informations et des achats en ligne.

Plutôt que d'expliquer dans le détail les techniques et standards de coding XML, voyons plutôt la relation entre XML et les langages de définition de données, comme SQL et DDS, et les outils et technologies nécessaires pour utiliser XML efficacement. (Pour avoir un bref aperçu de XML, voir l'encadré " XML : Vue d'avion ".)

A la base de toute discussion sur l'échange de données, on trouve l'encodage des métadonnées

Lire l'article
Partager des fichiers avec NFS

Partager des fichiers avec NFS

NFS (Network File System) permet à  l'AS/400 d'accéder à  une activité d'import/export de fichiers A chaque release de l'OS/400, IBM ajoute de nouvelles fonctions TCP/IP, rendant du même coup l'AS/400 plus ouvert et plus adapté aux réseaux, au fur et à  mesure qu'il mûrit. Nous avons récemment assisté à  l'addition de services IP comme DNS (Domain Name System : système de noms de domaines) et DHCP (Dynamic Host Control Protocol : protocole dynamique de contrôle d'hôtes) mais aussi à  celle de SMB (Server Message Block) qui permet à  l'AS/400 de partager le système de fichiers et les ressources d'impression de la même manière que Windows NT.
Le partage des fichiers de NetServer avec SMB fonctionne bien pour des clients Windows 95/98/NT. Mais qu'en est-il si les applications AS/400 doivent accéder aux données d'un PC ? L'AS/400 peut être un serveur SMB, mais pas un client. Autre cas : qu'en est-il si on a besoin de partager les fichiers avec de nombreuses plates-formes hétérogènes, telles que plusieurs Unix, et que l'on ne souhaite pas transférer les fichiers par FTP sur chaque système ? Entrez donc dans NFS (Network File System).

Sun a sorti la version 1 de NFS en 1984 comme la solution au partage des fichiers sur des ordinateurs Unix en réseau

Lire l'article
Quitter la fraternité de l’anneau

Quitter la fraternité de l’anneau

Voici quelques indications pour réussir votre voyage de Token Ring vers une nouvelle vie avec Ethernet haute vitesse Bilbo Baggins, le hobbit héros de la trilogie Le Seigneur des anneaux de J.R.R. Tolkien, entama un difficile voyage de son pays natal vers un royaume étranger où l'attendaient de terribles batailles. Il quitta un pays doux et confortable, parce qu'il le fallait - le monde extérieur avait changé, et des nouveautés s'annonçaient. Il était membre de la Fraternité de l'anneau, un groupe de camarades itinérants poursuivant une cause commune. Mais les événements du monde rendirent inévitable la fin de la fraternité. Bilbo espérait qu'en fin de compte, le bien triompherait du mal et que le monde deviendrait un endroit meilleur.

En tant qu'administrateur de réseau Token-Ring (anneau à  jeton), vous êtes membre d'une semblable fraternité. Comme Bilbo, un long voyage vous attend: un voyage qui vous entraînera hors de la Fraternité du Token-Ring. Heureusement, vous pouvez en voir la fin. Vous savez que les batailles des réseaux à  haut débit ont déjà  été livrées, que le bien a triomphé, et qu'un monde meilleur vous attend. Mais nombreuses sont les routes qui mènent au Pays d'Ethernet. Vous devez savoir laquelle prendre et comment l'emprunter.

Peu de gens doutent sérieusement de la disparition de Token-Ring; IBM elle-même semble constituer le dernier carré des fidèles à  Token-Ring, mais Big Blue s'est couvert en déployant une gamme complète de produits Ethernet. Le marché a parlé: le monde appartient à  Ethernet. Non seulement ce dernier est plus rapide - on trouve actuellement des produits à  1 Gbps, tandis que le Token Ring à  100 Mbps apparaît à  peine (voir l'encadré "Token-Ring haute vitesse: trop petit, trop bancal"), mais pratiquement tous les composants réseau (firewalls, cartes interface réseau (NIC, network interface cards), routeurs), en ont besoin. Seule une petite frange du marché LAN s'intéresse encore à  Token-Ring.

De par le passé, les voies de migration favorites des utilisateurs Token-Ring étaient FDDI (Fiber Distributed Data Interchange) à 100 Mbps ou ATM (Asynchronous Transfer Mode) à  155 Mbps. L'arrivée du Gigabit Ethernet bon marché a modifié tout cela. FDDI, avec ses 100 Mbps, est tout simplement trop lent, et même si ATM atteint 620 Mbps, ses composants sont coûteux et complexes par rapport à  1000BaseTF de l'Ethernet à  1 Gigabit. Donc, à  moins d'avoir déjà  investi dans FDDI ou ATM, il vaut mieux passer carrément en 100 Mbps et à  Ethernet à  1 Gigabit.

Il n'y a donc plus de doute: il est temps de changer. Mais comment passer de Token-Ring à  Ethernet sans dépenser une fortune en nouveau câblage et en matériel, sans perdre des centaines d'heures à  réinstaller les NIC et à  reconfigurer les systèmes, et pourquoi encourir le reproche d'avoir initialement choisi Token-Ring pour son LAN?

La réponse est la même que celle que Gandalf le sorcier a faite à  Bilbo lorsque celui-ci lui a demandé comment commencer son voyage: "Un pas à  la fois". En apprenant les aspects techniques de la migration, où commencer le déploiement d'Ethernet, comment le faire rentablement, et comment obtenir d'autres avantages en même temps, on peut migrer vers Ethernet à  moindre coût et avec peu de perturbations. Au lieu de perdre la face, vous gagnerez en crédibilité car votre réseau sera plus rapide et plus fiable.

Gandalf le sorcier, lorsque Bilbo lui a demandé comment commencer son voyage, a répondu: "Un pas à  la fois".

Lire l'article
Une exploration de Client Access Express

Une exploration de Client Access Express

Express simplifie considérablement l'installation et la configuration de Client Access. Voici comment ! Client Access Express guérit les principaux maux dont souffrait Client Access pour Windows 95/NT. L'ancien Client Access s'appropriait le PC client et consommait une grande partie de ses ressources mémoire et disque pour, somme toute, un simple morceau de logiciel de connectivité. L'installation de Client Access pour Windows 95/NT demandait également la présence de services d'arrière-plan pour tout prendre en charge, depuis l'accès au réseau AS/400 jusqu'aux commandes à  distance en entrée.

De plus, le produit ne permettait pas aux utilisateurs de supprimer facilement les parties indésirables. Et le support SNA de Client Access pour Windows 95/NT n'était pas irréprochable. Le système se bloquait souvent, ou les PC étaient immobilisés pendant le démarrage ou la fermeture. Même après plusieurs années de développement et de corrections, le produit n'a jamais totalement satisfait de nombreux utilisateurs.

Client Access Express résout les problèmes grâce à  un ensemble de fonctionnalités qui se concentrent sur l'essentiel de la connectivité PC-AS/400

Client Access Express résout ces problèmes grâce à  un ensemble de fonctionnalités qui se concentrent sur l'essentiel de la connectivité PC-AS/400. Comme son prédécesseur Client Access pour Windows 95/NT, le nouveau client Express s'exécute sur des systèmes Windows 9x et NT. Express a supprimé une bonne partie du support devenu obsolète de Client Access pour Windows 95/NT et donne aux utilisateurs une plus grande maîtrise de l'exécution des processus d'arrière-plan. En outre, Express utilise les possibilités des services de fichiers et d'impression natifs de l'AS/400, via AS/400 NetServer.
Cela permet à  un PC Client Access d'utiliser “ Windows Neighborhood Network ” pour se connecter à  l'AS/400 et aussi de se passer des daemons et des tâches d'arrière-plan qu'utilisait Client Access pour Windows 95/NT. Le client Express résout les problèmes SNA en abandonnant la connectivité et le support SNA des applications 16 bits. Comme la plupart des connexions TCP/IP actuelles, ces modifications permettent à  Client Access Express de mieux répondre aux besoins de connectivité de l'AS/400. Voyons les étapes de base nécessaires pour installer et configurer Client Access Express.

Lire l'article
Centraliser l’administration avec les stratégies de groupe

Centraliser l’administration avec les stratégies de groupe

Les stratégies de groupe, ou group policies, sont la nouvelle fonction de Windows 2000 que je préfère. Elles permettent une chose qui n'existait pas dans Windows NT : le contrôle centralisé, mais granulaire, des ordinateurs des utilisateurs. On pourrait en quelque sorte comparer les stratégies de groupe à  des stratégies système NT 4.0 qui seraient arrivées à  maturité. Les Group Policy Objects (GPO), ou Objets de stratégie de groupe, sont des objets Active Directory (AD) permettant une configuration centralisée des ordinateurs et des serveurs Windows 2000. Les fonctionnalités des stratégies de groupe englobent tout, du verrouillage des PC à  la mode NT 4.0 jusqu'à  la configuration de la sécurité et l'installation des logiciels.Cet article explique comment fonctionnent les stratégies de groupe, ce qui se passe à  l'intérieur du système et comment traiter un certain nombre de défis à  relever, avant de procéder au déploiement de cette technologie dans un environnement Windows 2000. Sachez enfin que pour bien comprendre la stratégie de groupe, il vaut mieux connaître le mode de fonctionnement des stratégies système de NT 4.0.

Lire l'article
Le blues du double boot

Le blues du double boot

Lorsque Steve Balmer, Président de Microsoft, a annoncé la disponibilité de Windows 2000 Professional, il a qualifié l'OS de "meilleur système d'exploitation pour les utilisateurs d'entreprise", point ! A bien des égards, cette assertion est vraie, mais l'OS n'est pas entièrement compatible avec les matériels et logiciels pour Windows 9x. Le double boot est donc souvent une nécessité.J'attends toujours un driver de scanner/fax afin de pouvoir exploiter mon imprimante HP OfficeJet 710 sous Windows 2000 et j'utilise des logiciels de simulation de vol qui ne tournent pas sous Windows 2000. Je ne peux donc pas supprimer Windows 98, quelle que soit mon envie de le faire et, à  en juger par le courrier que je reçois, je ne suis pas le seul dans ce cas. Il est donc plus que possible que vous souhaitiez savoir comment créer un environnement à  double initialisation qui permette de passer de Windows 2000 à  Windows 98.

Lire l'article
Comment intégrer Windows NT dans un environnement Unix

Comment intégrer Windows NT dans un environnement Unix

Les serveurs Windows NT empiètent de plus en plus sur les environnements UNIX. Or, ni l'un ni l'autre des deux OS ne convient à  toutes les situations. Les tenants de Windows NT et d'UNIX préfèrent généralement que les réseaux se limitent à  leur solution respective, mais beaucoup de fournisseurs (dont Microsoft, HP, Compaq et SCO) ont adopté des programmes d'interopérabilité agressifs.
Au final, la plupart des entreprises exploitent à  la fois NT et UNIX, car chacun des OS offre des fonctionnalités propres. Avant de prendre la décision d'intégrer Windows NT dans une entreprise fortement engagée dans UNIX, il convient de répondre à  quelques questions fondamentales. Commencez par cerner quels sont les facteurs qui vous incitent à  ajouter NT à  votre réseau.
Avez-vous des raisons techniques ou professionnelles pressantes, ou bien suivez-vous simplement la tendance du secteur ?
Etudiez ensuite le coût des matériels et logiciels qu'exigerait un réseau mixte sur une période de cinq ans.
Troisièmement, pensez aux coûts cachés d'une telle intégration, y compris son effet sur les utilisateurs de votre réseau (par exemple la formation, le temps d'arrêt potentiel, la résistance au changement…).
Quatrièmement, assurez-vous que les applications sous Windows NT peuvent répondre aux exigences de votre organisation. Cinquièmement, déterminez si les avantages qui en découlent l'emportent sur le coût occasionné par l'intégration des deux OS.Pour associer NT et UNIX dans un réseau, il faut mettre sur pied un projet d'intégration adapté aux besoins de l'entreprise. Les administrateurs systèmes qui en sont chargés risquent facilement d'être submergés. Il n'est malheureusement pas possible d'utiliser de schéma clair pour mixer les deux OS. Il n'existe aucune solution convenant à  toutes les entreprises.

Lire l'article
Linux : les mauvaises nouvelles …

Linux : les mauvaises nouvelles …

Comme nous l'avons vu dans l'article " NT versus Linux : les trois avantages de Linux " du mois dernier, Linux a des forces, mais essayez de l'utiliser et vous lui découvrirez également des faiblesses. Dans les recherches que j'ai eu l'occasion de faire sur Linux, j'ai découvert que la chose la plus redoutable de l'utilisation de l'OS est son installation. De nombreux utilisateurs m'ont dit qu'après avoir installé Linux, l'OS est stable et fiable et, dans une certaine mesure, mon expérience confirme cette impression. Mais ne vous y trompez pas : l'installation de Linux est un cauchemar ! J'ai installé cinq versions de distibution de Linux - SuSE Linux beta 6.3, Red Hat Linux 6.0, OpenLinux 2.3 de Cadera System's, Corel Linux et Slackware Linux 7.0 de LinuxMafia - sur plusieurs systèmes. Les cinq versions de distribution sont similaires mais ont des routines d'installation différentes. J'ai eu de nombreux problèmes en installant toutes les versions.

Lire l'article
NUMA : vers de très gros AS/400

NUMA : vers de très gros AS/400

Avec NUMA (Non-Uniform Memory Access), les systèmes AS/400 pourraient supporter des centaines ou des milliers de processeurs Voilà  des années que le débat fait rage chez IBM sur l'utilisation de NUMA (Non-Uniform Memory Access) - une architecture mémoire permettant de bâtir de très grands systèmes avec de nombreux processeurs. Les partisans avançaient que NUMA permet à  un grand nombre de processeurs de fonctionner comme un système unique, tout en conservant la simplicité de programmation et d'administration d'un petit système.
Pour ses opposants, une architecture NUMA, trop complexe, ne permettrait jamais de construire de très grands systèmes. Selon eux, les technologies Cluster étaient seules valables en la matière.

NUMA permet à  un grand nombre de processeurs de fonctionner comme un système unique, tout en conservant la simplicité d'un petit système

Pendant les 10 dernières années, les adversaires de NUMA ont imposé leur point de vue. Les plus grands systèmes d'IBM, le RS/6000 SP et le S/390 Sysplex, sont effectivement des systèmes en cluster.
Certaines des plus grandes installations d'AS/400, elles aussi, utilisent cette même technique. Mais, récemment, Big Blue a commencé à  penser autrement. La plupart d'entre nous ont probablement entendu parler du projet lancé en 1995 par le Department of Energy (DOE) visant à  créer les plus gros et plus puissants ordinateurs du monde. Les grands de l'informatique (dont IBM, SGI et Sun) collaborent avec les laboratoires nationaux du DOE pour créer ces super-ordinateurs.

Début 1999, IBM a livré les derniers éléments d'un super-ordinateur appelé Blue Pacific, au Lawrence Livermore National Laboratory de DOE en Californie. Blue Pacific est un hyper-cluster constitué de trois systèmes RS/6000 SP avec 5856 processeurs PowerPC. C'est la plus grosse installation de RS/6000 SP jamais construite et elle revendique le titre d'ordinateur le plus rapide au monde.
Toujours cette année, SGI a livré un super-ordinateur appelé Blue Mountain au Los Alamos National Laboratory de DOE au Nouveau Mexique. Blue Mountain est un très grand système SGI Origin2000 doté de 6144 processeurs. Bien que les tests de ces deux monstres ne soient pas encore terminés, Blue Pacific et Blue Mountain ont atteint les mêmes niveaux de performances. Mais il est intéressant de constater qu'IBM utilise les technologies cluster pour Blue Pacific, tandis que SGI utilise les technologies NUMA pour Blue Mountain.
Ceux qui, chez IBM, prétendaient que NUMA était inférieur au cluster, en ont pris un coup. A tel point que, en juillet, IBM a annoncé la conclusion d'un accord avec Sequent Computer Systems visant à  acquérir toutes les actions de Sequent pour fusionner avec elle. Rappelons que Sequent développe, fabrique et vend de grands serveurs de bases de données basés Intel, sous Unix ou Windows NT.

A l'heure actuelle, ces serveurs vont jusqu'à  64 processeurs avec les technologies NUMA et le chiffre de 256 est déjà  envisagé. Non seulement IBM vendra les serveurs actuels de Sequent, NUMA-Q 1000 et 2000, mais Big Blue envisage aussi d'intégrer les technologies NUMA de Sequent dans ses propres serveurs. Et l'AS/400 dans tout çà  ?

Lire l'article
Les nouvelles fonctions de sécurité d’IIS 5.0

Les nouvelles fonctions de sécurité d’IIS 5.0

Microsoft Internet Information Server 5.0 comporte une foule de nouvelles fonctions, et notamment un traitement amélioré des comptes des utilisateurs et des ordinateurs, une meilleure exécution des applications des utilisateurs, ainsi que des fonctions de sécurité perfectionnées. Etant donné que de nombreux utilisateurs vont commencer à  utiliser Windows 2000, lui aussi porteur d'améliorations majeures en termes de sécurité, et qu'IIS 5.0 est quatre à  cinq fois plus rapide qu'IIS 4.0, il était grand temps de consacrer un article aux nouvelles fonctions de sécurité de la dernière version d'IIS. Celles-ci facilitent la configuration de la sécurité des applications et, grâce aux nouvelles technologies comme Kerberos, améliorent la cohérence de l'utilisation de la sécurité d'IIS avec d'autres systèmes.

L'utilisation d'IIS 5.0 commence par son installation sur Windows 2000. Pour tester IIS 5.0, j'ai utilisé la beta de Windows 2000 Server. La configuration de Windows 2000 a un impact sur l'utilisation d'IIS 5.0 et sur le fonctionnement des fonctions de sécurité du logiciel. Le serveur IIS 5.0 peut être configuré comme contrôleur de domaine ou installé dans un domaine Windows 2000 existant. En d'autres termes on peut l'installer sur n'importe quelle machine du domaine.

Une fois IIS 5.0 installé, j'ai utilisé Microsoft Visual InterDev 6.0 pour créer un nouveau répertoire virtuel, tâche que rendent pénible les Extensions FrontPage Server. Windows 2000 m'a obligé à  me connecter par le biais de Visual InterDev et a vérifié le compte d'utilisateur utilisé par l'OS pour créer le répertoire. En dehors de mon ID de logon et de mon mot de passe, je n'ai eu besoin d'aucune information de plus sur Windows 2000. Ce processus correspond à  celui d'IIS 4.0 pour créer un répertoire virtuel et travailler avec les fonctions de sécurité.

L'accès aux paramètres de sécurité se fait par le Gestionnaire des services Internet comme dans IIS 4.0 de Windows NT 4.0

Lire l'article
Vues partitionnées distribuées (partie I)

Vues partitionnées distribuées (partie I)

par Kalen Delaney et Itzik Ben-Gan NDLR : cet article est le premier d'une série de trois sur les Vues partitionnées distribuées de SQL Server 2000.

Les environnements OLTP (OnLine Transaction Processing) et les bases de données des grands sites Web sont en général constitués de nombreuses requêtes individuelles, interrogeant ou manipulant une quantité de données relativement petite. Quand la taille du système augmente, et que les utilisateurs font de plus en plus de requêtes base de données, les administrateurs essaient habituellement d'améliorer les temps de réponse en augmentant la puissance des serveurs. On peut alors ajouter des CPU, remplacer ses CPU par des CPU plus rapides, ajouter de la mémoire, renforcer le réseau ou ajouter des disques durs plus rapides, avec de meilleurs contrôleurs. Mais à  un certain moment, on va épuiser les ressources disponibles car les limites de la machine seront atteintes; à  moins que ce ne soit votre budget. SQL Server 2000 apporte une solution à  la demande sans cesse grandissante en puissance de traitement : l'expansion horizontale.

Cette solution consiste à  fractionner de gigantesques tables en tables plus petites (chacune étant un sous ensemble, ou partition, de la table d'origine) et à  les faire coexister sur des serveurs distincts. Chaque serveur peut être géré indépendamment, mais ensemble, ces serveurs forment une fédération. Pour accéder à  une donnée sur n'importe laquelle des partitions, on définit une vue du même nom sur tous les serveurs, ce qui rend transparent le fait que les données sont distribuées sur plusieurs noeuds. Un utilisateur ou une application connectés aux serveurs peut passer des instructions DML (Data Manipulation Language : langage de manipulation de données) comme SELECT, INSERT, UPDATE et DELETE sur cette vue comme s'il interrogeait la table d'origine. SQL Server 2000 intercepte les instructions et les reroute vers les serveurs appropriés. Cette configuration distribue la charge de traitement entre tous les membres de la fédération.

Apprenez à  utiliser les techniques liées à  la stratégie d'expansion horizontale de Microsoft

SQL Server 7.0 permet de créer des vues partitionnées locales. Avec SQL Server 7.0, on peut également créer des vues partitionnées sur de multiples serveurs, mais on ne peut pas les modifier, ce qui limite beaucoup leur utilité. De plus, avec SQL Server 7.0 ainsi que les versions précédentes, toute vue basée sur une opération UNION ne peut être mise à  jour, qu'elle se trouve sur un serveur unique ou soit distribuée sur de multiples serveurs. SQL Server 2000 remédie à  cette restriction en permettant aux utilisateurs de mettre à  jour certains types de vues basée sur la commande UNION, et introduit de nouvelles techniques d'optimisation pour la mise en place des vues partitionnées. Nous allons présenter ces nouvelles techniques d'optimisation dans cet article, et vous montrer comment mettre en place et modifier des vues partitionnées distribuées.

Lire l'article
Pour que Domino ne devienne pas le prochain OS/2

Pour que Domino ne devienne pas le prochain OS/2

Attention à  la complexité de Domino: pour qu'il devienne le cheval de bataille de l'AS/400, il lui faut un plan marketing efficace. L'acquisition de Lotus par IBM il y a quelques années a suscité de multiples interrogations: comment les produits Lotus s'harmoniseraient-ils avec l'offre IBM existante? Quelles solutions une société à  forte culture PC pourrait-elle offrir à  la force de frappe supérieure d'IBM? L'osmose entre les deux cultures serait-elle possible?

S'il est trop tôt pour avoir des réponses définitives à  ces questions, on a au moins des réponses partielles face au produit Domino pour AS/400 des partenaires. Avec Domino pour AS/400, IBM et Lotus ont peut-être lancé l'application phare dont l'AS/400 manquait cruellement pour faire son trou dans les infrastructures des entreprises modernes. Domino pour AS/400 offre une solution de groupware et de messagerie évolutive, dotée d'une solide intégration données et utilisateur OS/400. Et les multiples facettes de Domino lui permettent de bien se comporter dans divers rôles: solution de workflow, serveur Web et environnement de développement d'applications.

Du faitde sa puissance, Domino est difficile à  comprendre et à  apprécier

Lire l'article