> Hardware
SAN et NAS : Faits pour s’entendre

SAN et NAS : Faits pour s’entendre

Lorsqu’ils déploient des serveurs Windows, les administrateurs attachent généralement les disques directement à chaque serveur...Par exemple, l’environnement de la société B a plusieurs serveurs pour l’édition, la production, les ventes, les ressources humaines et les finances. Et chacun de ces serveurs a son propre stockage.
Mais avec cette méthode il est difficile de prévoir exactement la quantité de stockage nécessaire à chaque groupe d’utilisateurs. Par conséquent, les administrateurs commencent souvent par attacher 100 Go de stockage, par exemple, à chaque serveur. Mais, après un certain temps, il arrive qu’un département utilise 90 % de son stockage tandis qu’un autre n’en utilise que 20 %. Comme il est difficile de réallouer du stockage d’un département à un autre dans un environnement DAS (Direct Attached Storage), la plupart des services IT se contentent d’ajouter du stockage disque au fur et à mesure des besoins, aux serveurs en manque. Une vaste enquête révèle que 70 % environ du DAS sont généralement gaspillés parce qu’il est mal alloué et trop difficile à réallouer.
Aux problèmes de réallocation du DAS, s’en ajoute un autre : le logiciel de gestion des quotas qui accompagne Windows 2000 Server permet de contrôler la quantité de stockage par utilisateur mais pas le type de fichiers qu’un utilisateur peut stocker. Un groupe de participants à un récent Webcast de stockage a constaté que, le plus souvent, plus de 30 % des fichiers sauvegardés dans des environnements DAS étaient sans intérêt pour la gestion, du genre MP3. Autrement dit, presque un tiers de l’espace disque que l’IT d’entreprise achète et maintient est utilisé pour des fichiers étrangers à la gestion.
Les SAN (Storage Area Networks) et le NAS (Networked Attached Storage) permettent d’ajouter et de réallouer facilement du stockage et d’empêcher le stockage de types de fichiers non professionnels. Les SAN sont optimisés pour les transferts de données de type bloc à forts volumes qui caractérisent les bases de données et les serveurs d’applications. Le NAS est optimisé pour le service de fichiers. C’est pourquoi les SAN et le NAS sont souvent considérés comme des technologies mutuellement exclusives. Il n’en est rien et, en réalité, les SAN et le NAS se complètent à merveille et peuvent être combinés pour répondre à des besoins de stockage IT courants.

Lire l'article
Serveurs tolérants aux pannes

Serveurs tolérants aux pannes

par Mark Weitz - Mis en ligne le 26/11/2003

La meilleure solution haute disponibilité ?

L'une des responsabilités d'un service informatique est d'éviter toute interruption des applications critiques. Bien que les produits en cluster offrent la haute disponibilité, le processus de failover peut perturber le traitement de l'application pendant 30 secondes ou plus. Selon le modèle de l'application client, les utilisateurs peuvent être obligés de se reconnecter à  l'application en cluster quand elle reprend sur le nouveau noeud...

L'une des responsabilités d'un service informatique est d'éviter toute interruption des applications critiques. Bien que les produits en cluster offrent la haute disponibilité, le processus de failover peut perturber le traitement de l'application pendant 30 secondes ou plus. Selon le modèle de l'application client, les utilisateurs peuvent être obligés de se reconnecter à  l'application en cluster quand elle reprend sur le nouveau noeud, et si le noeud défaillant se trouve sur un système distant, il faudra dépêcher un technicien pour le réparer. De plus, les clusters basés sur Windows 2000 Datacenter Server exigent une administration très poussée pour garder leur haut niveau de disponibilité.
Pour répondre à  certaines de ces préoccupations, plusieurs fournisseurs de serveurs ont mis au point des produits spécialisés. Marathon, NEC et Stratus ont présenté des solutions qui prétendent offrir une fiabilité matérielle de 99,99 % aux départements et aux entreprises petites et moyennes. Leurs solutions s'appuient davantage sur la tolérance aux pannes que sur le clustering et elles utilisent Win2K Advanced Server avec les versions standard de vos applications. Contrairement au clustering, où une défaillance du serveur arrête temporairement les applications tandis que le traitement de l'application se déplace sur un autre noeud, les systèmes tolérants aux pannes permettent aux applications de fonctionner sans interruption sur un sous-système redondant. Une fois les parties défaillantes remplacées, les noeuds en cluster et les systèmes tolérants aux pannes arrêtent temporairement le traitement. NEC et Stratus déclarent que la mise sous tension et la resynchronisation de la nouvelle partie (appelée réintégration dans les systèmes tolérants aux pannes) peut demander jusqu'à  12 secondes sous Win2K AS. Marathon déclare que ces temps de réintégrationsont de quelques secondes au plus. Par comparaison, la remise sur pied d'un cluster peut arrêter le traitement de l'application pendant 30 secondes ou plus.
Quand on compare le clustering et la tolérance aux pannes, il faut se souvenir que le service Microsoft Cluster traite des défaillances matérielles et logicielles, tandis que les systèmes tolérants aux pannes s'intéressent principalement à  la fiabilité du matériel. Bien que les techniques utilisées par NEC, Marathon et Stratus dans leurs architectures tolérantes aux pannes réduisent la probabilité d'une défaillance logicielle, s'il vous faut le haut niveau de fiabilité logicielle des services en cluster, vous devrez acheter des versions orientées cluster de vos applications, ce qui constituera une dépense supplémentaire.

Lire l'article
Une recette de clustering VMWARE

Une recette de clustering VMWARE

J’ai travaillé avec plusieurs entreprises qui ont des clusters Microsoft Exchange Server et Microsoft SQL Server en production, mais n’ont pas les moyens de maintenir des clusters de serveurs de test dans leurs labsA l’instar des grands vins, les solutions de clustering de classe entreprise de Microsoft se sont bonifiées au fil du temps. Malheureusement, comme pour les grands crus, le coût de mise en œuvre et de test des solutions de clustering Microsoft est hors de portée de beaucoup. J’ai travaillé avec plusieurs entreprises qui ont des clusters Microsoft Exchange Server et Microsoft SQL Server en production, mais n’ont pas les moyens de maintenir des clusters de serveurs de test dans leurs labs.
Pour enseigner le clustering dans mes cours, j’ai dû acheter une dizaine de HBA (host bus adapters) SCSI, de câbles et lecteurs SCSI externes. Malgré cela, j’étais limité dans ma démonstration aux élèves parce que chaque cluster d’exercice ne contenait qu’un lecteur partagé. Au cours de mes déplacements, j’ai rencontré beaucoup de gens qui aimeraient que le clustering soit plus portable. Les administrateurs et les ingénieurs système aimeraient pouvoir manipuler des configurations de clusters de serveurs hors production, à titre d’exercice. Les partenaires et revendeurs Microsoft aimeraient pouvoir démontrer sur leurs portables une solution clustering pour les clients. J’ai la réponse.

Lire l'article
Terminal Services pour Pocket PC

Terminal Services pour Pocket PC

L’ère du sans fil est arrivée et avec elle la mobilité des ordinateurs de poche. Mais que signifie exactement un monde sans fil pour nous, administrateurs système ? Comment cette nouvelle technologie peut-elle nous faciliter la tâche ? De quels outils Microsoft disposons-nous pour administrer à distance nos infrastructures IT ?A l’heure actuelle, le seul outil d’administration mobile de Microsoft est le Terminal Services Client pour Pocket PC 2002. Il n’est pas inclus avec les appareils Pocket PC 2002, mais on peut l’obtenir gratuitement sur le site Web Pocket PC Downloads de Microsoft (http://www. microsoft.com/mobile/pocketpc/down loads/terminalservices/default.asp). Jetons un coup d’œil au Terminal Services Client : exigences, installation, configuration et utilisation. (Pour plus d’informations sur la manière de consacrer un Pocket PC 2002 à des tâches administratives, voir l’article « Kit de l’administration mobile », Windows & .Net Magazine mai 2002, ou www.itpro.fr.)

Lire l'article
Quand PowerPC n’est-il pas PowerPC ?

Quand PowerPC n’est-il pas PowerPC ?

La question posée par le titre de cet article peut sembler saugrenue, mais elle ne l’est pas. En 1995, un nouveau processeur RISC à 64 bits a été introduit dans l’AS/400. Et son architecture a été baptisée PowerPC.En réalité, nous avons dit que c’était PowerPC-AS, sans expliquer vraiment pourquoi « AS » était attaché au nom PowerPC. Rapidement, la plupart des gens, votre serviteur compris, ont simplement appelé l’architecture PowerPC.

Lire l'article
La performance interactive d’IBM trop chère

La performance interactive d’IBM trop chère

Je suis un modeste développeur dans un site iSeries moyen. Depuis 15 ans, j’ai écrit des applications en RPG, VARPG, CL, SQL, Visual Basic et Net.Data. Comme beaucoup de partisans de l’iSeries, je pense qu’IBM a pris quelques mauvaises décisions techniques et marketing à propos de la machine que j’aime – pourtant je continue à pencher pour IBM. Peut-être par faiblesse de caractère ?Le changement le plus contrariant qu’IBM a apporté à l’iSeries est la tarification de la performance interactive. Quand je rencontre certains de mes pairs, je suis étonné de voir que bien peu d’entre eux remarquent la manière dont IBM a structuré son tarif interactif sur les nouvelles machines iSeries. Quand on examine le CPW total et les mesures interactives pour un iSeries, les mesures indiquent le pourcentage de la CPU utilisable pour le traitement interactif. Ainsi, une machine avec un CPW total de 560 et une mesure interactive de 70 signifie que l’on ne peut utiliser que 12,5 % de la CPU pour le traitement interactif.

Lire l'article
Commutateurs Gigabit Ethernet

Commutateurs Gigabit Ethernet

L’heure est à l’optimisme pour les sociétés qui souhaitent des réseaux plus rapides. En raison de la concurrence toujours plus vive entre des fournisseurs qui augmentent régulièrement leur offre de commutation 1000Base-T, Gigabit Ethernet est meilleur marché et plus facile à déployer que jamais.Malheureusement, il n’est pas toujours facile d’évaluer la solution Gigabit Ethernet la mieux adaptée. Les fournisseurs présentent leurs commutateurs à grand renfort de performances et de plaquettes marketing luxueuses, mais aucun n’explique clairement comment tel ou tel commutateur se comportera dans votre environnement particulier et encore moins s’il est facile à installer et à gérer. Pour vous donner un aperçu de ce que vous pouvez attendre des derniers commutateurs 1000Base-T, j’ai apporté certains d’entre eux dans le Lab Windows & .NET Magazine pour une séance de test.

Lire l'article
Stratus Technologies démocratise la tolérance de panne

Stratus Technologies démocratise la tolérance de panne

Nouvelle gamme de systèmes ftServer, politique de partenariat très active, segments de marchés bien identifiés : Stratus Technologies prouve, grâce au support optimisé de Windows 2000, que ses plates-formes à tolérance de pannes sont non seulement plus fiables que les clusters, mais surtout adaptées à un plus grand nombre d’applications critiques.

Lire l'article
Appareils Pocket PC 2002

Appareils Pocket PC 2002

Pendant des années, Microsoft a essayé de percer sur le marché des assistants personnels numériques (PDA, personal digital assistants) en développant le logiciel ad hoc. Au milieu de la décennie 1990, Redmond a introduit l’OS Windows CE intégré ...

... portable, discret, destiné à de petits PDA à clavier, appelés PC de poche (H/PC, handheld PC). Dans un marché déjà dominé par des acteurs comme 3Com, le succès a été énorme. L’OS a été révisé plusieurs fois et les appareils ont eux aussi évolué, gagnant des fonctions, mais restant minoritaires sur le marché des PDA.

Environ 2 ans plus tard, Microsoft a introduit une version de Windows CE destinée à des appareils de la taille d’une poche de chemise. Les consommateurs y ont vu une alternative plus grosse, plus lourde, au Palm Pilot et ont renâclé. Cela n’a pas empêché Microsoft et ses partenaires hardware de persister, en ajoutant des écrans de belles couleurs, des processeurs plus rapides, plus de mémoire, et bien sûr une plus longue durée de vie de la batterie. Il en est résulté le Pocket PC.

Deux fournisseurs – Casio et Compaq – sont sortis du peloton, offrant des fonctions uniques qui ont commencé à redéfinir la catégorie. Casio a présenté un écran à 16 bits par pixel, capable d’afficher des images numériques et même de la vidéo ; Compaq a ajouté un processeur Intel StrongARM à 206 MHz et a mis l’OS dans la mémoire flash pour que la mise à niveau de l’appareil puisse s’effectuer chez le client. L’an dernier, Microsoft a intégré ces fonctions en standard dans l’OS et a ajouté de nouvelles options de connectivité : des drivers de réseau intégrés, le support VPN et même un client Windows Terminal Services. Et aujourd’hui, le Pocket PC 2002 est le plus puissant des PDA de poche jamais offerts pour l’usage personnel ou professionnel.

Lire l'article
Avant-première du Tablet PC

Avant-première du Tablet PC

Au COMDEX Fall 2001 de Las Vegas, Ira Snyder, General Manager du Tablet Platform Group de Microsoft et moi-même étions penchés sur la table de l’orateur, parée de notre assortiment d’ordinateurs notebook et de PDA ...

Le PC notebook sur lequel je prévoyais de faire une démo Windows XP fonctionnait bien et mes diapos Microsoft PowerPoint s’affichaient correctement, mais, quoi que nous fassions, le notebook d’Ira Snyder n’envoyait pas de vidéo au projecteur. Je lui ai proposé mon notebook pour sa présentation, mais il refusé. « C’est OK », a-t-il dit, en désignant les deux prototypes de Tablet PC qu’il avait apportés. Je ferai ma présentation avec l’un d’eux ». Et ce que Snyder a accompli était très impressionnant.

Lire l'article
Le processeur Intel® Pentium® 4 – M pour PC portables

Le processeur Intel® Pentium® 4 – M pour PC portables

"Le processeur Intel® Pentium® 4 – M pour PC portables pour une informatique nomade ultrarapide. Plus de flexibilité. Plus d’efficacité. Plus de productivité. ‘L’informatique nomade dans les grandes entreprises’.

Lire l'article
Le clustering réparti géographiquement

Le clustering réparti géographiquement

Le clustering améliore la disponibilité, la fiabilité et l’évolutivité des serveurs sous Windows. Une configuration clustering classique favorisant la disponibilité, est constituée de plusieurs nœuds semblables, reliés en principe à un sous-système de stockage partagé. Quand ces nœuds fonctionnent dans une configuration active-active, la charge de travail est répartie entre les nœuds en cluster ...

Mais le principal objectif d’un cluster est d’assurer le failover en cas de défaillance d’une application ou d’un élément matériel : on est là dans une configuration active-passive.

La configuration clustering active-passive a une variante : la réplication de données au lieu du stockage partagé. La réplication de données permet de pratiquer le clustering sur une liaison en réseau étendu. Les produits qui permettent ce type de cluster offrent de nombreux avantages au-delà de ce que les données dispersées géographiquement offrent sur le plan antisinistre. Ainsi, la possibilité de spécifier des configurations matérielles différentes pour chaque nœud diminue le coût du matériel. En outre, l’existence d’une source de données répliquées peut s’avérer très utile pour la sauvegarde des données, le test des applications, et la migration et le test des OS.

J’ai rassemblé trois produits permettant le clustering basé sur la réplication avec failover – BrightStor High-Availability Manager (nommé précédemment SurviveIT2000) de Computer Associates (CA), Double-Take for Windows 2000/NT 4.1 de NSI Software, et Legato Octopus for Windows NT and 2000 4.2 de Legato Systems. (Depuis, Legato a changé le nom du produit Octopus en Legato RepliStor et a présenté la version 5.0.) J’ai testé ces produits pour juger leur capacité de reprise et leur haute disponibilité face à divers incidents. J’ai également examiné certaines possibilités uniques qui rendent chaque produit mieux adapté à une situation donnée. VERITAS Cluster Server 2.0 for Windows 2000 de VERITAS Software et LifeKeeper for Windows 2000 4.0 de SteelEye Technology offrent des possibilités similaires mais n’étaient pas disponibles pour le test.

Lire l'article
Optimiser les performances disque ATA, 2ème partie

Optimiser les performances disque ATA, 2ème partie

Dans l’article « Optimiser les performances disque ATA, 1re partie », avril 2002, j’expliquais comment tirer les meilleures performances des disques ATA (aussi appelés IDE) dans Windows 2000. Je décrivais les derniers standards ATA et évoquais quelques pièges matériels auxquels vous pourriez être confrontés en essayant de configurer vos disques ATA (ATA/33, ATA/66, ATA/100, par exemple). Ce mois-ci, je conclus ma série en deux parties en parlant du logiciel.J’essaie également de combler certaines lacunes de la documentation Knowledge Base incomplète de Microsoft à propos d’ATA. Mais avant de suivre les étapes ou d’appliquer les conseils de cet article, assurez-vous que vous avez suivi les indications sur le matériel expliquées le mois dernier.

Lire l'article
Network Appliances

Network Appliances

De nombreux fournisseurs offrent des network appliances ou des server appliances qui se consacrent à des services Web, des services de fichiers ou autres tâches spécifiques. Bon nombre de ces appliances utilisent BSD UNIX ou Linux comme OS de prédilection, mais on en trouve de plus sous les diverses versions Windows.Microsoft encourage d’ailleurs cette tendance en procurant des outils qui aident les fournisseurs à n’utiliser que les composants Windows nécessaires dans un server appliance. Cette nouvelle génération d’outils représentent une alternative aux serveurs – une alternative qui mérite considération quand on construit l’infrastructure réseau.

Lire l'article
Alpha 21264 : prenez des RISC

Alpha 21264 : prenez des RISC

Alors que tout le monde attend la puce Merced 64 bits d’Intel et la version 64 bits de Windows NT, Digital Equipment offre un avant-goût de la prochaine génération de l’informatique NT. L’Alpha 21264 est un processeur 64 bits supportant NT. C’est l’une des puces les plus rapides du monde. Et, qui plus est, déjà disponible aujourd’hui.Le 21264 est la toute dernière génération de l’architecture de microprocesseur Alpha. Selon Digital, il devrait dépasser des vitesses d’horloge supérieures à 700 MHz dès cette année, reprenant le leadership de la vitesse au 21164, déjà un Alpha.Alpha est la dernière architecture RISC pour laquelle Microsoft développe encore des versions futures de NT, alors qu’il cesse progressivement de supporter les puces MIPS Rx000 et que le PowerPC NT n’a jamais décollé. La seule autre architecture de CPU supportée par NT est, bien entendu, Intel x86. Malgré la domination du marché par ce dernier, l’Alpha possède un grand avantage sur le x86 : des performances supérieures, en particulier pour les calculs en virgule flottante.

Les systèmes Alpha sont plus rapides et excellent dans les applications d’ingénierie à forte proportion de calculs et les applications scientifiques.Pour dépasser les limites des performances de l’architecture x86, qui a déjà vingt ans, Intel a conclu un partenariat avec HP en 1994, afin de développer une nouvelle architecture de CPU : IA-64 (Intel Architecture-64). Selon Intel, les systèmes utilisant le processeur Merced, le premier processeur à implémenter IA-64, devraient sortir vers la mi 2000. Mais Merced pourrait ne pas être la puce la plus rapide du marché NT en 2000. Car à en croire Digital, au moment où Merced fera son apparition, le 21264 tournera à 1000 MHz (1 gigahertz, GHz). A cette vitesse, il sera nettement plus rapide que Merced, selon des estimations benchmarks de CPU.

Les premiers systèmes 21264 tournent et sont disponibles sous forme d’échantillons. La production en volume devrait commencer mi 99. Il n’y aura donc pas à attendre deux ans les performances 64 bits. Cependant, le 21264 n’atteindra son plein potentiel qu’à la sortie par Microsoft d’une version 64 bits à la fois pour les puces IA-64 et Alpha. (Microsoft espère sortir la version 64 bits de NT en 2000).

Le 21264 n’atteindra son plein potentiel qu’à la sortie par Microsoft d’une version 64 bits à la fois pour les puces IA-64 et AlphaOù est le RISC ?

La course que se livrent les processeurs 21264 et IA-64 n’est pas un simple sujet de bavardage stérile. L’enjeu est ni plus ni moins l’avenir du RISC - pour NT et tous les autres systèmes d’exploitation.En dehors du marché des applications intégrées très spécialisées, le RISC est en recul. Actuellement l’architecture RISC pour PC la plus répandue est la puce PowerPC développée conjointement par IBM, Apple et Motorola. Mais le plus gros client informatique des PowerPC est Apple dont le Macintosh n’a plus désormais que 4 % environ de part de marché des PC selon IDC.

En juin dernier, IBM et Motorola ont annoncé qu’ils mettaient un terme à leur partenariat de sept années et allaient développer séparément les futures puces PowerPC.L’autre architecture RISC d’IBM, la série Power, va fusionner avec le PowerPC. IBM retire progressivement la puce Power en tant qu’architecture distincte. La prochaine puce 64 bits, Power3, est le premier processeur qui unifiera les technologies Power et PowerPC.Pour stopper ses pertes récentes, Silicon Graphics abandonne ses processeurs RISC de la série MIPS Rx000. Le fabricant a annulé les projets de prochaines générations et MIPS Technologies, la structure de conception de Puces de SGI a récemment été &q

Lire l'article
Processeurs Alpha : une famille bien speed

Processeurs Alpha : une famille bien speed

Il y a deux ans, seuls quelques constructeurs produisaient des systèmes dotés de processeurs Alpha et les consommateurs n’avaient qu’un choix limité en matière de présentation, de caractéristiques et de prix. A présent il est facile de trouver un système Alpha. Applications, Entreprise, Processeurs, Performances, SystèmesBeaucoup de fabricants de clones, d’intégrateurs et de développeurs systèmes construisent désormais des machines dotées de processeurs Alpha - depuis ceux qui défendent Alpha depuis longtemps, comme Aspen Systems et Carrera Computers, jusqu’aux nouveaux venus sur le marché, comme CompuSys et Advanced Business Technology. Les puces Alpha sont produites par deux fabricants, auxquels devraient venir s’ajouter prochainement deux autres. Le nombre de distributeurs du marché est en augmentation et l’éventail de prix des systèmes Alpha va des cartes mères à 99 $ aux monstrueux multiprocesseurs à 100 000 $. Les systèmes Alpha couvrent trois générations et la tranche d’âge des systèmes Alpha existants va des systèmes annoncés récemment aux systèmes ayant déjà 5 années de vie. Etant donné la variété des systèmes Alpha disponibles actuellement, les consommateurs se demandent souvent comment distinguer les capacités d’une machine Alpha particulière de celles d’autres ordinateurs. Un aperçu des processeurs Alpha passés et futurs vous aidera à comprendre ce qui se trouve à l’intérieur des différents systèmes et ce que l’on a pour le prix.

Lire l'article
Sauvegardes partielles sous SQL

Sauvegardes partielles sous SQL

Lors des forums d’aide au public de SQL Server, une question revient souvent : « Comment puis-je récupérer une seule des tables de ma base de données ? ». La reprise d’une seule table peut s’avérer nécessaire si quelqu’un émet une instruction UPDATE ou DELETE inappropriée qui modifie une quantité appréciable des données de la table de manière non prévue.Dans un tel cas, l’administrateur peut souhaiter remplacer les données de cette table par les dernières sauvegardées. Autre cas où il peut être intéressant de ne restaurer qu’une sous-ensemble des données de la base de données : quand l’un des disques contenant la base de données SQL Server est défaillant mais que les autres disques fonctionnent correctement. Si l’on a une sauvegarde de la base de données antérieure à la modification intempestive ou à la défaillance du disque, on peut fort bien restaurer la base de données dans un nouvel endroit, puis copier les données appropriées de la base de données ainsi restaurée dans la base de données originale. Mais, pour de très grandes bases de données (VLDB, very large databases) contenant des dizaines ou des centaines de giga-octets, des considérations de temps et d’espace peuvent contrarier cette solution. Il n’est pas si simple d’ordonner à SQL Server de restaurer les données appartenant à une table ou à un ensemble de tables. Toutefois, les releases 6.5 et ultérieures de SQL Server donnent des moyens de ne récupérer que certaines parties d’une base de données.

Lire l'article
Datacenter, premier contact

Datacenter, premier contact

Dans le laboratoire de test d’Unisys : « avec les systèmes Datacenter, c'est l'OEM qui configure les outils, personnalise les "snap-ins" et écrit les utilitaires personnalisés supplémentaires ... »Lorsque j’ai interviewé plusieurs administrateurs de Windows 2000 Datacenter Server pour « Datacenter in Action », tous ont donné l’impression que l’utilisation de leurs systèmes était simple. Trop simple, à mon avis – jusqu’à ce que j’ai essayé un système Datacenter. Lequel présente un gros avantage : il arrive avec l’OS installé et adapté à vos besoins. C’est l’OEM qui configure les outils, personnalise les « snap-ins » et écrit les utilitaires personnalisés supplémentaires – le rêve de tout administrateur ! Et aussi complexe et puissant que soit le Datacenter, les tâches administratives classiques s’exécutent simplement.

Chaque sub-pod possède un pont d’I/O direct (DIB, direct I/O bridge) qui a trois bus PCI contenant quatre slots PCI chacun. Un simple calcul donne 96 slots PCI. Quatre modules mémoire, qu’Unisys appelle MSU (Memory Storage Units), contiennent chacun 16 Go de mémoire. Ces MSU ressemblent à des SIMM sous stéroïde. Les modules cache niveau 3 alimentent le système en données, environ six fois plus vite que la mémoire système. Les ingénieurs Unisys m’ont confié que, pour les opérations quotidiennes, les données nécessaires à la plupart des applications attendent dans le cache 95 % du temps.

Un dispositif baptisé cross-bar utilise des connexions point à point entre la mémoire, les processeurs, et les composants d’I/O. Le cross-bar est au cœur de l’architecture CMP d’Unisys, dopant les performances de l’ES7000 puisque les données n’ont pas besoin de traverser le bus pour circuler entre ces composants.

Un ventilateur standard est incapable de refroidir une telle boîte. Les trois propulseurs de l’ES7000 ressemblent aux ventilateurs des moteurs d’un petit jet. « Presque tout ce qui est dans la boîte est permutable à chaud » a déclaré un technicien du labo en retirant un propulseur de son logement. Aussitôt, les autres unités ont augmenté leur vitesse pour compenser, élevant du même coup le niveau sonore. Quand le technicien a remis l’unité en place, les autres propulseurs ont ralenti. Bien que la permutation à chaud ne soit pas vraiment une nouveauté, l’administrateur Windows que je suis n’en est pas souvent le témoin. C’est pourquoi cette démonstration des possibilités de permutation à chaud de l’ES7000 m’a impressionnée.

Lire l'article
Les OEM de Datacenter

Les OEM de Datacenter

Pratiques et procédures

Lire l'article
A la découverte des disques dynamiques

A la découverte des disques dynamiques

Le disque nouveau est arrivé. Il est temps de se préparer à cette nouvelle donne qui va tout changer. Tout le monde l'a bien compris, Windows 2000 regorge de nouveautés très séduisantes. Bien sûr, Active Directory et sa gamme de services attirent tout particulièrement l'attention, mais il ne faut pas pour autant négliger, parmi les caractéristiques les plus intéressantes de Windows 2000, la gestion du stockage.On a déjà évoqué dans ces colonnes les améliorations de la gestion du stockage du NTFS de Windows 2000. Mais les améliorations dans ce domaine ne s'arrêtent pas aux nouvelles fonctions de NTFS5. Windows 2000 apporte aussi tout un éventail de nouveautés - terminologie, outils et technologie - concernant le stockage, conçues par Microsoft pour répondre aux besoins de la clientèle d'entreprise.
Les nouveaux termes et les nouvelles fonctions de gestion de disque de Windows 2000 concernent les disques dynamiques, une nouvelle race de volume de disque donnant davantage de flexibilité et de fiabilité que Windows NT 4.0. Pour profiter au maximum des systèmes Windows 2000, il est indispensable de comprendre les fonctions, les avantages et les contraintes de cette nouvelle catégorie de volume de disque.

Lire l'article