> Windows
Windows 2000 : qui est pressé ?

Windows 2000 : qui est pressé ?

Fin mars, certaines sources chez Microsoft ont murmuré que les utilisateurs pouvaient s'attendre à  la sortie de Windows 2000 en octobre. (Cette nouvelle est arrivée 3 semaines après l'annonce, par ces mêmes sources, de la sortie du produit pour février 2000 - Il faut donc en prendre et en laisser). Comme chaque fois qu'une date de sortie officieuse de Windows 2000 est repoussée, ces murmures ont provoqué un emballement de la rumeur." A cette vitesse, je serai à  la retraite lorsque Windows 2000 sortira ", a déclaré un éditorialiste. " Microsoft doit reconnaître qu'il a les yeux plus gros que le ventre et se contenter de sortir au moins quelque chose. Il peut très bien ajouter Active Directory (AD), IntelliMirror et d'autres fonctions dans les années qui viennent ! "L'idée qu'il faut " au moins sortir quelque chose " est un thème très répandu et parfois amusant. J'ai eu du mal à  retenir mon rire en lisant l'article d'un commentateur déclarant que Microsoft pouvait ajouter juste quelques fonctions, comme AD et Plug and Play (PnP) dans un Service Pack après la sortie de Windows 2000. Je ne suis pas loin de penser que toute une bande de journalistes et d'experts se trouve à  court de sujets sur NT 4.0 et rongent son frein en attendant qu'on leur jette Windows 2000 en pâture. (Des sources internes à  Microsoft affirment que désormais, les service packs de Windows 2000 n'apporteront pas de nouvelles fonctions, mais seulement des corrections de bugs).

Lire l'article
Linux, l’aiguillon de Windows 2000

Linux, l’aiguillon de Windows 2000

Alors que le procès antitrust contre Microsoft touche à  son terme, on pourrait croire, en lisant les annonces des fournisseurs ou la presse informatique, que Windows est sur le point de perdre de substantielles parts de marché face à  Linux. Il ne faut pas toujours croire ce que l'on vous dit.

Lire l'article
RDP ou ICA : encore une victime de la vitesse

RDP ou ICA : encore une victime de la vitesse

Tout le monde le sait dans le domaine automobile, la vitesse tue. Mais ce qui est vrai pour les voitures s'applique également à  l'informatique, particulièrement aux deux principales technologies de clients légers offertes aux utilisateurs de Windows NT.Le slogan " la vitesse tue " convient très bien aujourd'hui à  la technologie du client léger ou thin client, bien que dans un registre légèrement différent (je doute que quiconque ne succombe pour avoir utilisé un produit trop rapide ou trop lent). Le slogan colle particulièrement bien à  la rivalité entre deux implémentations concurrentes des clients légers pour Windows NT : ICA (Independent Computing Architecture) de Citrix et RDP (Remote Desktop Protocol) de Microsoft. En effet, si l'un des deux (ou en l'occurrence les protocoles sous-jacents) l'emporte par la vitesse, le client le plus lent mourra, sera enterré et vite oublié.

Pourquoi la vitesse est-elle si importante sur ce marché ? Dans la technologie du client léger, un serveur central pousse tous les bits, qui composent l'image du bureau, jusqu'au client via le réseau. Par exemple, lorsque l'on démarre, redimensionne ou arrête les applications du bureau, le serveur doit pousser tous les bits affectés pour repeindre l'écran du client léger. Il n'est pas difficile d'imaginer qu'il faut une bonne dose de bande passante pour déplacer des bits d'affichage.

Comme l'interaction client-serveur est très gourmande en bande passante, l'efficacité du client est extrêmement importante. On peut convenir sans risque que dans un environnement de type réseau local, le client ICA et le client RDP offrent des performances similaires. Dans un environnement WAN ou dans un environnement commuté, le client ICA offre de meilleures performances que le client RDP, car Citrix a développé son client ICA pour les connexions modem lentes.

Comme l'interaction client-serveur est très gourmande en bande passante, l'efficacité du client est extrêmement importante

Une fois dressé ce tableau général, l'examen détaillé de chaque client se complique. Par exemple, le client ICA supporte le son, mais pas le client RDP. Or l'ajout du son demande plus de bande passante. De même le client ICA pour Windows 32 bits peut mettre en mémoire cache les bits des icônes, ce qui, théoriquement, accélère les opérations d'affichage. Les clients RDP pour Windows 16 et 32 bits ne peuvent pas mettre en mémoire ces mêmes bitmaps.

Un autre facteur vient compliquer l'étude des performances : le système d'exploitation des clients. Par exemple, un client ICA tournant sur un terminal avec un OS propriétaire risque d'être plus rapide qu'un client ICA tournant sur un terminal Windows CE. De même un client RDP tournant sur un terminal Windows NT ou Windows 95 sera sans doute plus rapide que ce même client RDP sur un terminal Windows CE. Comparer la rapidité de différentes implémentations de client léger n'est donc pas évident.

Lire l'article
Au coeur du noyau de Windows 2000

Au coeur du noyau de Windows 2000

Microsoft a déclaré que Windows 2000 est la plus importante mise à  niveau de toute son histoire. Windows NT 4.0 est sorti mi-1996, et pour créer la nouvelle version Windows 2000, Microsoft a bénéficié de l'expérience des utilisateurs et de sa propre étude du système d'exploitation pendant trois années. Je voudrais dissiper le mythe selon lequel le kernel de Windows 2000 est une simple réécriture de celui de NT 4.0. Il s'agit, en réalité, d'une version tunée et peaufinée du noyau de NT 4.0, comportant certaines améliorations significatives de zones particulières et deux nouveaux sous-systèmes. Avec ces modifications, Microsoft a voulu améliorer l'évolutivité, la fiabilité et la sécurité du système d'exploitation par rapport à  NT 4.0, et permettre le support de nouvelles fonctions telles que Plug and Play (PnP) et la gestion de l'alimentation.
Dans cet article, je fais rapidement le tour des changements apportés au kernel dans Windows 2000. Je ne parle pas des composants Windows 2000 du mode utilisateur, comme Active Directory (AD) ou les interfaces d'administration, qui ne tirent pas parti des changements du kernel pour leur implémentation. Je n'ai pas suffisamment d'espace pour décrire une fonction particulière en détail, mais vous pouvez consulter d'autres articles spécifiquement consacrés aux fonctions internes de NT.

NT 4.0 a la réputation de ne pas supporter suffisamment les montées en charge sur les machines SMP, en particulier à  plus de quatre CPU

Lire l'article
Explorons Management Central

Explorons Management Central

IBM y intègre la gestion des PTF et le packaging et la diffusion d'objets, et clarifie sa stratégie en matière d'outils de gestion système graphiques. A l'instar de différents secteurs du marché de l'AS/400, lorsqu'il s'agit de choisir une solution de gestion système dans l'offre IBM ou dans celles de ses “ Business Partners ”, le client n'a que l'embarras du choix. Le présent article a pour but de vous faire découvrir l'un des nouveaux venus dans ce domaine : Management Central. Il s'agit d'un ensemble d'outils pouvant être utilisés pour observer et surveiller plusieurs AS/400 connectés via TCP/IP. Management Central fait partie d'Operations Navigator (OpNav), qui à  son tour, fait partie de la portion de Client Access livrée gratuitement. Management Central fait partie d'Operations Navigator La version originale, en V4R3, de Management Central offrait d'une part des fonctions de collecte d'informations et d'autre part, des fonctions d'affichage graphique de différents indicateurs de performances. Avec la V4R4 et la nouvelle mouture de Client Access lancée en mai 1999, IBM a élargi les fonctionnalités de Management Central. Désormais, le produit offre également des fonctions de gestion des composants matériels et logiciels, des PTF, permet de collecter des informations sur les performances, d'exécuter des commandes à  distance ainsi que de distribuer des fichiers AS/400 et IFS. Entamons notre tour d'horizon en analysant la version actuelle de Management Central.

Lire l'article
Un Cerbère protège Windows 2000

Un Cerbère protège Windows 2000

Dans la mythologie grecque, Cerbère - Kerberos en anglais - est le chien à  trois têtes qui garde l'entrée des enfers. La mise en oeuvre réalisée par Microsoft de Kerberos est un peu moins féroce tout de même. C'est la RFC (Request for Comments) 1510 qui définit le protocole Kerberos de base, développé au MIT comme partie intégrante du projet Athena et portant sur l'authentification des utilisateurs. Microsoft a intégré cette version de Kerberos dans Windows 2000 comme nouveau protocole d'authentification par défaut de l'OS. Dans cet article nous verrons les fonctions essentielles de l'implémentation de Kerberos par Microsoft.

Lire l'article
Comment sécuriser les réseaux NT / Unix

Comment sécuriser les réseaux NT / Unix

Bien que Windows NT et Unix aient en commun bon nombre de forces et de faiblesses en matière de sécurité, l'utilisation simultanée de ces deux OS dans le même réseau ajoute à  sa complexité. Une complexité d'autant plus pesante si ce réseau mixte est connecté à  l'Internet. Les administrateurs de réseaux NT et UNIX mixtes doivent donc impérativement développer et mettre en oeuvre un plan de sécurité complet. Dans un grand nombre d'organisations les plans de sécurité NT et UNIX sont inefficaces. On commet communément l'erreur de croire qu'il suffit d'installer un pare-feu et un serveur proxy pour garantir la sécurité d'un réseau. Cette mesure est importante, certes, mais elle ne représente qu'un élément d'un plan efficace. Un plan de sécurité NT et UNIX complet exige non seulement d'installer des pare-feux et des serveurs proxy, mais également de choisir soigneusement les applications, de sécuriser le serveur Web, de gérer efficacement les mots de passe et les logons, ainsi que les comptes d'utilisateurs et de groupes, de sécuriser physiquement le réseau, de garantir l'intégrité des données via des sauvegardes, et de surveiller les applications.

Lire l'article
Microsoft Site Server 3,0 édition Commerce électronique

Microsoft Site Server 3,0 édition Commerce électronique

L'édition Commerce électronique de Microsoft Site Server 3.0 simplifie la création d'une vitrine Internet en fournissant aux développeurs un ensemble d'outils et de possibilités, comme, par exemple, des boutiques types pour servir de modèles. Pour plus de personnalisation ou l'intégration à  l'existant, des modèles peuvent être modifiés ou créés de toute pièce. Microsoft Site Server édition Commerce électronique (SSCE) permet de presque tout faire très facilement. Ses assistants peuvent générer votre site vitrine à  partir de zéro avec des mécanismes de base pour récolter des informations sur les acheteurs et les commandes, le stockage dans des bases de données et le traitement des commandes. SSCE comprend des outils intégrés de publicité et de promotion et des outils d'administration des vitrines.

Ces outils, combinés à  des snap-in d'éditeurs tiers - calcul des taxes, coûts d'expédition, paiement - facilitent la création d'une vitrine de base et le démarrage d'une activité commerciale.Mais, pour comprendre SSCE et s'en servir pour créer une solution plus sophistiquée s'intégrant aux systèmes et aux bases de données de l'entreprise, il faut se retrousser ses manches et jeter un coup d'oeil sous le capot. A y regarder de plus près, on découvre que SSCE contient plusieurs technologies et structures essentielles : pages actives ASP (Active Server Pages), objets COM et pipeline de traitement des commandes.

La plupart des pages d'un site Web SSCE sont des ASP côté serveur, contenant un script qui manipule un jeu d'objets COM fourni par Microsoft avec SSCE. Le logiciel les utilise pour recueillir des informations sur l'acheteur, extraire et enregistrer des données dans la base de données sous-jacente et traiter la commande du client grâce à  un pipeline de traitement de commande (OPP pour Order Processing Pipeline).

Les pipelines de traitement de commandes suivent les mêmes étapes que la caissière d'un magasin

Lire l'article
Administrer tous les browsers Web de l’entreprise avec IEAK

Administrer tous les browsers Web de l’entreprise avec IEAK

La modification d'un tout petit paramètre sur le PC de tous vos utilisateurs peut simplifier l'administration quotidienne, mais la taille du parc machine de votre entreprise et le travail qui s'empile sur votre bureau risquent fort de ne pas vous permettre de procéder à  ce petit changement. Une fonction peu connue d'Internet Explorer (IE), baptisée configuration automatique, peut résoudre ce problème et contribuer à  faire baisser le coût global de possession (TCO). Les OS modernes ont atteint un niveau de complexité parfois difficile à  gérer et les administrateurs doivent souvent évaluer les modifications d'infrastructure au cas par cas.
Malheureusement, il leur faut bien faire le lien entre les changements logiques et le coût de leur mise en oeuvre.
Parfois, il suffit d'une petite modification sur tous les ordinateurs de la société pour améliorer l'administration quotidienne, mais intervenir sur tous les postes de travail est souvent impossible. Avec la configuration automatique du kit d'administration de Microsoft Internet Explorer (IEAK pour Internet Explorer Administration Kit), peut résoudre ce problème et contribuer à  faire baisser le coût global de possession (TCO). Cette fonction permet, en quelques clics de souris et frappes de touches sur une machine, de modifier les paramètres de l'application sur les milliers d'ordinateurs de votre organisation.

Lire l'article
Sybase : une stratégie d’entreprise

Sybase : une stratégie d’entreprise

Fondée en 1984, la société Sybase s'est rapidement fait connaître en tant qu'éditeur de SGBDR. Les performances impressionnantes, la simplicité de mise en oeuvre et la stabilité de SQLServer sont largement reconnues sur le marché. Sybase a acquis une image de société à  la pointe de la technologie grâce notamment à  l'introduction des procédures stockées et des triggers, aujourd'hui supportés par tous les grands éditeurs de SGBD. avec une simple station Sun, sans le moindre incident d'exploitation pendant des mois (en ne redémarrant le serveur qu'une ou deux fois par an pour des mises à  jour du système d'exploitation).

Ce niveau de performance et de stabilité a permis à  Sybase de conquérir rapidement le marché bancaire et celui de l'assurance - les banques de Wall Street ont par exemple presque toutes choisi ce SGBDR.

Après dix ans de croissance et de succès, Sybase a connu des revers et de sérieuses difficultés pendant plusieurs années. Les difficultés n'étaient pas que financières et les incidents de migration vers les nouvelles releases de Sybase se sont succédés.

Pendant cette période délicate la société a multiplié les nouveaux produits et acquisitions de sociétés, sans réellement réussir à  redresser la situation... jusqu'à  l'année dernière. Il faut remarquer que même au plus fort de la tempête les clients traditionnels de Sybase n'ont pas abandonné et sont restés fidèles, donnant ainsi au marché un signe clair de la confiance à  long terme qu'ils avaient dans la société et dans les produits.

A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits et profondément changé son approche du marché.

Ce bouleversement a été un véritable succès pour la société d'Emeryville. Sybase a renoué avec les bénéfices en 1999 et fait cette année là  un chiffre d'affaires record de 872 M$. Après la pluie, le beau temps…

A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits et profondément changé son approche du marchéSybase est à  présent restructuré en quatre divisions : Internet Application Division (IAD), Information Anywhere (I-Anywhere, anciennement MEC, Mobile Embedded Computing), Business Intelligence (BI) et Enterprise Solution Division (ESD). Si cette dernière division (qui inclut le traditionnel moteur de base de données) reste un pilier de la stratégie de Sybase, l'évolution de la société vers le développement de solutions pour la Net-Economie place la division IAD dans une position stratégique.

Lire l'article
Office 2000 : le bon et le moins bon

Office 2000 : le bon et le moins bon

Les statistiques peuvent parfois changer la vision que l'on a de l'importance des applications bureautiques. On pense parfois que les entreprises stockent la majorité de leurs données dans des solutions ERP telles que SAP R/3, des produits de groupware ou de messagerie tels que Lotus Notes et Exchange, ou des bases de données. Il est peut-être temps de revoir vos certitudes…Au cours d'un récent séminaire technologique, Microsoft a cité une étude portant sur un échantillon de grandes entreprises du classement Fortune 1000. Selon cette étude, ces entreprises stockent 80 % de leurs données dans des documents Office. Ces statistiques expliquent pourquoi Office demeure la principale source de revenus de Microsoft. L'importance pour Microsoft, de préserver sa poule aux oeufs d'or, associée aux demandes, émanant des directions informatiques et des utilisateurs, de fonctions plus performantes ou conviviales sont les ingrédients du succès d'Office 2000. Grâce au blitz marketing international de Microsoft et à  la couverture importante des médias, vous ne pouvez ignorer l'existence d'Office 2000. En revanche, vous vous interrogez peut-être sur ce que le produit pourrait vous apporter, comment la nouvelle version pourrait impacter votre réseau et vos utilisateurs, et quels nouveaux outils ont été ajoutés par Microsoft pour améliorer les déploiements et l'administration.

Je ne vais pas vous ennuyer avec une fastidieuse description de toutes les améliorations, fonction par fonction, de la nouvelle release. (Reportez-vous au guide publié par Microsoft à  l'adresse http://www.microsoft.com/office). Cet article analyse de façon objective la suite de produits afin de vous permettre de déterminer si la migration (ou l'upgrade) vers Office 2000 en vaut la peine et l'investissement pour votre entreprise.

Lire l'article
Comprendre les licences d’accès client

Comprendre les licences d’accès client

La comptabilisation des licences Microsoft ressemble à  bien des égards à  la comptabilité " légale " des entreprises : si vos calculs sont faux, vous pouvez perdre beaucoup d'argent, il existe beaucoup de règles à  connaître et la procédure à  suivre est complexe. En fait, à  bien y réfléchir, la comptabilité est probablement plus facile. Windows NT 3.1 coûtait un prix forfaitaire de 1.500 $ et permettait de connecter autant d'utilisateurs que l'on voulait à  un Windows NT Advanced Server (NTAS). Cette politique était avantageuse par rapport à  celle de Novell, alors dominant, car Novell faisait payer NetWare plus cher aux grandes entreprises qu'aux petites. NTAS, au contraire, coûtait le même prix qu'il y ait 5 ou 1000 utilisateurs connectés au serveur.Microsoft a tout changé dans NT 3.5 en ajoutant la notion de licence d'accès client, également baptisée CAL.
Il fallait acheter le logiciel serveur, qui coûtait environ 700 $, et des CAL pour connecter les utilisateurs au serveur. Le tarif des CAL était de 40 $, mais Microsoft proposait des CAL à  moitié prix aux entreprises qui migraient de Novell à  NT, à  celles qui faisaient un upgrade de LAN Manager et à  d'autres encore. Les migrations de NT 3.5 à  NT 3.51 ne nécessitaient pas l'achat de nouvelles CAL. En revanche, la mise à  jour vers NT 4.0 obligeait à  mettre à  jour chaque CAL NT 3.x vers une CAL NT 4.0 pour environ 20 $ chacune.
Lorsque vous passerez de votre version actuelle à  Windows 2000 (Win2K), vous devrez probablement acheter un autre jeu de CAL ou mettre à  jour vos licences.Le détail des licences jette le trouble chez beaucoup d'utilisateurs. Si vous vous faites prendre avec un nombre de CAL insuffisant, vous risquez de vous attirer des histoires. Nous allons donc jeter un coup de projecteur sur le fonctionnement des CAL.

Lire l'article
Déployer Windows 2000 à  distance

Déployer Windows 2000 à  distance

Pourquoi passer tout ce temps à  installer un nouveau système d'exploitation, quand les Services d'installation à  distance RIS de Windows 2000 Server sont là  pour simplifier la tâche ? En partenariat avec Active Directory (AD), DHCP et DNS, RIS (Remote Installation Services) évite de se déplacer jusqu'à  chaque poste de travail pour installer Windows 2000 Professional. Les services RIS sont faciles à  installer, mais nécessitent une infrastructure AD, DHCP et DNS bien conçue pour fonctionner correctement. Avec des services RIS correctement configurés, les utilisateurs n'ont à  donner, dès leur première connexion, que leur nom d'utilisateur, leur mot de passe et le nom du domaine et RIS installe Windows 2000 Professional. Une fois que vous saurez comment installer et configurer ce nouvel outil, vous serez capables de le mettre en oeuvre avec succès.

Lire l'article
Indexer pour optimiser les performances des tris

Indexer pour optimiser les performances des tris

par Dusan Petrovic et Christian Unterreitmeier
La définition d'index sur les colonnes de tri peut améliorer les performances de manière exceptionnelle
Un index approprié peut considérablement améliorer les performances de tri de SQL Server.
Par exemple, la définition d'un index clusterisé sur une colonne de tri contraint la base de données à  stocker les enregistrements sous forme triée, ce qui permet d'extraire les données sans avoir à  réaliser de tri supplémentaire. Vous noterez que SQL Server 7.0 et les versions antérieures permettent de créer des index uniquement en ordre croissant.
Par conséquent, si votre requête nécessite des données dans un ordre décroissant, il faudra certainement effectuer un tri supplémentaire et utiliser des tables de travail internes pour générer des données dans l'ordre approprié.
Cependant, SQL Server 2000 permet de créer des index aussi bien dans un ordre croissant que décroissant.

SQL Server 2000 permet de créer des index aussi bien dans un ordre croissant que décroissant.

SQL Server 7.0 effectue une opération de tri lorsqu'on utilise la clause ORDER BY. L'optimiseur de requêtes de SQL Server est également susceptible d'utiliser une opération de tri pour traiter une requête utilisant les clauses GROUP BY, DISTINCT ou UNION. En revanche, on peut utiliser l'indicateur d'index FAST pour éviter le tri des données.
Cela indique à  l'optimiseur de requêtes de SQL Server qu'il doit utiliser un index non clusterisé correspondant à  la clause ORDER BY, éliminant ainsi la nécessité du tri. Observons comment SQL Server gère les clauses GROUP BY, DISTINCT et UNION pour trier les données, puis analysons comment les différentes techniques d'indexation peuvent améliorer les performances des requêtes nécessitant des données triées.

Lire l'article
SQL Server 2000 : Le modèle OIM

SQL Server 2000 : Le modèle OIM

Un groupe d'éditeurs et d'entreprises utilisatrices a formalisé les types de métadonnées pour les entrepôts de données. C'est devenu l'OIM (Open Information Model) Avant les efforts de normalisation de Microsoft, les éditeurs et la communauté informatique ne parvenaient guère à  se mettre d'accord sur le type de métadonnées qu'un entrepôt de données devait contenir.
Par la suite, Microsoft a entrepris de réunir les principaux éditeurs et les entreprises utilisatrices pour déterminer ces types de métadonnées. A l'instar du modèle objet pour une application, le modèle d'information pour un référentiel définit le genre de métadonnées stockées dans l'entrepôt de données, et la manière dont ces données sont organisées.

Ces efforts ont conduit à  la définition de l'OIM (Open Information Model). Celui-ci contient les définitions d'approximativement 300 types d'objets et des relations entre ces types d'objets. La documentation de ces types représente une tâche laborieuse ; le groupe a pour mission de définir et de documenter clairement chaque type ainsi que ses caractéristiques et relations nécessaires.
Etant donné que le modèle d'information définit les métadonnées en termes de types d'objets et de relations, la recherche d'une technologie de modélisation d'objets appropriée est la solution évidente. Le groupe a choisi UML (Unified Modeling Language) pour documenter et publier le modèle d'information. Le standard OIM constitue le langage commun pour décrire les informations contenues dans un entrepôt de données.

En juillet 1999, Microsoft a transféré la propriété du standard OIM à  la MDC (Meta Data Coalition), un organisme indépendant qui se consacre à  la création de normes communes facilitant l'échange d'informations entre systèmes (métadonnées). Au fur et à  mesure que la MDC va faire évoluer le modèle, elle va encourager et aider les autres éditeurs à  prendre en charge le standard OIM au sein de leurs outils respectifs. La MDC publie les formats XML (Extensible Markup Language) comme méthode d'échange de données entre différents outils utilisant le standard OIM. Ce dernier limite la complexité de l'extraction et de l'insertion des données de/dans Microsoft Repository et les outils d'autres éditeurs.

La version actuellement validée du standard OIM (initialement soumise par Microsoft et ses éditeurs partenaires) est la 1.0 ; une proposition de version 1.1 a été soumise en novembre 1999, et devrait en toute logique être validée en 2000. Les exemples et descriptions présentés dans le présent article s'appuient sur la version 1.1. Ces exemples nécessitent la version 3 de Microsoft Repository, disponible avec SQL Server 2000. La version 2 de Repository ne supporte pas les collections ni les propriétés héritées, que le standard OIM MDC utilise intensivement.
Le standard OIM couvre de nombreux domaines, dont :
· L'analyse et la conception d'UML, les extensions UML, les éléments génériques, les types de données communs et la modélisation entités-relations
· Objets et composants : description des composants
· Base de données et entrepôts de données : schémas de bases de données relationnelles, transformations de données, schémas OLAP, schémas de bases de données orientés enregistrements, schémas XML et définitions des rapports
· Ingénierie de processus de gestion : objectifs commerciaux, règles et processus, éléments organisationnels.
· Gestion de la connaissance : descriptions des connaissances et définitions sémantiques

D'un point de vue data warehousing, les schémas de bases de données relationnelles, les transformations de données et les modèles de schémas OLAP sont les plus appropriés. On peut télécharger chaque modèle en tant que fichier .mdl depuis le site Web de la MDC, puis utiliser un outil de conception comme Visual Modeler ou Rational Rose pour le visualiser.
Chaque objet figurant dans un référentiel peut avoir trois propriétés : un nom (255 caractères au maximum), une courte description (255 caractères au maximum) et des commentaires (de longueur pour ainsi dire illimitée). Ces zones, qui sont la source d'une grand

Lire l'article
Arrêter un incident avant le désastre

Arrêter un incident avant le désastre

Les plans de sauvegarde et de reprise après incident sont des sujets dont les sociétés bien élevées ne parlent généralement pas. Même lorsqu'un plan est prévu, le personnel technique n'aime pas l'évoquer… et encore moins le mettre en oeuvre. Après tout, conserver le réseau, les applications et les utilisateurs en état de marche est déjà  un travail à  temps plein. Se demander se qui se passerait s'il fallait mettre en oeuvre le plan de secours ne fait qu'ajouter au stress.Peu populaires, les sauvegardes et les restaurations sont pourtant importantes et toute société doit prévoir leur mise en oeuvre après un incident. Mettez donc de côté ce sentiment que " cela n'arrive qu'aux autres " (vous verrez, vous vous sentirez mieux après l'avoir fait) et faites en sorte que votre entreprise dispose d'un plan de redémarrage adapté à  ses besoins.

Lire l'article
Comment intégrer Office 2000 et BackOffice

Comment intégrer Office 2000 et BackOffice

La plupart des entreprises utilisent Microsoft Office, notamment parce la suite est étroitement intégrée avec les divers produits de BackOffice. Office 2000 comporte plusieurs nouvelles fonctions dans chacun des produits le composant, pour continuer à  tirer le meilleur des fonctions de BackOffice.es principales améliorations apportées à  office 2000 portent sur l'intégration du Web, mais Microsoft a également ajouté de nombreuses améliorations concernant BackOffice, notamment certaines orientées vers SQL Server 7.0 et ses nouveaux services OLAP. Microsoft entend à  l'évidence rester leader avec Office 2000.

Lire l'article
Les administrateurs veulent-ils d’un code réellement commun ?

Les administrateurs veulent-ils d’un code réellement commun ?

Microsoft exprime depuis longtemps le désir de conserver une base de code commune à ses systèmes d’exploitation. Pour le moment, l’éditeur gère trois jeux de code : Windows NT, Windows 9x et Windows CE. Si ces trois OS partagent un modèle de programmation commun, leur code est néanmoins très différent.Lorsque la recherche sur le génome humain aura atteint ses objectifs, on possèdera une cartographie complète de la structure génétique de la race humaine. Malgré l’incroyable complexité de cette tâche, nous savons déjà que les humains partagent un pourcentage important de leurs gènes avec d’autres mammifères – en fait nous partageons plus de 90 pour cent de notre matériel génétique avec la famille des grands singes. Mais étant donné les différences entre les singes et les hommes, il est parfaitement évident que les différences comptent plus que les similitudes.

Lire l'article
Les modifications du Registre

Les modifications du Registre

Dans cet article de la rubrique Boîte à  outils de ce mois-ci, nous allons évoquer les modifications que vous pouvez apporter au Registre. Ces tuyaux peuvent vous permettre de personnaliser Windows NT pour l'adapter à  votre façon de travailler. Comme toujours, soyez très prudent lorsque vous modifiez votre Registre, et vérifiez que vous disposez des sauvegardes à  jour du Registre et des disquettes de redémarrage d'urgence.

Lire l'article
La Business Inteligence bouge

La Business Inteligence bouge

1999 serait-elle l'année du passage de la Business Intelligence (BI) sur AS/400 à  la maturité ? Certains signes vont clairement dans ce sens. Dans le dernier éditorial de NEWSMAGAZINE, j'appelais de mes voeux le soutien stratégique et commercial d'IBM à  une informatique décisionnelle AS/400 désormais crédible, fiable, performante, “ scalable ”, économiquement viable, alors même que Big Blue n'a pas d'offre spécifique dans ce domaine. Ceci afin notamment de “ booster ” les ventes.

Aurais-je déjà  été entendu ? Je doute que NEWSMAGAZINE soit très lu à  Rochester et à  Somers. Même si je sais que certains IBMers américains francophones nous ont parfois fait l'honneur et le plaisir non seulement de nous lire, mais même de tapisser les murs de l'usine de reproductions de NEWSMAGAZINE, cela reste hélas très anecdotique.

NEWSMAGAZINE et la France en général n'ont pas encore le pouvoir d'influencer les décisions de Rochester. Mais il en va tout autrement des éditeurs du domaine de la Business Intelligence, dont certains, comme Coglin Mill ou ShowCase, ont une grande proximité géographique - pour ne pas dire une promiscuité - avec les labs.
Les deux éditeurs cités “ habitent ” en effet Rochester Minnesota ; s'agissant de ShowCase, il leur suffit même de traverser la rue pour se trouver dans les bâtiments bleus du lab de Big Blue. Ca peut aider à  influer les développements, tant hardware que software d'ailleurs : la récente apparition de la virgule flottante dans les types de données AS/400 est par exemple, comme nous l'explique Ken Holec, Président et CEO de ShowCase, en grande partie liée aux besoins de la BI.

Lire l'article