
12 règles pour les gens ordinaires
par Roger PenceDans son nouveau livre, au titre résolument inspiré par le Web : Business@the Speed of Thought (Le travail à la vitesse de la pensée, Robert Laffont, pour l'édition française), Bill Gates énonce ses 12 règles pour réussir à l'âge du numérique. Quelqu'un qui possède 60 ou 70 milliards de dollars dans son escarcelle et élève ses propres saumons, peut-il fixer des règles pratiques utilisables par le reste d'entre nous ? Non, bien entendu. Permettez-moi d'énoncer modestement mes 12 règles pour les ateliers AS/400, à l'approche de l'âge du numérique
Lire l'article
Petit guide du transfert de données sur AS/400
par Ann Hutchins et Michael Otey
Ce tableau synoptique facilite le choix d'un outil de transfert de données
L'AS/400 possède de nombreux outils lui permettant d'échanger des données avec
d'autres plates-formes, de stocker et d'accéder à des fichiers PC standard et
de type Unix (appelés parfois fichiers "stream") et des fichiers de bases de données.
Il n'est pas facile de déterminer le type de transfert ou d'accès aux données
à utiliser du fait que le type de transfert dépend de nombreux facteurs, comme
par exemple le type de fichier concerné par le transfert (fichier de base de données
AS/400 ou un fichier stream).
NEWS/400 et NEWSMAGAZINE ont publié de nombreux articles sur diverses méthodes
de transfert de fichiers sur AS/400 (voir la " Bibliographie du transfert de données
", qui contient la liste des articles et références IBM en la matière). Pour faciliter
le choix d'une méthode, nous avons réalisé le tableau de la figure 1. Elle contient
les différentes méthodes, leurs caractéristiques, leurs avantages et inconvénients
respectifs et le type de fichier auquel elles s'appliquent (base de données ou
stream). Ce tableau synoptique permet de comparer rapidement les méthodes de transfert
pour déterminer la mieux adaptée à chaque cas.
Pour choisir une méthode de transfert de fichiers, le premier critère
à retenir est le type de fichier : stream ou base de données

Linux et les logiciels libres acquièrent droit de cité dans les entreprises
par René Beretz
Tous les témoignages concordent : lorsque Linux est utilisé en entreprise, il
suscite un satisfecit général
Lentement mais sûrement, Linux et les logiciels libres s'introduisent dans les
entreprises. Poussées par l'implication des jeunes embauchés dans cette démarche,
les équipes informatiques les expérimentent et les adoptent rapidement. Vite convaincus
des qualités de ces solutions, ils les répandent dans leurs entreprises. Et ce
qui pouvait passer, au début, pour une mode représente maintenant une évolution
technologique significative.
Les solutions basées sur Linux et sur les logiciels " open source " se
distinguent avant tout par leur fiabilité

L’intégrité des données avec les fonctions de hachage unidirectionnel
par Gene Gaunt
De l'usage des blocs élémentaires de la cryptographie pour se protéger contre
l'altération des données sensibles
Supposons un fichier de données sensibles, que les utilisateurs peuvent visualiser
mais non modifier et que les programmes peuvent ouvrir et lire, mais pas mettre
à jour. Supposons que vous vouliez créer des requêtes SQL et des fichiers logiques
sur ces champs de données sans processus de cryptage de données. Comment les programmes
en lecture seule peuvent-ils détecter facilement si un enregistrement du fichier
a été modifié ? Ne serait-il pas intéressant d'avoir un indicateur d'intégrité
des données (du genre *INxx) que l'on testerait après un accès en RPG par le code
opération CHAIN ?
Supposons qu'un de vos partenaires de commerce électronique demande de vérifier
si vous possédez une copie authentique de l'un de ses enregistrements. Pour des
raisons de sécurité, il ne veut pas que vous lui envoyiez l'enregistrement. Quel
type d' " empreinte digitale " pouvez-vous lui envoyer pour vérifier votre copie
?
Supposons une boutique Web acceptant des commandes par carte de crédit. Une fois
la commande traitée, on transmet en toute sécurité le numéro de la carte de crédit
à la banque pour collecter l'argent, après quoi on n'a plus besoin du numéro.
Toutefois, on peut fort bien être appelé ultérieurement pour vérifier si un numéro
de carte donné a payé pour la commande. Comment le faire sans stocker le numéro
dans une base de données, avec tous les risques en cas de divulgation involontaire
ultérieure ?
Précisément, la fonction de hachage unidirectionnel est un moyen pratique et rapide
d'assurer l'intégrité des données au moment de la lecture de l'enregistrement.
Il suffit d'ajouter au fichier critique une colonne qui contiendra une valeur
de hachage unidirectionnel des autres colonnes de l'enregistrement. On calculera
et écrira cette valeur de hachage dans chaque enregistrement au moment de la création
du fichier. Au moment de la lecture de l'enregistrement, on recalculera cette
valeur et on la comparera à la valeur écrite. En cas de différence, le programme
pourra signaler à l'utilisateur que l'enregistrement a été modifié.
Il existe une autre solution moins séduisante au problème de la vérification des
données. Elle consiste à attacher un trigger ou un récepteur de journal au fichier
critique, puis à bâtir une liste de contrôle sécurisée et inaccessible (par les
utilisateurs ordinaires). Toutefois, comme les journaux et les triggers ne se
déclenchent pas quand les enregistrements sont lus par une application, le timing
de cette technique est discutable. La lourdeur des consultations des listes de
contrôle risque de freiner les performances du système. Il faut aussi songer à
protéger la liste de contrôle (" contrôler le contrôle "). En revanche, les fonctions
de hachage unidirectionnel donnent un accès rapide aux enregistrements avec des
blocs élémentaires de cryptographie. Elles peuvent aussi aider à prouver que l'on
possède (ou que l'on a possédé) une information particulière comme un numéro de
carte de crédit.

Objectif: 100% Linux en 2005
par Isabelle Nougier
Linux constitue aujourd'hui une priorité au sein du département Informatique du
Ministère de la Culture, le DOSI (Département de l'Organisation et des Systèmes
d'Information). En effet, l'objectif fixé à l'horizon 2005 vise l'intégration
de Linux à l'ensemble de tous les serveurs de ses 200 sites.

Les 4 facteurs clés des performances d’Exchange Server
par Paul Robichaux
Dans les chaînes de restauration rapide, il est généralement possible de commander
un menu « plus ». Le principe est simple : vous obtenez plus de nourriture pour
une somme supplémentaire symbolique. Pourquoi ne pas appliquer cette logique à
notre marché ?
Imaginez la conversation suivante entre vous et votre fournisseur de systèmes
:
Vous : " J'aimerais acquérir un serveur bi-processeur Pentium III Xeon avec 512
Mo de RAM et un disque de 9 Go s'il vous plait. "
Le constructeur : " Désirez-vous essayer notre serveur super spécial de la semaine
? Pour seulement 100 Francs de plus, vous obtenez une grappe RAID 5 de 3 disques
de 18 Go et une copie gratuite de Quake III ? "
Si seulement il était possible d'acquérir des systèmes Exchange Server de cette
façon… Une des raisons pour lesquelles il est si difficile de maximiser les performances
d'Exchange Server, est qu'il est très difficile d'isoler un unique facteur qui,
à lui seul, est en mesure de modifier sensiblement les performances. De nombreuses
personnes pensent que les performances d'un ordinateur dépendent exclusivement
de la vitesse d'horloge de son processeur ? à l'ancienne époque, lorsqu'un processeur
8086 cadencé à 4 MHz était considéré comme puissant, cette conviction était peut-être
vraie. Mais avec les ordinateurs et les systèmes d'exploitation actuels, les performances
dépendent généralement de 4 ressources - la CPU, la mémoire, le sous-système de
disques et le réseau - et de la façon dont les applications d'un ordinateur cible
utilisent ces ressources. En comprenant ces ressources et processus, on peut apprendre
comment booster chacune des ressources (et donc les performances qu'on peut en
obtenir) pour en tirer l'efficacité maximum.

Qui veut un annuaire à 100 millions d’entrée ?
par Tony Redmond et Micky Balladelli
Tout le monde est conscient que la base de données SAM de Windows NT est un goulet d'étranglement pour les capacités d'évolution des domaines. En effet, la limite pratique de la SAM se situe à environ 40.000 comptes d'utilisateurs par domaine. Certaines entreprises, qui sont allées jusqu'aux limites supérieures de la SAM et ont créé de très grands domaines, ont constaté que ces derniers sont difficiles à gérer.Windows 2000 repose sur l'annuaire Active Directory (AD), qui est un référentiel des comptes d'utilisateurs et de nombreux autres types d'objets. On peut faire confiance à Microsoft pour ne pas répéter la même erreur une deuxième fois : AD est plus évolutif que la SAM. Mais jusqu'à quel point ? La question mérite d'être posée. Combien d'objets peut-on stocker dans un domaine, quelle est la taille de la base de données, est-elle administrable et quel type de performances peut-on attendre d'Active Directory ?
Pour le savoir, notre confrère américain Windows 2000 Magazine a créé une très grande base de données AD, dont ils ont démontré les capacités au Comdex de Las Vegas en novembre 1999 et lors du lancement de Windows 2000 à San Francisco en février 2000. Cette démonstration de l'évolutivité d'Active Directory montre que la base de données peut contenir 100 millions d'entrées dans un environnement de production réaliste. Avant d'expliquer comment la base de données de démonstration a été construite et de révéler ce que le processus de création a appris sur AD, revenons d'abord sur quelques principes de bases d'AD.

Utiliser des commandes Java dans le Qshell AS/400
par Dan Darnell
L'interpréteur
Qshell de l'AS/400 fournit un environnement permettant de saisir des commandes
Java et d'en visualiser les sorties
L'interpréteur QShell est l'un des éléments les plus importants ajoutés récemment à l'OS/400, en V4R2. Mais celui qui programme surtout en RPG ou en Cobol ne sait peut-être même pas que ce “ système dans le système ” existe. On peut utiliser QShell pour réaliser des tâches essentielles sur l'AS/400, comme la compilation et l'exécution de programmes Java. Etant donné que les environnements shell viennent du monde Unix, la plupart des “ vétérans ” de l'AS/400 trouveront leur utilisation et leur configuration non intuitives. Je me propose de vous familiariser avec la vie dans le shell, pour que vous utilisiez facilement le code Java et que vous compreniez mieux l'environnement qui constitue la base du support runtime Java de l'AS/400. Un coup d'oeil rapide à l'interface QShell et à une poignée d'outils Java intégrés sert d'introduction à l'environnement. Un prochain article expliquera quelques techniques pour maîtriser QShell.
QShell est l'un des éléments les plus importants ajoutés récemment à l'OS/400
Lire l'article
Un accès au niveau enregistrement en Java
par Dan Darnell
Comment écrire, lire, mettre à jour des enregistrements base
de données avec la AS/400 Toolbox for Java et un accès au niveau enregistrement
L'une des difficultés que pose la modernisation des applications
AS/400 avec le langage Java est de comprendre comment accéder à une base de
données. La plupart des programmeurs Java s'habituent rapidement à l'API JDBC.
Cette dernière permet d'écrire des programmes Java pouvant accéder à une base
de données grâce à des concepts et des techniques centrés sur SQL. Habituellement,
cela implique d'exécuter une requête pour sélectionner un groupe d'enregistrements,
puis de traiter ces derniers comme un " ensemble de résultats ". L'approche
JDBC convient souvent très bien à une application, et présente l'avantage d'être
une solution inter-plates-formes. Mais il arrive que sur l'AS/400 il soit plus
efficace et plus simple d'accéder à la base de données, comme c'est le cas en
RPG et en Cobol, c'est-à -dire un enregistrement à la fois, soit séquentiellement,
soit par clé.
La AS/400 Toolbox for Java d'IBM contient des classes permettant d'accéder à
DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec un programme
RPG ou Cobol. Ces classes " de niveau enregistrement " permettent de lire et
d'écrire des enregistrements séquentiellement, par numéro d'enregistrement relatif,
ou par valeur de clé. Le présent article illustre un exemple d'accès au niveau
enregistrement avec la méthode par valeur de clé. Au lieu de détailler une solution
applicative particulière, je traite un exemple générique que l'on peut extrapoler
à n'importe quel besoin d'accès de niveau enregistrement.
La AS/400 Toolbox for Java contient des classes permettant d'accéder à DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec un programme RPG ou Cobol
Lire l'article
Le test d’applications : un art méconnu
par Colin Armitage
Les tests systématiques devraient être placés en haute priorité dans votre service
informatique.
Combien de temps votre département informatique passe-t-il à corriger des erreurs
et à effectuer des modifications que vous auriez dû réaliser avant de déployer
une application ? Si votre réponse est "beaucoup", alors vous devriez vous appesantir
à nouveau sur un aspect souvent négligé du développement d'applications : les
tests.L'année dernière, à l'occasion du lancement du produit TestBench400, mis
sur le marché par mon entreprise, nous avons eu l'occasion de discuter des techniques
de test applicatifs en environnement AS/400, avec plusieurs entreprises informatiques
basées en Amérique du Nord et en Europe.
Cette expérience nous a permis d'acquérir une perspicacité unique dans les approches
de tests en vigueur et dans la manière dont les techniciens professionnels perçoivent
généralement l'équilibre indispensable coût/bénéfice quand il s'agit de tests.
La première chose dont nous nous sommes aperçus est le sérieux problème d'image
dont souffre l'art de tester les logiciels.
En effet, ce domaine est largement perçu comme étant plus qu'obscur. Aussi, personne
ne souhaite s'y investir. De plus, ceux qui acceptent de le faire, voudraient
en finir le plus tôt possible. Considérez les scénarii de tests suivants :
La première chose dont nous nous sommes aperçus est le sérieux problème d'image
dont souffre l'art de tester les logicielsTests unitaires.
Si vous travaillez sur un site où les développeurs ne sont pas responsables
de leurs propres tests unitaires, alors félicitations. Le reste du monde doit
avoir perdu la tête.
Après tout, pourquoi se donner tant de peine à demander aux développeurs d'assurer
le bon fonctionnent de leurs propres programmes ? D'une manière générale, les
développeurs adorent développer mais ils ont horreur de tester. Seuls de rares
et précieux développeurs essaient véritablement de tester les failles potentielles
de leurs propre code de manière imaginative. Il ne faut que deux développeurs
pour mettre en place une politique de vérification croisée.
En revanche, si on ne peut pas se le permettre, il faut se résigner à accepter
les tests unitaires réalisés par le programmeur ayant conçu le code tels qu'ils
sont, c'est-à -dire, incertains.
Cependant, ces tests peuvent avoir un intérêt si vous fournissez des fiches de
test prédéfinies et qui attesteront de l'adhésion à des standards de conception
(par exemple pour la présentation de rapports, les couleurs et la disposition
des écrans), et de la fiabilité de tous les embranchements à travers le programme.
Tests des systèmes.
Les tests des systèmes sont souvent réalisés par les membres seniors d'une équipe.
Responsables de la livraison de systèmes dans leur ensemble, ces derniers sont
généralement motivés pour réaliser les tests nécessaires.
Cependant, il y a deux obstacles majeurs à la réalisation des tests de systèmes.
En effet, les responsables informatiques planifient souvent les tests comme étant
la dernière activité importante à réaliser dans un cycle de développement. D'autre
part, ces tests sont généralement programmés alors qu'une date de mise en production
du logiciel a déjà été fixée.
Aussi, lorsque les autres tâches du cycle de développement prennent du retard,
le temps disponible pour effectuer les tests s'en trouvent réduits d'autant. Voilà
comment finalement on ne teste que ce que l'on peut, au lieu tester tout ce dont
on a besoin.
Par ailleurs, la mauvaise qualité des tests unitaires oblige souvent les testeurs
à reprendre plusieurs fois une même série de tests des systèmes. Après le troisième
ou quatrième cycle de tests, même le testeur le plus consciencieux ne testera
plus que les corrections. C'est précisément à ces moments là que les bogues en
profitent pour passer à travers les mailles du filet.
Tests d'acceptation.
Dans certaines entreprises, les tests

La valeur RPG IV *JOBRUN simplifie la conversion des formats de date
par Azubike Oguine Cet utilitaire met à profit la valeur spéciale *JOBRUN du RPG IV pour permettre aux utilisateurs finaux de tous les pays d'utiliser le format de dates auquel ils sont habitués
Lire l'article
Lorsque PASE paraît
La Division AS/400 place de grands espoirs dans l'environnement PASE (Portable
Application Solutions Environment), qui représente l'une des facettes de la stratégie
Unix de Big Blue
Voici quelques années, Rochester avait lancé un environnement d'exécution Unix
sur AS/400. Mais en dehors de quelques moments d'attention toute particulière,
comme lorsque les comptes et les éditeurs AS/400 les plus importants y ont porté
leurs applications Unix, ou lorsque SAP a porté son progiciel R/3 sur la plate-forme,
cet environnement a évolué à bas bruit, jusqu'au 24 janvier dernier, jour auquel
IBM a fait son annonce PASE (Portable Application Solutions Environment) à l'occasion
de PartnerWorld, à San Diego, Californie (cf. encadré "The big show").
L'environnement PASE est supposé accélérer la venue de nouvelles applications
sur plate-forme AS/400

Utiliser Ntbackup avec Windows 2000 et NT
Ntbackup.exe, le programme de sauvegarde intégré à Windows NT, est fait pour des sauvegardes rapides et rudimentaires de fichiers. Mais il n'est pas suffisant pour un environnement d'entreprise. Il ne permet pas, en effet, d'exécuter des sauvegardes automatiques pendant les heures de fermeture des bureaux, puisqu'il est dépourvu de la capacité de programmation intégrée. Il ne permet pas non plus de sauvegarder des ressources distantes et de maintenir des catalogues de supports de sauvegarde, fonctions indispensables aux entreprises. Les utilisateurs qui passent de Windows NT à Windows 2000 constateront que Microsoft a amélioré la nouvelle version de Ntbackup pour remédier aux trois lacunes citées plus haut. Mais tout le monde n'est pas pressé de passer à Windows 2000. Pour ceux qui comptent rester encore quelque temps sous NT, cer article explique comment éviter ces faiblesses pour planifier des sauvegardes, sauvegarder des ressources sur des machines distantes et maintenir des catalogues de leurs supports. Pour ceux qui passent à Windows 2000, nous décrirons les améliorations apportées par la nouvelle version de Ntbackup dans ces domaines par rapport à celle de NT.
Lire l'article
Norton Antivirus 4.0 et les serveurs NT
En voyant Norton AntiVirus 4.0 for Windows NT Server arriver au labo, je me suis dit " Tiens, on n'a pas déjà testé ce produit ? " Après une petite enquête j'ai découvert que nous avions examiné la version station de travail pour l'article " Logiciels antivirus pour Windows NT Workstation " de Jonathan Chau de février 98. Nous avons donc vérifié s'il y avait une différence entre les deux versions du produit. Norton AntiVirus (NAV) 4.0 for Windows NT Server se trouve sur un CD-ROM qui comprend des fichiers d'aide hypertexte et vidéo et des fichiers d'installation pour les systèmes Intel et Alpha. Cette nouvelle version permet de " pousser " l'installation du logiciel à partir d'un serveur central vers les serveurs et les postes de travail NT, ainsi que les systèmes Windows 95, Windows 3.1 et DOS. La version serveur offre la même interface utilisateur et les mêmes options que la version station de travail examinée par le Labo.
Lire l'article
Microsoft en quête de fiabilité
Ancien de Banyan Systems, Jim Allchin n'aime pas les bugs. Ex Senior Vice President de Microsoft en charge du développement de Windows 2000, désormais VP responsable des plates-formes, il est l'homme d'une mission : rendre Windows 2000 l'OS le plus fiable du marché. Après plus de 10 ans chez Microsoft à travailler sur Windows NT, le penchant de Jim Allchin pour l'excellence et sa détermination pourraient bien porter leurs fruits Au cours d'un discours prononcé au dernier Comdex d'automne, Jim Allchin a déclaré : " vous avez devant vous le bureau des réclamations de Microsoft pour Windows. Je reçois des lettres à propos de Windows 95, 98 et NT et je passe beaucoup de temps à les lire. C'est une lecture pénible car, même si j'en reçois de nombreuses très gentilles, la plupart des lettres qui arrivent sur mon bureau sont celles dans lesquelles quelqu'un a vécu une mauvaise expérience. Il y a deux ans, Microsoft a décidé d'essayer de comprendre la réalité en ce qui concerne la fiabilité et la compatibilité de Windows NT. Parce qu'au moment où je recevais toutes ces lettres, je savais que Dell.com tournait sous Windows NT, que le Nasdaq ou le Chicago Board of Trade étaient sous NT. Nous savions en outre que ces clients étaient absolument ravis de la fiabilité de nos produits. "
Lire l'article
Au coeur de la gestion de la mémoire sous Windows NT (II)
2ème partie
Dans notre numéro de novembre, nous avons commencé cette série en deux parties
sur la gestion de la mémoire dans Windows NT en introduisant le concept de mémoire
virtuelle. Nous avons vu l'utilisation par le processeur d'un système de traduction
d'adresses virtuelles en adresses physiques à deux niveaux. Nous avons évoqué
la pagination et deux puissantes fonctions du Gestionnaire de mémoire : le mapping
de fichiers en mémoire et la mémoire copy-on-write.
Ce mois-ci nous allons détailler encore les structures de données internes utilisées
par le Gestionnaire de mémoire pour faire le suivi de l'état de la mémoire. Nous
évoquerons les working sets et la base de données PFN (Page Frame Number). Nous
terminerons par une exploration d'autres structures de données utilisées par le
Gestionnaire de mémoire pour faire le suivi de la mémoire partagée par deux ou
plusieurs applications, et nous aborderons les Objets de section, structures de
données utilisées par la base de données PFN pour mettre en oeuvre le mapping des
fichiers en mémoire.

Au coeur du noyau de Windows 2000
Microsoft a déclaré que Windows 2000 est la plus importante mise à niveau de toute
son histoire. Windows NT 4.0 est sorti mi-1996, et pour créer la nouvelle version
Windows 2000, Microsoft a bénéficié de l'expérience des utilisateurs et de sa
propre étude du système d'exploitation pendant trois années.
Je voudrais dissiper le mythe selon lequel le kernel de Windows 2000 est une simple
réécriture de celui de NT 4.0. Il s'agit, en réalité, d'une version tunée et peaufinée
du noyau de NT 4.0, comportant certaines améliorations significatives de zones
particulières et deux nouveaux sous-systèmes. Avec ces modifications, Microsoft
a voulu améliorer l'évolutivité, la fiabilité et la sécurité du système d'exploitation
par rapport à NT 4.0, et permettre le support de nouvelles fonctions telles que
Plug and Play (PnP) et la gestion de l'alimentation.
Dans cet article, je fais rapidement le tour des changements apportés au kernel
dans Windows 2000. Je ne parle pas des composants Windows 2000 du mode utilisateur,
comme Active Directory (AD) ou les interfaces d'administration, qui ne tirent
pas parti des changements du kernel pour leur implémentation. Je n'ai pas suffisamment
d'espace pour décrire une fonction particulière en détail, mais vous pouvez consulter
d'autres articles spécifiquement consacrés aux fonctions internes de NT.
NT 4.0 a la réputation de ne pas supporter suffisamment les montées
en charge sur les machines SMP, en particulier à plus de quatre CPU

Explorons Management Central
IBM y intègre la gestion des PTF et le packaging et la diffusion d'objets, et clarifie sa stratégie en matière d'outils de gestion système graphiques. A l'instar de différents secteurs du marché de l'AS/400, lorsqu'il s'agit de choisir une solution de gestion système dans l'offre IBM ou dans celles de ses “ Business Partners ”, le client n'a que l'embarras du choix. Le présent article a pour but de vous faire découvrir l'un des nouveaux venus dans ce domaine : Management Central. Il s'agit d'un ensemble d'outils pouvant être utilisés pour observer et surveiller plusieurs AS/400 connectés via TCP/IP. Management Central fait partie d'Operations Navigator (OpNav), qui à son tour, fait partie de la portion de Client Access livrée gratuitement. Management Central fait partie d'Operations Navigator La version originale, en V4R3, de Management Central offrait d'une part des fonctions de collecte d'informations et d'autre part, des fonctions d'affichage graphique de différents indicateurs de performances. Avec la V4R4 et la nouvelle mouture de Client Access lancée en mai 1999, IBM a élargi les fonctionnalités de Management Central. Désormais, le produit offre également des fonctions de gestion des composants matériels et logiciels, des PTF, permet de collecter des informations sur les performances, d'exécuter des commandes à distance ainsi que de distribuer des fichiers AS/400 et IFS. Entamons notre tour d'horizon en analysant la version actuelle de Management Central.
Lire l'article
Un Cerbère protège Windows 2000
Dans la mythologie grecque, Cerbère - Kerberos en anglais - est le chien à trois têtes qui garde l'entrée des enfers. La mise en oeuvre réalisée par Microsoft de Kerberos est un peu moins féroce tout de même. C'est la RFC (Request for Comments) 1510 qui définit le protocole Kerberos de base, développé au MIT comme partie intégrante du projet Athena et portant sur l'authentification des utilisateurs. Microsoft a intégré cette version de Kerberos dans Windows 2000 comme nouveau protocole d'authentification par défaut de l'OS. Dans cet article nous verrons les fonctions essentielles de l'implémentation de Kerberos par Microsoft.
Lire l'article
Comment sécuriser les réseaux NT / Unix
Bien que Windows NT et Unix aient en commun bon nombre de forces et de faiblesses en matière de sécurité, l'utilisation simultanée de ces deux OS dans le même réseau ajoute à sa complexité. Une complexité d'autant plus pesante si ce réseau mixte est connecté à l'Internet. Les administrateurs de réseaux NT et UNIX mixtes doivent donc impérativement développer et mettre en oeuvre un plan de sécurité complet. Dans un grand nombre d'organisations les plans de sécurité NT et UNIX sont inefficaces. On commet communément l'erreur de croire qu'il suffit d'installer un pare-feu et un serveur proxy pour garantir la sécurité d'un réseau. Cette mesure est importante, certes, mais elle ne représente qu'un élément d'un plan efficace. Un plan de sécurité NT et UNIX complet exige non seulement d'installer des pare-feux et des serveurs proxy, mais également de choisir soigneusement les applications, de sécuriser le serveur Web, de gérer efficacement les mots de passe et les logons, ainsi que les comptes d'utilisateurs et de groupes, de sécuriser physiquement le réseau, de garantir l'intégrité des données via des sauvegardes, et de surveiller les applications.
Lire l'articleLes plus consultés sur iTPro.fr
- AI Appreciation Day,16 juillet « cet email de 10 pages aurait pu se résumer en 3 points »
- L’informatique quantique perçue comme la menace de cybersécurité la plus critique
- Bâtir une entreprise AI-native : par où commencer
- La France à l’avant-garde de la conteneurisation et de l’IA générative
- La souveraineté numérique pour renforcer la cybersécurité
