> Optimisation
Compressez vos données

Compressez vos données

Les .NET Framework pour étendre la puissance de SQL Server 2005.

Lire l'article
Deux outils pour une optimisation permanente de SQL Server

Deux outils pour une optimisation permanente de SQL Server

Depuis des années, le support technique de Microsoft (PSS) se sert de deux outils, OSTRESS et Read80Trace, afin de simuler des scénarios et d’analyser des fichiers de trace SQL Server pour le compte de ses clients. Au cours de l’édition 2004 de la conférence PASS (Professional Association for SQL Server), ces outils ont été dévoilés au public.Les DBA et développeurs SQL Server verront dans OSTRESS un outil appréciable pour la mise en oeuvre de scénarios de test de charge complexes et Read80Trace les aidera à analyser des fichiers de trace SQL Server afin de résoudre des problèmes de performances. Cet article propose quelques scénarios d’utilisation détaillés pour ces outils et fournit des indications afin de les mettre en oeuvre efficacement.

 

Lire l'article
Optimiser Exchange Serveur 2003

Optimiser Exchange Serveur 2003

Microsoft Exchange Server 2003 est une application très sensible pour le serveur sur lequel vous allez l’installer. Trois éléments seront facteurs clés du bon niveau de performance de votre messagerie : la gestion de la mémoire, la configuration du sous-système disque et la configuration des transactions entre le client de messagerie et le serveur...

Lire l'article
Optimisation des bases de données MS SQL Server – Partie 2

Optimisation des bases de données MS SQL Server – Partie 2

Seconde partie : le serveur - ressources physiques, ressources logiquesJe pose souvent la question en ces termes lors des formations que je donne : parmi les différentes formes d’informatique, laquelle nécessite les machines ayant les plus grandes ressources ? La plupart du temps, les étudiants et les stagiaires m’affirment que c’est l’informatique scientifique, gavée des exploits des antiques Cray et de Deep Blue et des monstres utilisés pour les calculs de la météo. D’autres pensent que ce sont les machines de la conquête spatiale… Peu savent que l’on trouve les systèmes les plus étoffés dans l’informatique de gestion. Un système comme SABRE de United Airlines fut longtemps l’un des systèmes de gestion de bases de données les plus énormes qui soit.

Ce besoin de ressources est lié à deux composantes : des calculs, certes souvent peu complexes, mais surtout la volumétrie des données à manipuler. Des quantités de données parfois si gigantesques qu’il convient de répartir la charge sur de multiples machines car pour certaines bases, aucun ordinateur au monde n’a encore la capacité de traiter seul et dans des temps de réponse acceptables les masses des données en jeu.

Finalement un serveur n’est rien d’autre qu’un ordinateur dont on a sciemment atrophié certains éléments afin de les rendre plus performants qu’un PC de bureau. Voyons ce qu’un serveur n’a peu ou prou besoin. Il n’a pas bien besoin d’un écran puisque qu’il se doit d’être scruté par l’intermédiaire d’autres machines. Il n’a pas non plus réellement besoin d’un clavier ni d’une souris pour les mêmes raisons. En revanche, nous pouvons convenir qu’il a besoin de beaucoup de mémoire comme nous l’avons vu au chapitre précédent. Il a besoin de processeurs rapides (notez le pluriel), de disques de grande capacités dotés des temps de réponses les plus courts. Ce sont donc ces trois axes que nous allons étudier dans cet article. Nous verrons cela du côté physique puis du côté logique. Nous en tirerons quelques nouvelles règles propres à établir les préconisations que tout un chacun doit pouvoir spécifier afin de choisir une machine et la configurer au mieux en fonction de son budget.

Lire l'article
Compression : notions fondamentales

Compression : notions fondamentales

Les routines de compression recherchent les séquences de données récurrentes dans les fichiers, puis remplacent celles-ci par des séquences de bits plus courtes, appelées jetons. Les fichiers qui contiennent de nombreux bits récurrents tirent le meilleur parti possible de la compression.Par exemple, vous pouvez réduire sensiblement la taille de la majorité des fichiers en mode point et des documents Word. En revanche, les fichiers JPEG sont déjà compressés et les avantages à essayer de réduire davantage leur taille sont limités, voire nuls.

Lire l'article
Optimisation des bases de données MS SQL Server – Partie 1

Optimisation des bases de données MS SQL Server – Partie 1

On a beau répéter que l'optimisation de bases de données ne relève pas d'outils ni d'automatismes, mais du simple artisanat, il y a toujours quelques personnages pour prétendre qu'il suffit de faire ceci ou cela, pour obtenir de bonnes performances. Si les choses sont plus complexes qu'il n'y paraît, il n'en reste pas moins vrai que certains principes simples et des règles d'une grande évidence qui devraient guider l'équipe en charge du développement d'un projet informatique, sont souvent ignorées voire sciemment bafouées.

 Cette série d'articles a pour but de présenter l'optimisation des bases de données sous toutes ses facettes. Il ne s'agit pas d'un cours technique (pour cela la place manquerait), mais plus globalement d'une réflexion sur les erreurs à ne pas commettre, celles à rectifier et les mesures à prendre dans le cadre de l'exploitation courante d'une base de données.

Lire l'article
SINGLE SIGN-ON: Finis les mots de passe SYSTEM i

SINGLE SIGN-ON: Finis les mots de passe SYSTEM i

Si seulement vous n’aviez plus jamais à vous connecter à votre System i ! Imaginez la satisfaction de vos utilisateurs finaux cliquant sur l’icône System i et obtenant immédiatement leur menu d’applications principal. Imaginez encore : Aucune invite de la part du serveur sign-on (la petite boîte GUI qui vous demande votre ID et mot de passe utilisateur) et pas d’invite 5250 Telnet redemandant ce que vous venez juste de taper dans la boîte GUI du serveur sign-on.En voilà assez de devoir cliquer sur l’icône System i et de nous connecter à la boîte du serveur sign-on, puis de recommencer le sign-on pour chaque session Telnet sur écran passif. Pourquoi en est-il ainsi ? Nous pensons que c’est stupide et nos utilisateurs finaux pensent que c’est ridicule. Tout le monde a raison : c’est à la fois stupide et ridicule.

Combien d’argent et de ressources économiserions-nous si personne ne devait plus appeler le help desk ou l’administrateur système pour redéfinir un mot de passe i5/OS ou réactiver un profil utilisateur. Une enquête du Gartner Group estime que le coût moyen d’un appel pour redéfinir un mot de passe est d’environ 31 dollars. Si 300 utilisateurs font un tel appel une fois par an, une simple multiplication nous donne un coût d’environ 9 300 dollars. Mais nous en connaissons qui appellent beaucoup plus souvent ! Alors débarrassons-nous simplement des mots de passe i5/OS de nos utilisateurs finaux. Ils ne risquent pas d’oublier un mot de passe qu’ils n’ont pas. Elémentaire, non ?

Quand j’entends parler du SSO (single sign-on) d’entreprise, j’entrevois aussitôt un paradis où les utilisateurs n’ont qu’un ID et un mot de passe (ou un autre mécanisme d’authentification du genre biométrie). Cette authentification unique les conduit partout où ils ont envie d’aller : tous les serveurs de la société, tous les sites Web protégés par mot de passe et toutes les autres applications telles que la messagerie électronique, la gestion de la relation client (GRC) et l’informatique décisionnelle (BI, business intelligence).

En ce sens, SSO est un fantasme. Même si certains éditeurs de logiciels le considèrent comme le Graal, personne ne peut en montrer un exemple convaincant. Quand je parle de SSO, je pense réellement à une définition très étroite visant à réduire simplement le nombre de dialogues sign-on que les utilisateurs doivent effectuer pour faire leur travail. C’est pourquoi je préfère désigner ce concept sous le son de sign-on réduit.

Lire l'article
Créez votre propre bibliothèque de code

Créez votre propre bibliothèque de code

Les développeurs de base de données ADO.NET utilisent fréquemment les chaînes T-SQL afin de récupérer des données pour leurs applications. Si leur connaissance de la conception d’une base de données et/ou du langage T-SQL est insuffisante, le processus de création des chaînes pour leurs applications peut aboutir à des conceptions d’accès aux données inefficaces, voire à des ensembles de résultats présentant des valeurs erronées.Dans ce type de situation, la réutilisation du code T-SQL dans des objets de base de données tels que des procédures stockées et des fonctions définies par l’utilisateur (UDF) présente des avantages particuliers. Cette approche peut contribuer à simplifier la tâche d’accès aux données et sécuriser le schéma d’une base de données. Un développeur ou DBA confirmé peut préparer une bibliothèque de code T-SQL qui sera ensuite réutilisée par des développeurs débutants ou un peu aguerris pour de nombreuses tâches courantes d’accès aux données. Le développeur ou DBA peut en outre exiger que les applications client se connectent via des comptes de sécurité qui ont le droit d’appeler les procédures stockées et fonctions UDF de la bibliothèque, mais pas nécessairement les objets sous-jacents.

Dans cet article, nous allons étudier les techniques pour le traitement des procédures stockées et des fonctions UDF avec ADO.NET et Visual Basic .NET. Pour ce faire, nous allons utiliser deux exemples d’applications s’appuyant sur les tables Categories et Products de la base de données exemple Northwind. Vous pouvez réaliser une jointure entre ces deux tables sur les valeurs de la colonne CategoryID. Il est possible d’adapter les exemples de code présentés ici afin des les appliquer à toute paire de tables jointes sur une ou plusieurs paires de valeurs de colonne. Les exemples de code T-SQL sont également utiles à un autre titre : ils exposent les techniques pouvant servir à améliorer la réutilisabilité du code.

Ces techniques incluent l’utilisation de paramètres d’entrée, de paramètres de sortie et de valeurs d’état de retour avec des procédures stockées, ainsi que la mise en oeuvre de valeurs scalaires et de valeurs de type table retournées par les fonctions UDF. En apprenant ces techniques et en les appliquant dans vos applications, vous décuplerez la réutilisabilité du code T-SQL dans vos procédures stockées et fonctions UDF. (Vous pouvez cependant appliquer les techniques Visual Basic .NET présentées dans cet article avec n’importe quel langage .NET qui met en oeuvre la programmation ADO.NET, tel que C#).

Lire l'article
Il me faut plus de débit, 1ère partie

Il me faut plus de débit, 1ère partie

Quelles que soient la configuration et l’installation d’un système, il arrive que la charge de travail consomme toute la capacité de traitement, ralentisse le débit, et allonge le temps de réponse. De la même façon que votre activité a besoin de changement, votre système demande des améliorations de performances, et ce bien que vous ayez alloué le maximum de matériel. Cet article s’intéresse à quelques scénarios de ralentissement et indique comment atténuer leur effet.

Lire l'article
Les API à  l’oeuvre – avec des JOBS

Les API à  l’oeuvre – avec des JOBS

Il n’est pas si facile de mettre les API au travail. En effet, elles renvoient des données en différents formats, par diverses méthodes, et certaines API ont des listes de paramètres complexes. En outre, il n’est pas toujours facile de percevoir immédiatement le sens d’un message d’erreur. Cependant, au fur et à mesure que vous gagnerez en expérience, vous saurez où commencer à chercher l’information et comment régler les difficultés en cours de route.En particulier, les API Open List offrent de riches fonctions et des paramètres de filtrage nombreux et efficaces, qui vous permettent de braquer le projecteur sur le sous-ensemble exact d’entrées de liste que votre programme ou utilitaire vise. Ces API ont aussi un paramètre d’information de tri, permettant de trier la liste obtenue d’après tous les critères imaginables. Mieux encore, vous pouvez spécifier quels champs l’API devrait renvoyer dans ces paramètres de données de renvoi, pour lui éviter de gaspiller des cycles de CPU à extraire des informations sans intérêt. Finalement, les API Open List peuvent construire la liste ouverte de manière asynchrone en arrièreplan. Vous pouvez donc démarrer le traitement de la liste avant qu’elle soit terminée, afin que la construction et le traitement de la liste aient lieu en parallèle, pour accélérer l’ensemble du processus.

A l’origine, IBM a créé les API Open List pour supporter des applications client/serveur et elle s’est efforcée de les rendre aussi souples et fonctionnelles que possible. System i Navigator est un exemple d’application client qui bénéficie des API Open List. (Il est important de noter que, avant la release V5R3, les API Open List faisaient toutes partie de Host Server (5722-SS1 option 12) du système d’exploitation et étaient situées dans la bibliothèque QGY. A partir de la V5R3, les API Open List ont été intégrées dans l’OS de base. Si vous travaillez sur une version V5R2 ou antérieure, vous pouvez utiliser la commande Display Software Resources (DSPSFWRSC) pour vérifier que l’option 12 est installée.)

Autre exemple, la commande Work with Jobs (WRKJOBS), que j’utilise ici pour vous faire couvrir les étapes nécessaires pour mettre l’API Open List of Jobs (QGYOLJOB) au travail. (Pour une liste des sources utilisées pour créer la commande WRKJOBS, voir l’encadré « Spécification des sources »).

Lire l'article
Les clés de la conception Exchange, 2eme partie

Les clés de la conception Exchange, 2eme partie

Dans l’article « Les clés de la conception Exchange, 1ère partie », vous avez découvert les quatre principes architecturaux clé que sont la simplicité, l’intégration, le coût et l’efficacité. Vous avez également pris connaissance de quelques astuces pour bien démarrer une conception Exchange Server en documentant vos exigences métier et conceptuelles, et en planifiant vos besoins concernant Active Directory et votre configuration matérielle.Dans le présent article, nous allons aborder les 6 dernières étapes, ô combien précieuses, pour concevoir une organisation Exchange Server 2003 ou Exchange 2000 Server robuste et performante.

Lire l'article
Un réseau PME « parfait »

Un réseau PME « parfait »

Bienvenue au début d’une longue série d’articles traitant de la mise en place du « parfait » petit réseau PME (petites et moyennes entreprises). Nous partons du commencement: là où vous vous trouvez peut-être en ce moment, si vous créez une entreprise. Nous voulons vous présenter les composantes successives que vous devrez considérer pour votre infrastructure.Notre ambition n’est pas seulement de vous offrir une base de réseau parfaite mais aussi une solution élégante. A cette fin, au fur et à mesure que nous présenterons les éléments essentiels du réseau PME, nous proposerons des articles sur la manière de mettre ce réseau à votre service.

L’un des points importants pour bien équiper le réseau PME est de bien comprendre que les besoins de la PME sont très différents de ceux de la grande entreprise. En général, ce qui vaut pour celle-ci ne convient pas à la PME. Dans cette dernière, l’organisation de l’activité, la sophistication technique et les exigences de management sont très différentes. Pour compliquer les choses, il n’existe pas vraiment de PME type. Elles peuvent beaucoup varier entre elles en termes d’exigences de gestion et de capacités techniques. Donc, pour commencer cette série, essayons de parvenir à une définition générale des types de réseaux PME, en exposant les composantes et les caractéristiques de base. Les articles suivants utiliseront ces thèmes comme points de départ pour construire le parfait réseau PME.

Lire l'article
Optimiser les performances de ODBC et OLE DB

Optimiser les performances de ODBC et OLE DB

ODBC et OLE DB sont des middlewares d’accès aux bases de données qui relient à l’iSeries des serveurs Windows, des applications Office et des applications d’accès à des bases de données maison. Beaucoup d’utilisateurs savent que ces éléments de middleware iSeries Access assurent la connectivité de base entre des applications Windows et l’iSeries. Mais les mêmes ignorent souvent que ODBC et OLE DB possèdent tous deux certains paramètres très influents sur la performance de vos applications ODBC et OLE DB.Dans cet article, je parle des paramètres courants qui peuvent affecter la performance du driver iSeries Access ODBC, et je couvre certaines des propriétés importantes qui affectent la performance du provider iSeries Access OLE DB. Vous pourrez ainsi tirer le maximum de ces deux technologies.

Lire l'article
Quand de bons scripts dérapent

Quand de bons scripts dérapent

Vous venez de passer des heures à écrire un script chargé de supprimer automatiquement les anciens comptes utilisateur inactifs dans l’AD (Active Directory). Bien que vous soyez débutant en code VBScript, la suppression manuelle des anciens comptes d’AD chaque mois était une telle corvée que vous vous êtes résolu à écrire ce script. Plein d’espoir, vous l’exécutez sur votre réseau de test… pour le voir s’arrêter prématurément. Pas croyable ! Où est l’anomalie ? Les raisons sont multiples. Cependant, le principe de Pareto (c’est-à-dire, la règle des 80/20) veut que la plus grande partie des erreurs de script (80 % environ) provient d’un petit nombre de causes possibles (20 % environ).Plusieurs experts en scripting ont récemment parlé des erreurs courantes qu’ils trouvent quand ils examinent le code VBScript sur le terrain. D’après ces experts et à en croire divers articles, les erreurs de syntaxe VBScript les plus courantes (c’est-à-dire, celles qui surviennent quand le code transgresse les règles grammaticales du langage VBScript) et les erreurs à l’exécution (c’est-à-dire, les erreurs qui se produisent quand un script tente d’effectuer une action que le système ne peut pas exécuter) surviennent quand les auteurs de scripts utilisent des variables, des instructions de traitement d’erreurs, des guillemets et des caractères spéciaux et réservés.

Lire l'article
Prendre en main la gestion des données d’Exchange

Prendre en main la gestion des données d’Exchange

Il n’est pas facile de bien gérer les données de Microsoft Exchange Server. Il n’a jamais été aisé de trouver l’équilibre entre les demandes des utilisateurs et la performance et la stabilité d’Exchange. Pourtant, aujourd’hui c’est une nécessité. Le courriel est devenu une application de gestion critique, les exigences réglementaires mettent les administrateurs sur la sellette et vous ne jonglez pas avec des assiettes, mais avec des couteaux.
Pour prendre en mains vos données Exchange, il vous faut adopter une approche multidisciplinaire qui associe des stratégies clairement définies et les technologies appropriées (par exemple, matériel de stockage, outils de supervision et de reporting, applications de gestion de données). Par où allez-vous commencer ?En premier lieu, je tiens à clarifier ce que j’entends par bonne gestion de données. Pour moi, c’est la pratique qui consiste à gérer en toute sécurité les données Exchange stockées, de manière à optimiser le stockage des données, tout en offrant un accès adéquat à ces mêmes données. Cela dit, la meilleure manière de démarrer est d’examiner les contraintes financières, techniques et réglementaires qui s’appliquent à votre entreprise. Ces facteurs influenceront vos choix pour la gestion des données Exchange qui résident dans les groupes de stockage (SG, storage groupes), les bases de données et les boîtes à lettres des utilisateurs (y compris les OST, offline storage stores, et les PST, personal folder stores) tout en offrant de bonnes possibilités de sauvegarde, de reprise et d’archivage.

Lire l'article
ILM met les données à  leur place

ILM met les données à  leur place

Le centre informatique du Wake Forest University Baptist Medical Center n’est pas très différent de ceux d’autres grandes institutions. Il héberge un assortiment de mainframes et de serveurs qui offrent des services tels que le courrier électronique et la gestion des dossiers des patients, aux utilisateurs des différents secteurs. En 2000, le centre médical – dirigé par Bob Massengill, responsable des services techniques – a mis en place un réseau de type SAN (storage area network) pour stocker les données générées par le centre. Le passage au SAN a eu des conséquences spectaculaires.Lors de sa première mise en oeuvre, le SAN contenait « 2 téra-octets de stockage », déclare Massengill. « Un an plus tard, on en était à 18 téra-octets. Et aujourd’hui, nous sommes entre 60 et 70 téra-octets ». Cette explosion du volume de données dans le SAN a conduit Massengill à explorer un nouveau mode de gestion du stockage du centre médical : la gestion du cycle de vie de l’information (ILM, Information Lifecycle Management). Selon Massengill « ILM a les bonnes données, dans le bon format, sur la bonne plate-forme de stockage, au moment opportun. »

Lire l'article
REUNICA réduit ses coûts d’administration et gagne en souplesse de travail

REUNICA réduit ses coûts d’administration et gagne en souplesse de travail

Groupe de protection sociale, Réunica rassemble des activités de mutuelle, de prévoyance et de retraite. Afin de réduire ses coûts, la société a choisi de consolider ses serveurs destinés aux tests et à la validation des applications qu’elle a développées en s’appuyant sur Microsoft Virtual Server 2005. Très satisfaite des gains réalisés en matériel et en administration, Réunica n’a pas hésité à étendre son expérience à ses serveurs métiers.« Au fil du temps, les serveurs destinés aux environnements d’étude, de développement, de recette ou de pré production se sont multipliés, raconte Jean- Francois Neron, responsable systèmes et réseaux de Réunica. Nous avions autant de machines physiques que d’instances de Windows, ce qui coûte cher en matériel mais également en maintenance ». Début 2004, dans le cadre du programme RAP (Rapid Adoption Programm) qui permet aux entreprises de tester les solutions de Microsoft en phase bêta, Réunica a donc procédé à une étude qui l’a conduite vers Virtual Server 2005 de Microsoft. Cette solution de virtualisation sous Windows Server 2003 permet à Réunica de consolider ses serveurs de préproduction, de créer toutes les instances de Windows nécessaires à ses projets de tests, d’installation de nouveaux produits ou de déploiement d’applications. Avec, à la clé, une réduction significative des coûts et des gains de temps importants consacré à l’administration des environnements de travail.

De fait, grâce à cette évolution, la société a pu ramener ses serveurs au nombre de dix sans investir dans du nouveau matériel en lieu et place de la quarantaine de serveurs physiques. Très satisfaite des économies réalisées en maintenance, mais aussi de sa plus grande souplesse de travail, Réunica a également choisi de déployer Virtual Server 2005 en production pour consolider des serveurs hébergeant des applications métiers.

Lire l'article
Microsoft Virtual Server 2005 ou la virtualisation des ressources serveurs

Microsoft Virtual Server 2005 ou la virtualisation des ressources serveurs

Lancé courant octobre 2004, Microsoft Virtual Server 2005 est la solution de virtualisation des ressources serveurs de Microsoft. Virtual Server fait partie intégrante de l’initiative Dynamic Systems Initiative – effort de Microsoft visant à l’amélioration du management des systèmes d’information. Virtual Server est destiné à simplifier et à automatiser la gestion des systèmes d’exploitation et des applications. Virtual Server apporte une flexibilité et une convivialité dans la gestion des machines virtuelles tout en proposant de solides fonctionnalités de stockage. La technologie utilisée est la même que pour Virtual PC, avec quelques améliorations spécifiques afin de mieux supporter les applications serveur.Les trois principaux scénarii d’utilisation de Virtual Server 2005 concernent :

• l’automatisation des tests logiciels et des environnements de développement en optimisant les ressources matérielles,
• la consolidation des serveurs d’infrastructure réseau et d’annuaire ou des serveurs d’agences,
• et la migration d’applications anciennes.

"Gartner prévoit que les entreprises qui n’exploiteront pas les techniques de virtualisation dépenseront 25% de trop pour leurs serveurs x86." a déclaré Tom Bittman, viceprésident de la recherche chez Gartner.

Virtual Server est disponible en 2 éditions :

• Microsoft Virtual Server 2005 Enterprise Edition
• Microsoft Virtual Server 2005 Standard Edition

L’unique différence entre ces 2 éditions est l’évolutivité. En effet, la Standard Edition ne supporte que jusqu’à 4 processeurs tandis que Enterprise Edition peut supporter jusqu’à 32 processeurs.

Lire l'article
Autoruns

Autoruns

Pourquoi la connexion prend-elle autant de temps ? Que sont toutes ces icônes dans le plateau système ? Comment empêcher les programmes de démarrer automatiquement? Comment me débarrasser de cette étrange erreur qui apparaît sans cesse pendant le logon ? Vous avez probablement entendu souvent ces questions, particulièrement de la part d’utilisateurs Windows travaillant sur de nouveaux systèmes pleins d’applications préchargées ou sur des systèmes plus anciens sur lesquels ils ont installé de nombreux programmes au fil du temps. Ce mois-ci, je vais cesser d’écrire à propos des outils de la suite Sysinternals PsTools pour vous entretenir d’un outil, capable de répondre à ces questions : Systinternals Autoruns.A l’installation, beaucoup d’applications se configurent de manière à démarrer automatiquement quand vous vous connectez. Les applications font cela afin de consulter automatiquement les mises à jour, parce qu’elles utilisent les icônes du plateau système pour interagir avec les utilisateurs, ou parce qu’elles ajoutent de la fonctionnalité aux composants Windows, comme Windows Explorer.

Malheureusement, beaucoup de ces applications ne demandent aucune permission avant de s’insérer dans votre processus de connexion et n’offrent presque jamais une interface vous permettant de désactiver leur autodémarrage.
Windows Server 2003 et Windows XP incluent l’utilitaire System Configuration (Msconfig.exe) qui est fondé sur un outil similaire dans Windows Me. Msconfig possède un onglet Startup qui donne la liste, et vous permet de désactiver, certains éléments qui s’exécutent automatiquement dès que vous vous connectez. Mais Msconfig présente deux limitations importantes : il n’affiche des éléments qu’à partir d’une fraction des endroits dans lesquels les applications à autodémarrage peuvent se cacher et il ne donne que peu d’informations sur les éléments qui figurent dans sa liste. De plus, si vous utilisez Windows 2000 ou Windows NT 4.0, vous n’avez pas de chance. Aucun de ces OS ne contient Msconfig ou d’autres outils intégrés pour présenter les composants qui s’exécutent automatiquement au moment de la connexion.

Vous pouvez utiliser Autoruns, qu’illustre la figure 1, non seulement pour identifier les applications qui se sont configurées elles-mêmes pour démarrer au logon, mais aussi pour voir tous les endroits où les applications à autodémarrage pourraient configurées sur le système. Autoruns fonctionne sur toutes les versions de Windows, y compris Windows Me et Windows 9x. Vous pouvez télécharger l’outil à http://www. sysinternals.com.

Lire l'article
La gestion simultanée des environnements  Windows et UNIX coûte-t-elle cher à  votre entreprise ?

La gestion simultanée des environnements Windows et UNIX coûte-t-elle cher à  votre entreprise ?

Réduisez vos coûts et utilisez la puissance d'UNIX - avec Secure Shell, scp, sftp, secure X, Kornshell, CShell, awk. telnet server, xterm, rsh, rlogin et plus de 400 commandes et utilitaires additionnels pour gérer votre environnement Windows avec la puissance des outils UNIX. Tous les produits MKS Toolkit sont entièrement supportés et disponibles aussi bien pour les systèmes Windows 64-bit que les systèmes Windows 32-bit. Utilisez l'expertise de vos Développeurs et vos Administarteurs Système à la fois sur Windows et UNIX.

Lire l'article