Les outils d’administration à distance du Kit de ressources
Les administrateurs système n'ont guère le
temps de visiter chaque machine d'un réseau. Ils ont donc besoin d'outils d'administration
de Windows NT Server 4.0, capables d'exécuter des scripts complexes simultanément
sur plusieurs ordinateurs distants.
Certains administrateurs considèrent les progiciels de contrôle à distance, comme
pcAnywhere de Symantec ou Timbuktu Pro de Netopia comme des solutions satisfaisantes.
Ces applications de contrôle à distance conviennent particulièrement bien pour
prendre le contrôle d'un PC, permettre l'interaction bi-univoque pour guider un
utilisateur dans une tâche compliquée, accomplir une configuration isolée ou régler
des problèmes avec des taches impossibles à accomplir à distance par le biais
de scripts.
Mais ce que je me propose, c'est d'effectuer simultanément chaque tâche administrative
sur plusieurs machines simultanément à partir de l'invite de commande dans un
environnement scripté. Pour cela, j'utilise les outils d'administration à distance
du Kit de ressources de Microsoft Windows NT Server 4.0, y compris le Supplément
4. Pour tous les lecteurs qui veulent en faire autant, j'ai dressé la liste des
outils que je trouve les plus utiles dans mes tâches administratives quotidiennes.
Microsoft Site Server 3,0 édition Commerce électronique
L'édition Commerce électronique de Microsoft Site Server 3.0 simplifie la création d'une vitrine Internet en fournissant aux développeurs un ensemble d'outils et de possibilités, comme, par exemple, des boutiques types pour servir de modèles. Pour plus de personnalisation ou l'intégration à l'existant, des modèles peuvent être modifiés ou créés de toute pièce.
Microsoft Site Server édition Commerce électronique (SSCE) permet de presque tout
faire très facilement. Ses assistants peuvent générer votre site vitrine à partir
de zéro avec des mécanismes de base pour récolter des informations sur les acheteurs
et les commandes, le stockage dans des bases de données et le traitement des commandes.
SSCE comprend des outils intégrés de publicité et de promotion et des outils d'administration
des vitrines.
Ces outils, combinés à des snap-in d'éditeurs tiers - calcul des taxes, coûts
d'expédition, paiement - facilitent la création d'une vitrine de base et le démarrage
d'une activité commerciale.Mais, pour comprendre SSCE et s'en servir pour créer
une solution plus sophistiquée s'intégrant aux systèmes et aux bases de données
de l'entreprise, il faut se retrousser ses manches et jeter un coup d'oeil sous
le capot. A y regarder de plus près, on découvre que SSCE contient plusieurs technologies
et structures essentielles : pages actives ASP (Active Server Pages), objets COM
et pipeline de traitement des commandes.
La plupart des pages d'un site Web SSCE sont des ASP côté serveur, contenant un
script qui manipule un jeu d'objets COM fourni par Microsoft avec SSCE. Le logiciel
les utilise pour recueillir des informations sur l'acheteur, extraire et enregistrer
des données dans la base de données sous-jacente et traiter la commande du client
grâce à un pipeline de traitement de commande (OPP pour Order Processing Pipeline).
Les pipelines de traitement de commandes suivent les mêmes étapes que la caissière
d'un magasin
Comment se faire payer on-line
Les options de paiement électronique se multiplient : faites votre choix avec
précaution.
Que votre entreprise soit traditionnelle ou un
commerce on-line, les clients doivent vous payer vos produits et services. Une
entreprise traditionnelle se sentira probablement plus à l'aise en recevant des
espèces et des chèques.
Toutefois, bien que l'argent liquide soit en principe une valeur sûre, un chèque
est moins sûr.
En effet, même après avoir réceptionné un chèque, on ne peut pas encore être certain
de l'encaisser. Ce n'est que quelques jours plus tard, lorsque la banque encaissera
le chèque que l'on a déposé que l'on peut être sûr d'avoir été payé.
Le paiement par le biais de certaines transactions financières électroniques offre
plus de garanties.
De plus, pour les entreprises on-line, être capable de gérer les modes de paiement
électroniques est une nécessité Les banques préfèrent les transactions électroniques
car elles sont plus efficaces et moins chères à gérer. Avec l'EDI, par exemple,
une entreprise cliente peut envoyer un ordre de paiement à sa banque afin que
celle-ci transfère des fonds à la banque du fournisseur électroniquement. La banque
réceptrice notifie le fournisseur de la date et du montant du transfert à l'avance,
de sorte que l'entreprise puisse organiser et planifier sa trésorerie.
Cependant, nous devons désormais faire face à un nouveau défi : les informations
concernant les ordres de paiement et de versement circulent sur l'Internet.
Quelles sont les possibilités de paiement que les consommateurs et les entreprises
peuvent utiliser sur le Web, et quels sont leurs degrés de fiabilité ?
Les banques prévoient deux types de paiement pour les transactions de commerce
électronique : des mécanismes de paiement en temps réel (porte-monnaie électroniques,
cartes à puce) et des mécanismes de paiement différés (chèques électroniques,
cartes de paiement, cartes de crédit).
La moitié des différends et fraudes liés à l'usage des cartes de crédit concernent
des transactions on-line, qui ne représentent que 2% des volumes
NAS ou SAN, que choisir ?
La consolidation du stockage d'entreprise a le vent en poupe, parce qu'elle accroît l'efficacité, diminue la redondance et simplifie la gestion. Qui n'a pas entendu parler de l'importance du stockage pour les entreprises et de ces deux technologies de stockage dont on parle tant en ce moment : le NAS (Network Attached Storage) et le SAN (Storage Area Network).Les périphériques NAS sont des dispositifs de stockage - de gros serveurs spécialisés que l'on connecte au réseau - qui n'exécutent qu'une tâche et fonctionnent très bien : ils livrent très rapidement les fichiers. La capacité des grands dispositifs NAS est de l'ordre du téraoctet. Les SAN sont, quant à eux, des réseaux multiserveur, multistockage pouvant dépasser les 400 To. Un SAN sert de réseau secondaire à un LAN. Chaque serveur devant accéder au SAN est relié au LAN par une connexion fibre channel. Ce réseau secondaire soulage le réseau principal des charges massives de transfert des données, puisque le trafic de sauvegarde a lieu entre périphériques de stockage à l'intérieur du SAN. Les dispositifs NAS et les SAN ont des fonctions nettement différentes. Le premier peut effectuer certaines fonctions qu'un SAN ne peut pas effectuer et un SAN offre l'évolutivité. Examinons les technologies du NAS et du SAN et les scénarios dans lesquels l'une est préférable à l'autre.
Lire l'article
Office 2000 : le bon et le moins bon
Les statistiques peuvent parfois changer la vision que l'on a de l'importance des applications bureautiques. On pense parfois que les entreprises stockent la majorité de leurs données dans des solutions ERP telles que SAP R/3, des produits de groupware ou de messagerie tels que Lotus Notes et Exchange, ou des bases de données. Il est peut-être temps de revoir vos certitudes…Au cours d'un récent séminaire technologique, Microsoft a cité une étude portant sur un échantillon de grandes entreprises du classement Fortune 1000. Selon cette étude, ces entreprises stockent 80 % de leurs données dans des documents Office. Ces statistiques expliquent pourquoi Office demeure la principale source de revenus de Microsoft. L'importance pour Microsoft, de préserver sa poule aux oeufs d'or, associée aux demandes, émanant des directions informatiques et des utilisateurs, de fonctions plus performantes ou conviviales sont les ingrédients du succès d'Office 2000. Grâce au blitz marketing international de Microsoft et à la couverture importante des médias, vous ne pouvez ignorer l'existence d'Office 2000. En revanche, vous vous interrogez peut-être sur ce que le produit pourrait vous apporter, comment la nouvelle version pourrait impacter votre réseau et vos utilisateurs, et quels nouveaux outils ont été ajoutés par Microsoft pour améliorer les déploiements et l'administration.
Je ne vais pas vous ennuyer avec une fastidieuse description de toutes les améliorations, fonction par fonction, de la nouvelle release. (Reportez-vous au guide publié par Microsoft à l'adresse http://www.microsoft.com/office). Cet article analyse de façon objective la suite de produits afin de vous permettre de déterminer si la migration (ou l'upgrade) vers Office 2000 en vaut la peine et l'investissement pour votre entreprise.
Lire l'article
Comprendre les licences d’accès client
Il fallait acheter le logiciel serveur, qui coûtait environ 700 $, et des CAL
pour connecter les utilisateurs au serveur. Le tarif des CAL était de 40 $, mais
Microsoft proposait des CAL à moitié prix aux entreprises qui migraient de Novell
à NT, à celles qui faisaient un upgrade de LAN Manager et à d'autres encore. Les
migrations de NT 3.5 à NT 3.51 ne nécessitaient pas l'achat de nouvelles CAL.
En revanche, la mise à jour vers NT 4.0 obligeait à mettre à jour chaque CAL NT
3.x vers une CAL NT 4.0 pour environ 20 $ chacune.
Lorsque vous passerez de votre version actuelle à Windows 2000 (Win2K), vous devrez
probablement acheter un autre jeu de CAL ou mettre à jour vos licences.Le détail
des licences jette le trouble chez beaucoup d'utilisateurs. Si vous vous faites
prendre avec un nombre de CAL insuffisant, vous risquez de vous attirer des histoires.
Nous allons donc jeter un coup de projecteur sur le fonctionnement des CAL.
Déployer Windows 2000 à distance
Pourquoi passer tout ce temps à installer un nouveau système d'exploitation, quand les Services d'installation à distance RIS de Windows 2000 Server sont là pour simplifier la tâche ? En partenariat avec Active Directory (AD), DHCP et DNS, RIS (Remote Installation Services) évite de se déplacer jusqu'à chaque poste de travail pour installer Windows 2000 Professional. Les services RIS sont faciles à installer, mais nécessitent une infrastructure AD, DHCP et DNS bien conçue pour fonctionner correctement. Avec des services RIS correctement configurés, les utilisateurs n'ont à donner, dès leur première connexion, que leur nom d'utilisateur, leur mot de passe et le nom du domaine et RIS installe Windows 2000 Professional. Une fois que vous saurez comment installer et configurer ce nouvel outil, vous serez capables de le mettre en oeuvre avec succès.
Lire l'article
La Business Inteligence bouge
1999 serait-elle l'année du passage de la Business Intelligence (BI) sur AS/400
à la maturité ? Certains signes vont clairement dans ce sens.
Dans le dernier éditorial de NEWSMAGAZINE, j'appelais de mes voeux le soutien stratégique
et commercial d'IBM à une informatique décisionnelle AS/400 désormais crédible,
fiable, performante, “ scalable ”, économiquement viable, alors même que Big Blue
n'a pas d'offre spécifique dans ce domaine. Ceci afin notamment de “ booster ”
les ventes.
Aurais-je déjà été entendu ? Je doute que NEWSMAGAZINE soit très lu à Rochester
et à Somers. Même si je sais que certains IBMers américains francophones nous
ont parfois fait l'honneur et le plaisir non seulement de nous lire, mais même
de tapisser les murs de l'usine de reproductions de NEWSMAGAZINE, cela reste hélas
très anecdotique.
NEWSMAGAZINE et la France en général n'ont pas encore le pouvoir d'influencer
les décisions de Rochester. Mais il en va tout autrement des éditeurs du domaine
de la Business Intelligence, dont certains, comme Coglin Mill ou ShowCase, ont
une grande proximité géographique - pour ne pas dire une promiscuité - avec les
labs.
Les deux éditeurs cités “ habitent ” en effet Rochester Minnesota ; s'agissant
de ShowCase, il leur suffit même de traverser la rue pour se trouver dans les
bâtiments bleus du lab de Big Blue. Ca peut aider à influer les développements,
tant hardware que software d'ailleurs : la récente apparition de la virgule flottante
dans les types de données AS/400 est par exemple, comme nous l'explique Ken Holec,
Président et CEO de ShowCase, en grande partie liée aux besoins de la BI.
Et si le e-business vous mettait sur la paille ?
Réfléchissez-y à deux fois avant de vous engager dans l'aventure du e-business
En matière de e-business, ou commerce électronique, il est difficile de distinguer
la réalité des mirages.
Partout, ce ne sont qu'articles sur ses avantages potentiels et sur comment «
tout le monde s'y met ».
Mais, en réalité, tout le monde n'est pas en train de sauter dans le train du
e-business. Beaucoup d'éventuels investisseurs se méfient de cette nouvelle manière
de faire des affaires, se demandant s'ils peuvent lutter sur ce nouveau e-marché,
qui évolue et change rapidement.
Ces
Saint-Thomas ont bien raison d'hésiter. D'après le U.S. Department of Commerce,
le commerce électronique représente moins de deux pour cent du chiffre d'affaires
total réalisé en Amérique du Nord.
Le lancement dans l'aventure e-business au mauvais moment, avec de mauvaises
applications et des attentes irréalistes, peut réellement
conduire à la catastrophe
Face à de tels chiffres, difficile de croire les avertissements des
prophètes du e-commerce selon lesquels, faute de se connecter sur-le-champ, la
faillite guette. En réalité, le lancement dans l'aventure e-business au mauvais
moment, avec de mauvaises applications et des attentes irréalistes, peut réellement conduire à la catastrophe.
Une prudente expectative semble être l'attitude la plus sage, car elle permet
de voir comment diverses autres entreprises ont confié au Web leurs diverses fonctions
commerciales.
Une topologie SAN
Selon un vieil adage, les données s’étendent sans cesse et finissent toujours par dévorer tout l’espace de stockage disponible. Beaucoup d’applications sont d’ailleurs là pour le confirmer : le commerce électronique, les images, le data warehouse, les progiciels de gestion (ERP) et la gestion de la relation client (CRM) comblent vite les supports de stockage et apparemment sans fin.L’accessibilité des données doit être rapide pour les applications et la disponibilité est extrêmement importante. Les SAN (Storage Area Network) offrent des pools de stockage à grande vitesse grâce à un groupe de serveurs connectés et de stations de travail très rapides.
Hors de l’univers du mainframe, chaque application cruciale (par exemple un ERP) possède une instance résidant sur un serveur distinct, en particulier les applications client-serveur (ainsi 10 serveurs abritent 10 applications). C’est la modularité des systèmes et le fait d’ajouter des applications après d’autres déploiements d’applications réussis qui favorise cette tendance. La modularité des systèmes crée des batteries de serveurs et peut donner de multiples instances des données. Si celles-ci doivent avoir des relations entre elles, il faut appliquer des méthodes de duplication ou de synchronisation pour les résoudre.
C’est pourquoi les données de serveurs monolithiques deviennent pénibles à organiser et à gérer. Les SAN contribuent à alléger cette charge d’administration.
Les SAN sont des réseaux à l’intérieur des réseaux. Leur conception désassocie les applications des serveurs du stockage des données sans sacrifier les temps d’accès au stockage et permet à de nombreux serveurs et applications d’accéder aux données.
Ils minimisent le besoin de serveurs équipés d’énormes magasins de données séparés et permettent d’équilibrer les besoins de fiabilité et de disponibilité. On peut également amortir les coûts du stockage sur plusieurs serveurs et leurs applications.
Les batteries de stockage SAN supportent de nombreux systèmes d’exploitation hôtes et systèmes d’archivage de données. C’est le système d’exploitation hôte qui définit comment les membres du SAN accèdent à un système de fichier. Pour Windows NT, les SAN apparaissent comme des volumes accessibles localement en FAT ou NTFS.
Un SAN est constitué de serveurs (ou de stations de travail d’E/S très rapides) avec des connexions à un canal d’E/S à grande vitesse. Par exemple, sur la figure 1, les serveurs et les stations de travail sont connectées au hub grâce à un commutateur. Les stations de travail ou les serveurs au stockage sont connectées au moyen de SCSI ou Fibre Channel. La méthode de connexion dicte la conception du SAN et affecte les capacités d’évolution et l’accessibilité des données stockées. Examinons les différentes méthodes et leurs caractéristiques.
Comment intégrer Office 2000 et BackOffice
La plupart des entreprises utilisent Microsoft Office, notamment parce la suite est étroitement intégrée avec les divers produits de BackOffice. Office 2000 comporte plusieurs nouvelles fonctions dans chacun des produits le composant, pour continuer à tirer le meilleur des fonctions de BackOffice.es principales améliorations apportées à office 2000 portent sur l'intégration du Web, mais Microsoft a également ajouté de nombreuses améliorations concernant BackOffice, notamment certaines orientées vers SQL Server 7.0 et ses nouveaux services OLAP. Microsoft entend à l'évidence rester leader avec Office 2000.
Lire l'article
Les administrateurs veulent-ils d’un code réellement commun ?
Microsoft exprime depuis longtemps le désir de conserver une base de code commune à ses systèmes d’exploitation. Pour le moment, l’éditeur gère trois jeux de code : Windows NT, Windows 9x et Windows CE. Si ces trois OS partagent un modèle de programmation commun, leur code est néanmoins très différent.Lorsque la recherche sur le génome humain aura atteint ses objectifs, on possèdera une cartographie complète de la structure génétique de la race humaine. Malgré l’incroyable complexité de cette tâche, nous savons déjà que les humains partagent un pourcentage important de leurs gènes avec d’autres mammifères – en fait nous partageons plus de 90 pour cent de notre matériel génétique avec la famille des grands singes. Mais étant donné les différences entre les singes et les hommes, il est parfaitement évident que les différences comptent plus que les similitudes.
Lire l'article
Les modifications du Registre
Dans cet article de la rubrique Boîte à outils de ce mois-ci, nous allons évoquer les modifications que vous pouvez apporter au Registre. Ces tuyaux peuvent vous permettre de personnaliser Windows NT pour l'adapter à votre façon de travailler. Comme toujours, soyez très prudent lorsque vous modifiez votre Registre, et vérifiez que vous disposez des sauvegardes à jour du Registre et des disquettes de redémarrage d'urgence.
Lire l'article
EDI, Windows NT et Internet
L'échange de données informatisé, ou EDI, existe déjà depuis des décennies. Il s'agit de transmettre et recevoir des documents entre ordinateurs sous une forme compréhensible par la machine. Les transactions EDI bénéficient d'une forte intégrité et sont extrêmement sécurisées, tout en offrant la possibilité de traiter de très grandes opérations par lots. Il s'agit souvent de transfert de données stratégiques entre entreprises. Ces dernières utilisent dans la plupart des cas des réseaux à valeur ajoutée (RVA), mais l'avènement de Internet est en train de modifier rapidement le paysage.
Lire l'article
Le pouvoir du filtrage de paquets
Sans une forme de firewall, le réseau d'une entreprise est grand ouvert à quiconque se connecte au même réseau public. Le filtrage des paquets est une des méthodes les plus courantes pour construire un firewall. Cette technique permet de contrôler le mouvement des paquets IP selon leur contenu. Comme son nom l'indique, le filtrage de paquets filtre les paquets IP en fonction d'un ensemble de règles définies au niveau des routeurs ou de toute unité de capable de router des paquets, comme Windows NT Server. On peut définir des règles de filtrage de paquets pour un ensemble constitué d'adresses de serveur, de protocoles, d'applications, de directions de connexion et de types de messages. Les spécificités de la mise en oeuvre du filtrage dépendent de votre équipement et des fournisseurs. Pour comprendre le filtrage de paquets, il faut connaître les relations entre les couches de protocole TCP/IP. Il faut également comprendre comment le filtrage de paquet dépend des divers protocoles TCP/IP.
Lire l'article
Arrêter un incident avant le désastre
Les plans de sauvegarde et de reprise après incident sont des sujets dont les sociétés bien élevées ne parlent généralement pas. Même lorsqu'un plan est prévu, le personnel technique n'aime pas l'évoquer… et encore moins le mettre en oeuvre. Après tout, conserver le réseau, les applications et les utilisateurs en état de marche est déjà un travail à temps plein. Se demander se qui se passerait s'il fallait mettre en oeuvre le plan de secours ne fait qu'ajouter au stress.Peu populaires, les sauvegardes et les restaurations sont pourtant importantes et toute société doit prévoir leur mise en oeuvre après un incident. Mettez donc de côté ce sentiment que " cela n'arrive qu'aux autres " (vous verrez, vous vous sentirez mieux après l'avoir fait) et faites en sorte que votre entreprise dispose d'un plan de redémarrage adapté à ses besoins.
Lire l'article
Le Top 10 des utilitaires graphiques du Kit de ressources
Le Kit de ressources de Windows NT Server 4.0 fournit plusieurs outils d'administration puissants que l'on ne peut trouver nulle part ailleurs. Dans cet article, je vous indique mes dix outils et utilitaires graphiques préférés du Kit de ressources.
Lire l'article
Publier des applications sur une batterie de serveurs de terminaux
Citrix MetaFrame 1.8 est doté de la nouvelle fonction Voisinage programmes. Ce service très intéressant permet de publier des applications à partir d'une batterie de serveurs. Un gain notable en matière d'administration des applications. Le Program Neighborhood ou Voisinage programmes, la fonction que nous allons évoquer, est réservée aux serveurs sous Windows NT Server 4.0 édition Terminal Server avec l'add-on MetaFrame 1.8 ou Citrix WinFrame 1.8. Pour en tirer le meilleur parti, il faut savoir ce que sont les batteries de serveurs et pourquoi les utilisateurs de MetaFrame devraient s'y intéresser. Il faut également apprendre à configurer une batterie de serveurs, à s'en servir pour publier des applications, à gérer les serveurs qui la composent et à faire parvenir les applications aux clients.Pour l'administrateur, une batterie de serveurs est un groupe de serveurs de terminaux que l'on peut gérer à partir d'une seule console
Lire l'article
Connecter des postes de travail Linux à des serveurs Windows 2000 et NT
L'ajout de Linux dans un réseau basé sur Windows 2000 ou Windows NT peut s'avérer une bonne idée. Avec Linux, les entreprises disposent d'une solution bon marché pour mettre en oeuvre des services Internet de base (notamment des serveurs DNS, des serveurs de messagerie Internet ou des serveurs Web) sur des systèmes à faible coût.
Outre l'intérêt économique lié à sa gratuité, Linux offre des périodes de disponibilité et une fiabilité toutes deux excellentes, bien que ceci se paye par une complexité d'administration accrue. Pour une information complète sur les différences entre l'administration de Windows NT et de Linux, reportez-vous aux articles " NT versus Linux : les trois avantages de Linux " et " Linux : les mauvaises nouvelles " de nos deux derniers numéros.
Mais le fait d'ajouter un nouvel OS dans un réseau existant peut créer de nouveaux problèmes et des migraines pour résoudre les questions d'interopérabilité. Par exemple, on peut s'interroger sur les points suivants :
· Peut-on faire tourner des applications Win32 sur un système sous Linux ?
· Comment synchroniser les utilisateurs de Windows 2000 et NT avec ceux de Linux ?
· Comment transférer des données entre les serveurs Windows 2000 ou Windows NT et les postes de travail sous Linux ?
Dans cet article, nous allons détailler un outil qui répond à la troisième de ces questions. (Au cas où vous chercheriez les réponses aux autres questions, la première est oui : WINES, un utilitaire gratuit livré avec la plupart des versions de Linux qui permet de faire tourner les programmes Windows sous Linux. Pour la deuxième question, j'ai entendu dire qu'il existait des utilitaires de conversion d'annuaires entre NT et Linux, mais je n'en sais pas beaucoup plus.)
Une nouvelle nébuleuse
Omniterm et Interlynx : deux chevaux de bataille pour un seul nom, qui fédère
les ex- IDEA, Andrew, Aranex et Decison Data... : NLynx.
Créée en 1997, la société NLynx est encore jeune... mais a déjà une très longue
histoire. En réalité, Fred Klingensmith a co-fondé la structure initiale en 1976
: elle s'appelait alors “ KMW Systems ”. KMW a été côtée en bourse à partir de
1983, et a été revendue à Andrew Corporation, pour constituer la nouvelle Division
“ Network Products ” de Andrew en 1989. En novembre 1997, cette Division, qui
n'était pas exactement dans le métier de base de Andrew, a été externalisée via
un “ management buyout ” (rachat par les cadres dirigeants des parts de la société).
NLynx Systems était née.
En juillet 1998, NLynx a acheté les actifs d'un autre acteur de ce marché, qui
n'était pas au mieux à ce moment là : IDEAssociates, et sa filiale Aranex Corporation,
enrichissant ainsi la famille des produits NLynx de ceux de IDEA. NLynx compte
beaucoup sur la croissance externe. C'est ainsi que plus récemment (début mai)
elle a acquis les actifs des activités terminaux et contrôleurs de Decision Data.
Et selon Pierre Hernicot, Director of European Operations, il faut s'attendre
à voir apparaître d'autres opérations du même type, qui seraient en cours de négociation,
de part et d'autre de l'Atlantique.
Les plus consultés sur iTPro.fr
- AWS re:Invent 2025 : décryptage des grandes innovations qui vont transformer le cloud
- Gouvernance et optimisation des dépenses logicielles : Comment éviter les pièges de la consommation?
- Du cloud hybride aux LLM : les technologies qui rebattent les cartes en 2026
- E-mail : les tendances qui vont s’affirmer en 2026
- L’identité au cœur de la cybersécurité
