De 2000 à 2015, et au-delà…
200-2015 : 15 ans d’expertise pour iTPro.fr !
En l’an 2000, les Boys Band régnaient sur la planète musique, le Nokia 3310 était le téléphone que l’on s’arrachait, et le monde s’étonnait de survire aussi bien au fameux « bug » tant redouté. Intel et AMD franchissaient, pour la première fois, l’autrefois inimaginable frontière du 1 GHz sur leurs CPU, Google se préparait à lancer AdWords (retirant ainsi à Internet ses dernières illusions utopistes d’un monde meilleur) et le virus ILoveYou allait définitivement bouleverser la perception de la sécurité informatique en coûtant 10 milliards de dollars aux entreprises à travers le monde pour l’éradiquer.
iTPro.fr, IT Pro Magazine, SQL Server Magazine, une galaxie de revues spécialisées au services de la communauté IT Professionnelle
IT Pro est né à cette époque. 15 ans plus tard, les paysages des entreprises et de la « high tech » ont tellement changé. Ils ont même fusionné dans ce que l’on appelle désormais la numérisation. L’occasion est trop belle de se retourner sur ces 15 dernières années tout en essayant de comprendre où les 15 prochaines nous mèneront.
2000 – 2015 Evolution du stockage ces 15 dernières années,
En 15 ans nous sommes passés de l’ère du Giga à celle du Big Data. En l’an 2000, on produisait 1,5 exabytes de données chaque année, et leur stockage sur disque revenait en moyenne à 4,17$ par Go. Quinze ans plus tard, notre univers numérique génère 5,6 Zettabytes par an avec un coût de stockage aux alentours de 0,035$ par Go (en considérant des disques de 3 To). Pour emmagasiner de telles volumétries, les constructeurs de SANs et NAS ont imaginé, durant ce lapse de temps, de nouvelles technologies comme le thin-provisioning, la compression des volumes et la déduplication des données.
Mais la technologie qui a probablement le plus contribué à révolutionner l’univers du Stockage, c’est sans aucun doute le Flash. Ironiquement, c’est justement en 2000 que sont apparues les premières clés USB.
Depuis, le Flash – sous ces différentes formes – n’a cessé de gagner en capacité, en performance et en popularité. Au point de venir aujourd’hui redistribuer les cartes. Des startups comme Pure Storage, SolidFire, Violin Memory, Skyera sont venus chatouiller les géants du stockage qui ont dû en acquérir certaines pour rattraper leur retard et doper leurs innovations (EMC a racheté XtremIO, HP a racheté 3PAR). Aujourd’hui, nombreux sont ceux qui entrevoient un futur sans disque dur. Les baies Full Flash s’imposent déjà petit à petit dans les Tier 0 et Tier 1 de nos infrastructures : elles sont plus performantes, plus denses, plus économes en énergie.
Parallèlement à cette transformation, les notions de baie SAN et de NAS s’estompent. Les concepts fusionnent et d’autres naissent comme le stockage objet. Les disques se rapprochent des serveurs. Et les fonctionnalités des baies s’installent directement au cœur des systèmes (Windows Server 2012R2 gère le Thin-Provisionning, le tiering automatique, la déduplication, etc.). Une vraie tendance de fond s’impose : la virtualisation du stockage, seule solution pour aujourd’hui gérer la diversité des infrastructures et la répartition des disques.
D’ici 15 ans, l’univers du stockage sera certainement très différent de celui que l’on connaît aujourd’hui. Car une autre révolution pointe déjà le bout de son nez : la mémoire non volatile. A bien y réfléchir, c’est l’étape suivante logique après le Flash. PMC, Memristor, NRAM, FRAM, MRAM autant de technologies plus ou moins déjà développées prétendent un jour succéder au Flash. Il faudra repenser les systèmes d’exploitation, mais aussi probablement le fonctionnement des applications, pour ces technologies destinées à anéantir la frontière entre mémoire et stockage.
Evolution des processeurs
L’an 2000 a marqué un tournant dans l’évolution des puissances de calcul. Pour la première fois, la barrière du 1 GHz était franchie à la fois par Intel et AMD. Le processeur Pentium 4 se cadençait ainsi à 1,5 GHz et initiait une marche inéluctable : l’ère du x86 au cœur des Data Centers.
Quinze en plus tard, nos serveurs se dopent aux multi-cœurs. L’Intel Xeon E7-v4 dispose de 24 cœurs. AMD prépare une version 32 cœurs de ses futurs Opteron à architecture « Zen » attendus en 2016. Les calculs intensifs sont assurés par des GPU ou des MIC (Many Integrated Core) aux performances ébouriffantes. Le nouveau Xeon Phi « Knights Landing » embarque 72 cœurs et affiche 8 teraflops en simple précision, 3 teraflops en calculs double précision. Autrement dit, toute la puissance du Super-ordinateur IBM ASCI White qui détenait en 2000 le record de performances (7,1 Teraflops). Un monstre qui pesait 106 tonnes et consommait 3 MegaWatt (plus 3 autres MW de climatisation). A comparer aux quelques grammes et 200W du nouveau Xeon Phi.
Le futur proche nous annonce des processeurs dotés de centaines de cœurs. Mais au-delà se profile d’autres formes d’ordinateurs. IBM, Microsoft Research et Google croient dans l’ordinateur quantique. HP croit aux processeurs à bus photonique. Une chose est sûre, avec les GPU et les MIC, l’évolution de la puissance n’est plus linéaire comme elle peut l’être avec les CPU, mais exponentielle. Il y a bien longtemps que la puissance des HPC ne se mesure plus en TeraFlops mais en PetaFlops. En 15 ans, la performance du plus puissant des supers-ordinateurs est passée de 8 TFlops à 54 PFlops (54000 TFlops) ! Dans 15 ans, le plus puissant d’entre eux sera probablement 10.000 fois plus performant que le Tianhe-2 (le monstre du National University of Defense Technology en Chine).
Evolution des Data Centers
Les années folles de la bulle Internet (1997-2000) ont beaucoup contribué à changer le visage des salles informatiques et lancer l’ère des Data Centers connectés. Dès 2002, les problématiques de consommation énergétique et d’efficience vont se faire ressentir. A l’époque, 5 millions de nouveaux serveurs viennent s’ajouter chaque année aux infrastructures. Aux USA, ces centres de données consommaient déjà 1,5% de la puissance disponible. En 2005, Google commence à imaginer ses propres conteneurs. Une idée qui sera petit à petit adoptée par les plus gros acteurs et mènera aux concepts des Data Centers modulaires.
L’espace physique n’étant pas extensible à l’infini, on cherche coûte que coûte à densifier les serveurs. Pour densifier les cartes mères, les SOCs ont fait leur apparition sur les serveurs. Ils permettent la concrétisation de nouveaux concepts plus modulaires comme le HP Moonshot. La modularité du Data Center descend d’un échelon pour atteindre ses composantes. En 2015, les systèmes convergés et hyper-convergés ont ainsi le vent en poupe.
Et si consolidation et rationalisation deviennent les maîtres mots des DSI, c’est parce qu’une révolution logicielle a, en 2001, totalement changer la donne : cette année-là est lancé VMWare ESX et les Data Centers entrent dans l’ère de la virtualisation. Les concepts de pools de ressources vont vite s’étendre au-delà des serveurs : Stockage et réseau les adoptent eux-aussi. De cette virtualisation vont rapidement naître de nouveaux besoins d’automatisation, d’orchestration, et avec eux des besoins de casser les silos pour la mettre en œuvre. Nous en sommes aujourd’hui qu’aux premières étapes de la « Software Led Infrastructure » (SLI). Petit à petit, les technologies de « Software Defined Storage » et « Software Defined Network » se mettent en place. Elles se concrétisent plus aisément dans les systèmes hyper-convergées mais sont destinées à se généraliser. Une fondation émerge, venant contrarier les ambitions de VMWare vSphere et Microsoft System Center : OpenStack a tous les atouts en main pour devenir la fondation des SLI de demain.
L’avènement du Cloud
Mais un autre concept est aussi venu infléchir l’évolution des Data Center : le Cloud.
Lorsque le 21 ème siècle démarre, SalesForce.com n’est encore qu’une jeune startup qui tente de populariser le concept d’applications d’entreprise délivrées via Internet. Le SaaS fait ses premiers pas alors que l’infogérence se cherche un second souffle. Des sociétés comme Rackspace sont nées en 1998 et prennent leur essor au début des années 2000. L’avènement en 2002 d’Amazon Web Services (AWS) et en 2006 d’Amazon Elastic Compute Cloud (EC2) signent l’ère du Cloud Computing. Une ère qui impose une vraie révolution au sein des DSI, à la fois une restructuration des équipes et des changements de mentalités et de façon d’opérer.
Le Cloud est une déferlante.
Le Cloud donne aux métiers une indépendance qui conduit au fléau Shadow IT. Il offre aux startups et TPE la possibilité d’utiliser les mêmes ressources et les mêmes outils que les grosses entreprises et transforme tout matériel en ressources, tout processus en services.
Il n’est pas besoin d’être devin pour comprendre que cette tendance ne s’inversera pas de sitôt. Les entreprises s’adaptent petit à petit et composent avec les concepts de Cloud hybride. Petit à petit, elles se débarrassent de leurs ressources internes sous exploitées en les plaçant dans le Cloud, éprouvent leurs projets risqués sur celles du Cloud, trouvent l’élasticité dont elles ont besoin dans le Cloud et voient dans le Cloud un moyen de concrétiser aisément leurs scénarios de poursuite/reprise d’activité (PRA).
Qu’elles le veuillent ou non, les DSI seront amenées à jouer de plus en plus le rôle de « Cloud Brokers » mais elles devront surtout endosser le rôle de chef d’orchestre de multiples Clouds mis à leur service.
Le challenge des années à venir consiste à faire du Cloud un environnement interopérable dans lequel les entreprises pourront changer de prestataire sans aucun effort et en toute sécurité.
Téléchargez cette ressource
Mac en entreprise : le levier d’un poste de travail moderne
Ce livre blanc répond aux 9 questions clés des entreprises sur l’intégration du Mac : sécurité, compatibilité, gestion, productivité, coûts, attractivité talents, RSE et IA, et l’accompagnement sur mesure proposé par inmac wstore.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Les 6 tournants qui redéfinissent l’IA en entreprise
- Analyse Patch Tuesday Janvier 2026
- Souveraineté numérique : les décideurs publics veulent prioriser les modèles d’IA souverains
- Dans l’œil du cyber-cyclone : l’excès d’optimisme constitue le risque principal pour la résilience des données
Articles les + lus
Top 5 des évolutions technologiques impactant la sécurité 2026
Tendances 2026 : l’IA devra prouver sa rentabilité
Souveraineté numérique : les décideurs publics veulent prioriser les modèles d’IA souverains
À l’aube de 2026, le SaaS entre dans une nouvelle phase
AWS re:Invent 2025 : décryptage des grandes innovations qui vont transformer le cloud
À la une de la chaîne Cloud
- Top 5 des évolutions technologiques impactant la sécurité 2026
- Tendances 2026 : l’IA devra prouver sa rentabilité
- Souveraineté numérique : les décideurs publics veulent prioriser les modèles d’IA souverains
- À l’aube de 2026, le SaaS entre dans une nouvelle phase
- AWS re:Invent 2025 : décryptage des grandes innovations qui vont transformer le cloud
