L’an 2000 a marqué un tournant dans l’évolution des puissances de calcul.
l’Histoire de l’évolution des processeurs
Pour la première fois, la barrière du 1 GHz était franchie à la fois par Intel et AMD
Le processeur Pentium 4 se cadençait ainsi à 1,5 GHz et initiait une marche inéluctable : l’ère du x86 au cœur des Data Centers.
Quinze en plus tard, nos serveurs se dopent aux multi-cœurs. L’Intel Xeon E7-v4 dispose de 24 cœurs. AMD prépare une version 32 cœurs de ses futurs Opteron à architecture « Zen » attendus en 2016. Les calculs intensifs sont assurés par des GPU ou des MIC (Many Integrated Core) aux performances ébouriffantes. Le nouveau Xeon Phi « Knights Landing » embarque
72 cœurs et affiche 8 teraflops en simple précision, 3 teraflops en calculs double précision. Autrement dit, toute la puissance du Super-ordinateur IBM ASCI White qui détenait en 2000 le record de performances
(7,1 Teraflops). Un monstre qui pesait 106 tonnes et consommait 3 MegaWatt (plus 3 autres MW de climatisation). A comparer aux quelques grammes et 200W du nouveau Xeon Phi.
Le futur proche nous annonce des processeurs dotés de centaines de cœurs. Mais au-delà se profile d’autres formes d’ordinateurs. IBM, Microsoft Research et Google croient dans l’ordinateur quantique. HP croit aux processeurs à bus photonique. Une chose est sûre, avec les GPU et les MIC, l’évolution de la puissance n’est plus linéaire comme elle peut l’être avec les CPU, mais exponentielle. Il y a bien longtemps que la puissance des HPC ne se mesure plus en TeraFlops mais en PetaFlops. En 15 ans, la performance du plus puissant des supers-ordinateurs est passée de 8 TFlops à 54 PFlops (54000 TFlops) ! Dans 15 ans, le plus puissant d’entre eux sera probablement 10.000 fois plus performant que le Tianhe-2 (le monstre du National University of Defense Technology en Chine).
Evolution des Data Centers
Les années folles de la bulle Internet (1997-2000) ont beaucoup contribué à changer le visage des salles informatiques et lancer l’ère des Data Centers connectés. Dès 2002, les problématiques de consommation énergétique et d’efficience vont se faire ressentir. A l’époque, 5 millions de nouveaux serveurs viennent s’ajouter chaque année aux infrastructures. Aux USA, ces centres de données consommaient déjà 1,5% de la puissance disponible. En 2005, Google commence à imaginer ses propres conteneurs. Une idée qui sera petit à petit adoptée par les plus gros acteurs et mènera aux concepts des Data Centers modulaires.
L’espace physique n’étant pas extensible à l’infini, on cherche coûte que coûte à densifier les serveurs. Pour densifier les cartes mères, les SOCs ont fait leur apparition sur les serveurs. Ils permettent la concrétisation de nouveaux concepts plus modulaires comme le HP Moonshot.
La modularité du Data Center descend d’un échelon pour atteindre ses composantes. En 2015, les systèmes convergés et hyper-convergés ont ainsi le vent en poupe.
Et si consolidation et rationalisation deviennent les maîtres mots des DSI, c’est parce qu’une révolution logicielle a, en 2001, totalement changer la donne : cette année-là est lancé VMWare ESX et les Data Centers entrent dans l’ère de la virtualisation. Les concepts de pools de ressources vont vite s’étendre au-delà des serveurs : Stockage et réseau les adoptent eux-aussi. De cette virtualisation vont rapidement naître de nouveaux besoins d’automatisation, d’orchestration, et avec eux des besoins de casser les silos pour la mettre en œuvre. Nous en sommes aujourd’hui qu’aux premières étapes de la « Software Led Infrastructure » (SLI). Petit à petit, les technologies de « Software Defined Storage » et « Software Defined Network » se mettent en place. Elles se concrétisent plus aisément dans les systèmes hyper-convergées mais sont destinées à se généraliser. Une fondation émerge, venant contrarier les ambitions de VMWare vSphere et Microsoft System Center : OpenStack a tous les atouts en main pour devenir la fondation des SLI de demain.
Téléchargez cette ressource
Comment accélérer la transformation des environnements de travail ?
Dans un monde professionnel en pleine mutation, la mobilité, l’efficacité énergétique, la sécurité et l’intelligence embarquée sont devenues des critères décisifs pour les équipements informatiques. Découvrez comment les nouveaux PC Microsoft Surface dotés des processeurs Snapdragon X Series s’imposent comme une réponse stratégique aux nouveaux enjeux IT.
Les articles les plus consultés
- Partager vos images, vidéos, musique et imprimante avec le Groupe résidentiel
- Cybersécurité Active Directory et les attaques de nouvelle génération
- Et si les clients n’avaient plus le choix ?
- Les 6 étapes vers un diagnostic réussi
- N° 2 : Il faut supporter des langues multiples dans SharePoint Portal Server
Les plus consultés sur iTPro.fr
- Analyse Patch Tuesday Février 2026
- Entamer la transition vers la cryptographie post quantique est prioritaire
- Full Cloud : une transformation numérique inévitable pour les entreprises ?
- Pilotage de la DSI : lucidité, exigences et engagement
Articles les + lus
Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA
Alliée ou menace ? Comment l’IA redessine le paysage cyber
CES 2026 : l’IA physique et la robotique redéfinissent le futur
Les 3 prédictions 2026 pour Java
Semi-conducteurs : comment l’Irlande veut contribuer à atténuer la pénurie mondiale de puces
À la une de la chaîne Tech
- Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA
- Alliée ou menace ? Comment l’IA redessine le paysage cyber
- CES 2026 : l’IA physique et la robotique redéfinissent le futur
- Les 3 prédictions 2026 pour Java
- Semi-conducteurs : comment l’Irlande veut contribuer à atténuer la pénurie mondiale de puces
