> Cloud > 200-2015 : 15 ans d’expertise pour iTPro.fr !

200-2015 : 15 ans d’expertise pour iTPro.fr !

Cloud - Par Loïc Duval - Publié le 07 mars 2016
email

De 2000 à 2015, et au-delà…

200-2015 : 15 ans d’expertise pour iTPro.fr !

En l’an 2000, les Boys Band régnaient sur la planète musique, le Nokia 3310 était le téléphone que l’on s’arrachait, et le monde s’étonnait de survire aussi bien au fameux « bug » tant redouté. Intel et AMD franchissaient, pour la première fois, l’autrefois inimaginable frontière du 1 GHz sur leurs CPU, Google se préparait à lancer AdWords (retirant ainsi à Internet ses dernières illusions utopistes d’un monde meilleur) et le virus ILoveYou allait définitivement bouleverser la perception de la sécurité informatique en coûtant 10 milliards de dollars aux entreprises à travers le monde pour l’éradiquer.

iTPro.fr, IT Pro Magazine, SQL Server Magazine, une galaxie de revues spécialisées au services de la communauté IT Professionnelle

IT Pro est né à cette époque. 15 ans plus tard, les paysages des entreprises et de la « high tech » ont tellement changé. Ils ont même fusionné dans ce que l’on appelle désormais la numérisation. L’occasion est trop belle de se retourner sur ces 15 dernières années tout en essayant de comprendre où les 15 prochaines nous mèneront.

2000 – 2015 Evolution du stockage ces 15 dernières années, 

En 15 ans nous sommes passés de l’ère du Giga à celle du Big Data. En l’an 2000, on produisait 1,5 exabytes de données chaque année, et leur stockage sur disque revenait en moyenne à 4,17$ par Go. Quinze ans plus tard, notre univers numérique génère 5,6 Zettabytes par an avec un coût de stockage aux alentours de 0,035$ par Go (en considérant des disques de 3 To). Pour emmagasiner de telles volumétries, les constructeurs de SANs et NAS ont imaginé, durant ce lapse de temps, de nouvelles technologies comme le thin-provisioning, la compression des volumes et la déduplication des données.

Mais la technologie qui a probablement le plus contribué à révolutionner l’univers du Stockage, c’est sans aucun doute le Flash. Ironiquement, c’est justement en 2000 que sont apparues les premières clés USB.

Depuis, le Flash – sous ces différentes formes – n’a cessé de gagner en capacité, en performance et en popularité. Au point de venir aujourd’hui redistribuer les cartes. Des startups comme Pure Storage, SolidFire, Violin Memory, Skyera sont venus chatouiller les géants du stockage qui ont dû en acquérir certaines pour rattraper leur retard et doper leurs innovations (EMC a racheté XtremIO, HP a racheté 3PAR). Aujourd’hui, nombreux sont ceux qui entrevoient un futur sans disque dur. Les baies Full Flash s’imposent déjà petit à petit dans les Tier 0 et Tier 1 de nos infrastructures : elles sont plus performantes, plus denses, plus économes en énergie.

Parallèlement à cette transformation, les notions de baie SAN et de NAS s’estompent. Les concepts fusionnent et d’autres naissent comme le stockage objet. Les disques se rapprochent des serveurs. Et les fonctionnalités des baies s’installent directement au cœur des systèmes (Windows Server 2012R2 gère le Thin-Provisionning, le tiering automatique, la déduplication, etc.). Une vraie tendance de fond s’impose : la virtualisation du stockage, seule solution pour aujourd’hui gérer la diversité des infrastructures et la répartition des disques.

D’ici 15 ans, l’univers du stockage sera certainement très différent de celui que l’on connaît aujourd’hui. Car une autre révolution pointe déjà le bout de son nez : la mémoire non volatile. A bien y réfléchir, c’est l’étape suivante logique après le Flash. PMC, Memristor, NRAM, FRAM, MRAM autant de technologies plus ou moins déjà développées prétendent un jour succéder au Flash. Il faudra repenser les systèmes d’exploitation, mais aussi probablement le fonctionnement des applications, pour ces technologies destinées à anéantir la frontière entre mémoire et stockage.

Evolution des processeurs

L’an 2000 a marqué un tournant dans l’évolution des puissances de calcul. Pour la première fois, la barrière du 1 GHz était franchie à la fois par Intel et AMD. Le processeur Pentium 4 se cadençait ainsi à 1,5 GHz et initiait une marche inéluctable : l’ère du x86 au cœur des Data Centers.
Quinze en plus tard, nos serveurs se dopent aux multi-cœurs. L’Intel Xeon E7-v4 dispose de 24 cœurs. AMD prépare une version 32 cœurs de ses futurs Opteron à architecture « Zen » attendus en 2016. Les calculs intensifs sont assurés par des GPU ou des MIC (Many Integrated Core) aux performances ébouriffantes. Le nouveau Xeon Phi « Knights Landing » embarque 72 cœurs et affiche 8 teraflops en simple précision, 3 teraflops en calculs double précision. Autrement dit, toute la puissance du Super-ordinateur IBM ASCI White qui détenait en 2000 le record de performances (7,1 Teraflops). Un monstre qui pesait 106 tonnes et consommait 3 MegaWatt (plus 3 autres MW de climatisation). A comparer aux quelques grammes et 200W du nouveau Xeon Phi.
Le futur proche nous annonce des processeurs dotés de centaines de cœurs. Mais au-delà se profile d’autres formes d’ordinateurs. IBM, Microsoft Research et Google croient dans l’ordinateur quantique. HP croit aux processeurs à bus photonique. Une chose est sûre, avec les GPU et les MIC, l’évolution de la puissance n’est plus linéaire comme elle peut l’être avec les CPU, mais exponentielle. Il y a bien longtemps que la puissance des HPC ne se mesure plus en TeraFlops mais en PetaFlops. En 15 ans, la performance du plus puissant des supers-ordinateurs est passée de 8 TFlops à 54 PFlops (54000 TFlops) ! Dans 15 ans, le plus puissant d’entre eux sera probablement 10.000 fois plus performant que le Tianhe-2 (le monstre du National University of Defense Technology en Chine).

Evolution des Data Centers

Les années folles de la bulle Internet (1997-2000) ont beaucoup contribué à changer le visage des salles informatiques et lancer l’ère des Data Centers connectés. Dès 2002, les problématiques de consommation énergétique et d’efficience vont se faire ressentir. A l’époque, 5 millions de nouveaux serveurs viennent s’ajouter chaque année aux infrastructures. Aux USA, ces centres de données consommaient déjà 1,5% de la puissance disponible. En 2005, Google commence à imaginer ses propres conteneurs. Une idée qui sera petit à petit adoptée par les plus gros acteurs et mènera aux concepts des Data Centers modulaires.
L’espace physique n’étant pas extensible à l’infini, on cherche coûte que coûte à densifier les serveurs. Pour densifier les cartes mères, les SOCs ont fait leur apparition sur les serveurs. Ils permettent la concrétisation de nouveaux concepts plus modulaires comme le HP Moonshot. La modularité du Data Center descend d’un échelon pour atteindre ses composantes. En 2015, les systèmes convergés et hyper-convergés ont ainsi le vent en poupe.
Et si consolidation et rationalisation deviennent les maîtres mots des DSI, c’est parce qu’une révolution logicielle a, en 2001, totalement changer la donne : cette année-là est lancé VMWare ESX et les Data Centers entrent dans l’ère de la virtualisation. Les concepts de pools de ressources vont vite s’étendre au-delà des serveurs : Stockage et réseau les adoptent eux-aussi. De cette virtualisation vont rapidement naître de nouveaux besoins d’automatisation, d’orchestration, et avec eux des besoins de casser les silos pour la mettre en œuvre. Nous en sommes aujourd’hui qu’aux premières étapes de la « Software Led Infrastructure » (SLI). Petit à petit, les technologies de « Software Defined Storage » et « Software Defined Network » se mettent en place. Elles se concrétisent plus aisément dans les systèmes hyper-convergées mais sont destinées à se généraliser. Une fondation émerge, venant contrarier les ambitions de VMWare vSphere et Microsoft System Center : OpenStack a tous les atouts en main pour devenir la fondation des SLI de demain.

L’avènement du Cloud

Mais un autre concept est aussi venu infléchir l’évolution des Data Center : le Cloud.
Lorsque le 21 ème siècle démarre, SalesForce.com n’est encore qu’une jeune startup qui tente de populariser le concept d’applications d’entreprise délivrées via Internet. Le SaaS fait ses premiers pas alors que l’infogérence se cherche un second souffle. Des sociétés comme Rackspace sont nées en 1998 et prennent leur essor au début des années 2000. L’avènement en 2002 d’Amazon Web Services (AWS) et en 2006 d’Amazon Elastic Compute Cloud (EC2) signent l’ère du Cloud Computing. Une ère qui impose une vraie révolution au sein des DSI, à la fois une restructuration des équipes et des changements de mentalités et de façon d’opérer.

Le Cloud est une déferlante.

Le Cloud donne aux métiers une indépendance qui conduit au fléau Shadow IT. Il offre aux startups et TPE la possibilité d’utiliser les mêmes ressources et les mêmes outils que les grosses entreprises et transforme tout matériel en ressources, tout processus en services.

Il n’est pas besoin d’être devin pour comprendre que cette tendance ne s’inversera pas de sitôt. Les entreprises s’adaptent petit à petit et composent avec les concepts de Cloud hybride. Petit à petit, elles se débarrassent de leurs ressources internes sous exploitées en les plaçant dans le Cloud, éprouvent leurs projets risqués sur celles du Cloud, trouvent l’élasticité dont elles ont besoin dans le Cloud et voient dans le Cloud un moyen de concrétiser aisément leurs scénarios de poursuite/reprise d’activité (PRA).

Qu’elles le veuillent ou non, les DSI seront amenées à jouer de plus en plus le rôle de « Cloud Brokers » mais elles devront surtout endosser le rôle de chef d’orchestre de multiples Clouds mis à leur service.

Le challenge des années à venir consiste à faire du Cloud un environnement interopérable dans lequel les entreprises pourront changer de prestataire sans aucun effort et en toute sécurité.

Téléchargez cette ressource

Préparer l’entreprise aux technologies interconnectées

Préparer l’entreprise aux technologies interconnectées

Avec la « quatrième révolution industrielle », les environnements hyperconnectés entraînent de nouveaux risques en matière de sécurité. Découvrez, dans ce guide Kaspersky, comment faire face à cette nouvelle ère de vulnérabilité.

L’évolution du PC

Le début des années 2000 voyait se concrétiser la vision de Bill Gates, celle « d’un PC sur chaque bureau ». Et toujours en 2000, lors d’une conférence annonçant le lancement de .NET, Bill Gates dévoilait pour la première fois le concept du « Tablet PC ». Ironie du sort, 15 ans plus tard, la révolution mobile s’est faite sans Microsoft. Une révolution Mobile qui a transformé les usages et obligé les entreprises à gérer le phénomène de la consumerisation de l’IT et celui du BYOD. Une mobilité qui a offert de l’agilité aux collaborateurs et contraint les DSI à gérer une diversité de terminaux et d’écosystème à laquelle elles n’aspiraient pas.
Une mobilité qui aura – par la même occasion – profondément transformé le PC lui-même. Car l’ère Post-PC prônée par Steve Jobs pourrait au final nous ramener au PC. Adieu les tours disgracieuses. Désormais, tablettes et notebooks ne font plus qu’un. Les machines hybrides à l’instar des Surface de Microsoft sont en phase de reconquête.
Mieux encore. Au milieu des années 2000, la firme de Bill Gates explorait en vidéo un futur dans lequel le PC était embarqué au cœur du téléphone. Avec Windows 10, sa fonction Continuum, et les nouveaux Lumia 950 et 950XL, cette vision se concrétise en cette fin d’année 2015! Pourtant, il est bien difficile de prédire ce qu’il restera de Windows, Android ou iOS dans quinze ans. Car la mobilité de 2030 sera probablement bien différente de celle de 2015. Souvenez-vous, il y a quinze ans le Nokia 3310 se vendait comme des petits pains chauds… Que de chemin parcouru !

Cette évolution du PC s’est aussi accompagnée d’une évolution des interfaces Homme/Machine. Si le clavier et la souris sont toujours là, la voix, le stylet et la reconnaissance gestuelle sont devenus des interfaces éprouvées et fiables. L’écran tactile est entré dans les mœurs. Demain les hologrammes viendront donner du relief à toutes nos activités numériques.

Alors certes, 2015 n’est peut-être pas aussi révolutionnaire que ce que les créateurs de « Back To The Future » avaient anticipé dans les années 80. Pourtant, ces quinze dernières années ont vu des innovations technologiques bouleverser notre quotidien, nos loisirs, notre travail, bien plus que ce que ces scénaristes ne pouvaient l’imaginer. Certes, on pourrait penser qu’avec Internet, les tablettes et les smartphones nous avons déjà tout réinventé. Mais au rythme où vont les innovations actuelles (machine learning, Hololens, casques de réalité virtuelle, intelligence artificielle, nanotechnologies), bien malin celui qui peut aujourd’hui décrire notre quotidien dans 15 ans…

L’ère de la donnée mène à l’IA

On pourrait résumer les quinze années écoulées en un mot de quatre lettres : Data. C’est la plus grande des transformations. Dans les années 2000, naissait le décisionnel. SQL Server 2000 embarquait déjà en standard des outils de reporting. Les entreprises comprenaient qu’elles pouvaient faire quelque chose de leurs données. En tirer une information utile pour prendre des décisions plus rapidement. Ces dernières années, la BI s’est popularisée à différentes strates de l’entreprise par le biais de la Self BI pour que chacun puisse bâtir ses propres tableaux de bord.
En 2015, c’est une autre technologie qui vient métamorphoser notre utilisation de la donnée. Avec le « Machine Learning », la donnée n’est plus seulement informative, elle devient prédictive. Elle ne met plus uniquement en évidence des tendances, elle prédit des comportements. La révolution des prochaines années trouve sa source dans ce machine learning : ce dernier porte les fondations d’une intelligence artificielle qui n’aura bientôt plus rien d’artificiel, une intelligence virtuelle qui prendra des décisions en notre nom si on ne lui fixe aucune borne.

Surfer sur la vague de l’IOT

Déjà plus de cinq milliards d’objets connectés, 80 milliards en 2020 ! Des montres aux bracelets, vêtements, chaussures, voitures, machines-outils, sans oublier les balances, lentilles et même des pilules à ingurgiter… les capteurs se répandent dans tous les objets et bouleversent la façon de consommer, produire, gérer sa santé, assurer la maintenance, etc. Tournant décisif pour les entreprises, l’IOT (Internet Of Things) offre une multitude d’opportunités, qu’il s’agisse de déployer des beacons dans les magasins pour établir des relations privilégiées avec les clients, d’exploiter les capacités de collecte d’information et de communication des smartphones, de proposer des services innovants à partir des données collectées par les véhicules, d’optimiser la maintenance préventive… Dans un monde truffé de capteurs, tout reste à inventer. Mais pour profiter pleinement de cette nouvelle ère, les entreprises doivent s’y préparer dès maintenant en adoptant les capteurs offrant la connectivité -et la rentabilité – la plus appropriée à leur business modèle ainsi que des plateformes conçues pour traiter la masse de données collectées de part et d’autres.

Robotique : un marché très prometteur

Grâce aux progrès réalisés dans les domaines de la mécatronique (combinaison de la mécanique, de l’électronique et de l’informatique en temps réel) et des systèmes embarqués, le marché de la robotique a fortement évolué ces dernières années, doublant son chiffre d’affaire en 10 ans pour atteindre les 30 milliards de dollars en 2015 selon l’International Federation of Robotics. Limité actuellement à 5,4 milliards, le marché civil devrait faire sa « robolution » et atteindre les 100 milliards en 2020, porté par les solutions industrielles (bras robotisés pour le soudage, la peinture, l’assemblage, etc.), la robotique de services dans les milieux professionnels (robots médicaux et agricoles, par exemple) ou domestique (aspirateurs robots). Mais c’est sans doute sur le terrain des robots compagnons qu’il faut s’attendre à une véritable révolution avec des robots « collaboratifs » qui évoluent au contact du salarié, qui font réviser les leçons aux enfants, qui tiennent compagnie aux personnes dépendantes et les assistent au quotidien, etc. Promis à un important développement, ces robots seront plus vrais que nature, à l’image de Chihira Aico, la dernière-née du japonais Toshiba, qui pourrait presque être confondue avec une vraie japonaise. Plus frileux, le marché français compte malgré tout quelques pépites, émanant principalement de start-up tels que Medtech, Infotron, E.Zicom sans oublier Aldebaran Robotics (racheté par Softbank) à l’origine du désormais célèbre Nao.

Réagir à l’économie « collaborative »

Uber, Blablacar, Airbnb, Lamlamode, Weplaysport… L’économie dite « collaborative » où le consommateur devient un « consomm’acteur » n’a rien d’utopique. Fondée sur les usages, elle s’impose là où l’insatisfaction règne : services défaillants, modalités de paiement restrictives, aspirations écologiques et bien entendu tarifs exorbitants. Portée par des start-up réactives et agiles qui ne sont pas freinées par les lourdeurs organisationnelles des grands groupes, pas plus que par les règlementations en place, elle grignote progressivement le marché des entreprises traditionnelles. A l’image d’Amazon, elles sont là pour durer. Alors inutile de courber l’échine en attendant que ça passe. C’est dans l’innovation, que les entreprises doivent trouver leur solution, qu’il s’agisse d’aller les concurrencer sur leur propre terrain à l’image d’IDVROOM, réponse de la SNCF à Blablacar. Ou encore d’intégrer les principes de cette nouvelle économie au business de l’entreprise, option retenue par Decathlon avec son service de revente/troc de produits « Trocathlon »…

 

 

 

Cloud - Par Loïc Duval - Publié le 07 mars 2016