> Tech > Stockage magnétique : pour combien de temps encore ?

Stockage magnétique : pour combien de temps encore ?

Tech - Par iTPro.fr - Publié le 24 juin 2010
email

par Franck G. Soltis
Je regardais récemment l'un des nouveaux Microdrives d'IBM pour mon appareil photo numérique. En 1999, pour la première fois au monde, IBM introduisait le Microdrive, premier disque 1-pouce destiné aux organizers et autres appareils photos numériques. Ce premier disque avait une capacité de 340 Mo. L'été dernier, IBM sortait une version 1 Go de ce disque dur, l'ensemble faisant seulement 36 x 43 x 5 mm (inférieur à  une petite boite d'allumettes) et contenant un disque de 27 mm d'une densité par surface de 15,2 gigabits par pouce carré. La densité par surface est la mesure du nombre de bits que l'on peut " entasser " sur un pouce carré de disque magnétique.
Bien que ce chiffre n'établisse pas un record de densité, il montre bien combien la technologie des disques évolue vite. IBM a enregistré plusieurs records. En mai 1999, les chercheurs d'IBM annonçaient au monde qu'ils avaient poussé le record de densité à  20,3 Gbits/in² en laboratoire. En octobre 1999 IBM battait son propre record en obtenant une densité de 35,3 Gbits/in². En avril 2000 les chercheurs de Fujitsu à  Tokyo annonçaient que leur laboratoire avait atteint une densité de 50 Gbits/in². En seulement un an, l'augmentation de la densité représente une incroyable croissance de 180 %, et ce n'est pas fini. A la suite de ces tests, on constate qu'il s'écoule environ un an avant de retrouver ces densités obtenues dans les laboratoires dans les outils de production.

Depuis 1997, année où IBM a introduit la tête GMR (une tête magnéto-résistive de lecture et d'écriture qui réagissait à  des champs magnétiques de très faible intensité), la densité de bit des disques a doublé chaque année. Un progrès plutôt impressionnant pour une technologie qui date seulement de 1956.

Stockage magnétique : pour combien de temps encore ?<BR>

D’accord, je l’admets. J’étais un de ces premiers sceptiques qui pensaient que
cette technologie des disques magnétiques n’aurait pas d’avenir. Dans les années
70, beaucoup d’entre nous pensaient que la fin des disques magnétiques n’était
pas loin. Les techniciens et les ingénieurs commençaient même à  prévoir quelle
quantité maximum de données pourraient être stockée sur une surface de disque.
Les technologies plus récentes, telles que les bulles magnétiques et les appareils
à  double charges, ont fait leur apparition pour éventuellement remplacer les disques.




En seulement un an, l’augmentation de la densité représente une incroyable
croissance de 180 %



A cette époque à  Rochester nous étions en train de créer le Système/38. Partant
du principe que la technologie des disques était sur sa fin, nous voulions nous
assurer que l’architecture S/38 n’était pas liée aux disques magnétiques. Et en
effet, la technologie de stockage à  un seul niveau rendait les disques indépendants
des systèmes d’exploitation et des applications. Aucun logiciel du S/38 (ou ses
dérivés, l’AS/400 et les iSeries) n’était à  changer si l’on venait à  remplacer
les disques magnétiques par une autre technologie de stockage.



Comparons cette démarche aux systèmes d’exploitation utilisés aujourd’hui. A l’origine,
PC et Unix ont démarré plus ou moins sous la forme d’un système disque. Ces premiers
systèmes originaux ont été conçus pour aider les utilisateurs à  gérer les disques
au sein du système. Avec le temps, des fonctions d’un niveau supérieur se sont
ajoutées, comme les mémoires virtuelles, mais les disques sont toujours là . La
gestion des disques est toujours une des responsabilités majeures de ces systèmes.




Ceci ne vaut pas pour l’OS/400. Le système OS/400 travaille comme s’il avait une
seule énorme mémoire, sans s’occuper des disques. Nous avons ajouté quelques éléments
concernant les disques dans l’OS/400 pour des questions de performances et de
configuration, mais normalement il est indépendant de la technologie des disques.
Les fonctions de gestion des disques sont gérées par le SLIC (Code système interne
sous licence), bien en dessous de l’OS/400. Ce code système interne est d’ailleurs
le seul élément du système à  connaître les caractéristiques du hardware.



Pendant les années 70, j’ai aussi était fasciné par quelques entreprises de biotechnologie
qui se sont penchées sur les mémoires biologiques dans le but de remplacer le
stockage magnétique. J’étais particulièrement intéressé par la proposition d’utiliser
un champignon comme moyen de stockage. Il s’avère qu’il existe des types de champignons
qui peuvent vivre sous différentes formes facilement détectables et modifiables.
Si les formes sont les 1 et les 0 dans la mémoire d’un ordinateur, alors un champignon
peut remplacer un stockage magnétique. Si l’on va plus loin et que l’on considère
un client qui désire augmenter sa capacité de stockage, il suffit d’arroser les
champignons et de les laisser grandir. La question du coût par bit est alors hors
de propos.



A l’époque, j’ai décidé d’investir dans ces biotechnologies dans l’espoir d’être
riche à  la mort du stockage magnétique et à  l’ère des mémoires champignons. Ce
jour là  n’est pas encore arrivé, mais je garde espoir !

Téléchargez cette ressource

Préparer l’entreprise aux technologies interconnectées

Préparer l’entreprise aux technologies interconnectées

Avec la « quatrième révolution industrielle », les environnements hyperconnectés entraînent de nouveaux risques en matière de sécurité. Découvrez, dans ce guide Kaspersky, comment faire face à cette nouvelle ère de vulnérabilité.

Tech - Par iTPro.fr - Publié le 24 juin 2010