> Data > Big Data : Comment en sommes-nous arrivés là ?

Big Data : Comment en sommes-nous arrivés là ?

Data - Par Sylvain Cortes - Publié le 11 février 2013
email

Phénomène de rupture avec l’informatique traditionnelle, le Big Data crée de nouvelles opportunités… À condition de pouvoir relever le premier défi, qui sera technologique !

Big Data : Comment en sommes-nous arrivés là ?

Tous les 2 ans, le volume des informations en circulation de toutes sortes et de toutes natures, fait plus que doubler. 15% de données structurées contre 85% de données semi ou non-structurées. Demain, la proportion de ces dernières sera plus importante encore, s’accordent à reconnaître les différents cabinets d’analystes. Elles sont partout, à commencer sur nos postes de travail, mais aussi dans nos  nouveaux outils de communications comme les smartphones. Ce qui s’explique: E-mails, fichiers PDF et documents bureautiques font maintenant partie intégrante du «nuage informationnel » de l’entreprise. Et c’est sans compter sur les formats émergents issus du Web, qui vont de plus en plus alimenter les applications de Business Intelligence : blogs, forums, flux RSS, contenu généré par les utilisateurs…

Selon IDC, le volume des données numériques aura atteint 1 800 milliards de gigaoctets fin 2011

Et on sait déjà que ce volume sera multiplié par 44 d’ici à 2020, du fait de la numérisation croissante de notre univers, de l’explosion des communications M2M (Machine-to-Machine), de la prolifération des capteurs et autres tags… Les analystes parlent de Big Data.

Pour une compagnie pétrolière, le Big Data est la masse de données sismiques accumulées lors de recherche de nouveaux gisements de pétrole. Pour un studio de cinéma, ce sont plutôt les données générées lors du rendu d’un film 3D. Pour un hôpital, enfin, c’est l’imposant volume de données provenant des multiples scanners et instruments d’imagerie à résonance magnétique. A chaque secteur d’activité sa définition.

Le Big Data : Jusqu’où irons-nous ?

Dans tous les cas, les volumes de données dépassent le pétaoctet et progressent à vitesse exponentielle vers le multi-pétaoctets. Dès lors, la question qui se pose est de savoir comment bien stocker ces données, mais aussi comment les gérer et, surtout, comment les exploiter de façon optimale. Ce qui veut dire, encore, que nous devons pouvoir extraire des perspectives à partir d’énormes quantités de données, filtrer des pétaoctets par seconde à partir de n’importe quel appareil connecté, analyser les données encore en transit, décider quelles données doivent être stockées le cas échéant…

Techniquement, nous vivons un véritable phénomène de rupture. En effet et, par delà quelques dizaines de téraoctets, les technologies traditionnelles sont inadaptées; elles ne permettent plus d’analyser les hautes et disparates volumétries de données. Ce qui, indirectement, signifie la fin de la prédominance des bases de données relationnelles et du langage SQL. Déjà, les géants du Web ont montré la voie en adoptant des formats de bases de données non relationnelles.

Concrètement, cela signifie pouvoir exploiter tant les données structurées que non structurées, s’émanciper des technologies relationnelles et dépasser les limites de SQL. Cela signifie également pouvoir atteindre ces données quelles qu’en soient la nature et la source, les interconnecter et les exploiter en temps réel, de manière flexible et au coût le plus bas.

Le Big Data : Comment le gérer ? Quel est le retour sur investissement ?

Ces milliards d’informations semi ou non-structurées méritent le même intérêt que les données structurées. Mais encore faut-il pouvoir les exploiter. Et donc, pour commencer, pouvoir les gérer. Que ce soit dans une démarche transactionnelle ou informationnelle, il est important de les intégrer.

Pour gérer ces données, les techniques doivent allier un stockage efficace de très grands volumes de données complexes à une exploitation agile de ces données. Les solutions doivent permettre d’exploiter des informations en provenance du Web, à grande échelle, et enrichir vos plates-formes de Business Intelligence d’analyses de sentiment, de notoriété de produits ou de marques, notamment à partir d’informations disponibles, par exemple au sein de blogs, forums, articles de presse, sites dédiés, témoignages ou commentaires d’acheteurs.

Mais les techniques doivent aider à gérer les données, elles doivent également permettre de générer des gains substantiels. McKinsey a calculé que dans l’industrie, le temps de développement pourrait être réduit de 25%, du fait d’une meilleure productivité au niveau du design, de la production et de la distribution. Dans le commerce, les revendeurs seraient plus en phase avec les goûts des consommateurs, ils optimiseraient leurs stocks et pourraient accroître leurs marges nettes de 60%. Dans le secteur public, ces techniques d’analyse des données fluidifieraient les processus administratifs, avec, à la clé, une baisse des coûts de 15 à 20%, soit de 150 à 300 milliards d’euros rien qu’en Europe…

Le Big Data : Un défi à relever… tout de suite !

Autant de paramètres et de contraintes à prendre en compte pour choisir sa solution. Il est indispensable de choisir des technologies logicielles qui permettent de créer,  déployer, gérer et interconnecter les applications plus rapidement. Des solutions performantes, puissantes et fiables qui vous permettront de relever le défi du BigData… tout de suite !

Téléchargez cette ressource

Les mégatendances cybersécurité et cyber protection 2024

Les mégatendances cybersécurité et cyber protection 2024

L'évolution du paysage des menaces et les conséquences sur votre infrastructure, vos outils de contrôles de sécurité IT existants. EPP, XDR, EDR, IA, découvrez la synthèse des conseils et recommandations à appliquer dans votre organisation.

Data - Par Sylvain Cortes - Publié le 11 février 2013