> Tech > IBM IOD 2012 – « Plus d’analyse avec moins de personnes et moins de ressources »

IBM IOD 2012 – « Plus d’analyse avec moins de personnes et moins de ressources »

Tech - Par Guillaume Rameaux - Publié le 29 octobre 2012
email

Face à la baisse des budgets IT et à l’implication de plus en plus grandes des divisions métier, IBM souhaite offrir des solutions de plus en plus simples, nécessitant moins de compétences techniques et moins de professionnels informatiques pour les gérer. Rencontré à l’occasion de la conférence IOD (Information On Demand), Phil Francisco, responsable des produits Big data chez IBM, nous explique la stratégie de Big Blue.

IBM IOD 2012 – « Plus d’analyse avec moins de personnes et moins de ressources »

Rencontré à l’occasion de la conférence IOD 2012 (Information On Demand), Phil Francisco, responsable des produits Big data chez IBM, nous explique la stratégie de Big Blue.

iTPRo.fr : Par où faut-il commencer un projet Big Data ?

Phil Franciso : Le défi est aujourd’hui de comprendre comment les entreprises peuvent tirer parti de leurs données pour améliorer les offres clients, comprendre de quoi les clients parlent et leur ressenti. Nous avons des outils qui permettent d’exploiter les nouveaux flux de données. IBM a par exemple racheté Vivisimo. Ces technologies permettent d’extraire des données issues de LinkedIn ou Facebook et de les envoyer dans en environnement Hadoop, comme la plateforme BigInsights, et de les intégrer à l’entrepôt de données. Il devient alors possible de relier le ressenti exprimé par les clients aux produits qu’ils achètent et aux services qu’ils utilisent afin d’obtenir une vision plus claire de son marché. C’est un bon point de départ.

Les budgets IT se réduisent dans de nombreuses entreprises, entraînant des diminutions du personnel informatique. Est-ce qu’un métier peut réaliser ces analyses ?

Il existe aujourd’hui un très haut niveau d’expertise dans le monde de l’analyse de données. Notre but est de créer des systèmes plus simples à utiliser et à déployer. Les solutions lancées par IBM et par d’autres acteurs sont basées sur notre connaissance de l’utilisation des anciens systèmes. Nous sommes maintenant en mesure de fournir un modèle au client pour qu’il n’ait pas à partir de zéro. Ils ne débutent pas par le commencement mais par quelque chose déjà maîtrisé. Un bon exemple : l’appliance Digital Analytics. Elle intègre les technologies Unica dans les PureData Systems pour offrir aux responsables marketing des services web de gestion de campagne. Le client n’a pas besoin de savoir comment construire ces outils puisque nous avons intégré notre expertise dans la machine. Nous essayons de faire plus d’analyse avec moins de personnes et moins de ressources.

Quelle est votre perception du marché européen du Big data ?

Il y a actuellement des difficultés macro-économiques en Europe mais il s’agit toujours d’un marché important et particulièrement dans le domaine du Big data. Les entreprises comprennent que pour réussir, elles doivent déployer des outils pour analyser les données qu’elles collectent et aider leurs équipes à prendre les bonnes décisions. C’est très important en ce moment car on ne peut pas se permettre de faire le mauvais choix dans un contexte économique difficile.

Pensez-vous pouvoir attendre le marché des PME avec une solution d’analyse en mode cloud comme Analytic Answers ?

Nos solutions nous permettent d’adresser les plus grandes entreprises du Fortune 100 aussi bien que les petites et moyennes sociétés. Il s’agira simplement de canaux de vente différents.

Toujours concernant l’offre Analytics Answers, il est peu probable que les entreprises charge des quantités massives de données dans SmartCloud. Est-ce qu’on peut encore parler de Big data sans la notion de volume ?

La notion de Big data dépend de la vision du client. Pour certaines entreprises, le Big data peut représenter un téraoctet de données. Pour d’autres, un téraoctet peut représenter un volume quotidien d’information. Le New York Stock Exchange collecte entre 2 et 8 téraoctets par jour. Il n’existe pas de nombre magique pour définir la limite du Big data. Il ne s’agit pas seulement de la quantité de données traitée mais aussi de la rapidité avec laquelle la donnée arrive, de la vitesse à laquelle il faut prendre une décision, des différents types de données qu’il faut gérer, de la confiance que je donne à telle ou telle source,… Volume, vélocité et variété sont à prendre en compte.

Qu’est-ce qui différencie un IBM PureData System d’un Oracle Exadata System ?

Sur la partie transactionnelle, il y a déjà les capacités de consolidation. Plus de cent bases de données peuvent être consolidées sur un seul PureDataSystem for Transactions.  Ensuite, nous donnons la possibilité de déployer une nouvelle base de données ou d’étendre une base existante sur un cluster en utilisant des modèles très simples en seulement quelques minutes. Avec une technologie Oracle les configurations peuvent prendre plusieurs semaines.

Il y a également la notion de scalabilité. Si l’on prend le cas d’une société de carte de paiement par exemple. Le traitement doit se faire en temps réel pour autoriser ou non une transaction qu’un client est en train de réaliser. Pendant un grand événement sportif, le nombre de transaction va exploser. Le PureData permet d’étendre un cluster en quelques minutes pour augmenter les performances.

Téléchargez gratuitement cette ressource

5 leviers d’évolution Agile

5 leviers d’évolution Agile

Dans ce livre blanc, nous vous expliquons comment déterminer où vous en êtes dans votre parcours Agile, nous vous présentons les méthodes et les outils Atlassian pour soutenir Agile à grande échelle. Découvrez les bonnes pratiques et des conseils experts pour optimiser votre démarche Agile.

Tech - Par Guillaume Rameaux - Publié le 29 octobre 2012