> Data > Informatica, rendre le Big Data « opérationnel »

Informatica, rendre le Big Data « opérationnel »

Data - Par Sabine Terrey - Publié le 26 mars 2015
email

Quelles sont ces entreprises qui brassent autant de données ? Du simple phénomène de mode, est-ce désormais une réalité opérationnelle ?

Informatica, rendre le Big Data « opérationnel »

Le constat est clair, on note en France une évolution du Big Data qui prend place et se dessine petit à petit au sein des entreprises. Bruno Labidoire, directeur technique EMEA chez Informatica, a accepté de revenir sur le sujet pour IT Pro Magazine et soulève un autre point, et non des moindres, à savoir  la problématique de la sécurité !

Le Big Data en phase pilote

Il y a un an, les projets concrets étaient bien peu nombreux, les entreprises se trouvaient alors dans des phases de veille technologique, de compréhension, d’étude de solutions, et de tests. Aujourd’hui, la réalité est tout autre, « nous voyons poindre des projets tout à fait concrets avec des phases pilotes pour tester les avantages du Big Data et envisager ensuite la mise en œuvre, notamment dans le domaine de la Finance ». Pour toutes ces entreprises visées par la régulation, la problématique de mettre en place des visions transverses des données se peaufine et s’apparente donc au Big Data. Prendre le contenu de plusieurs systèmes opérationnels et datawarehouse, rassembler le tout dans un gisement unique pour sortir les analyses approfondies et reporting nécessaires pour être en phase avec les régulations.

« Aujourd’hui, nous avons des pilotes en cours avec des clients finance en Europe du Sud » souligne Bruno Labidoire. On parle de 10 à 20 Terabytes d’ordre de grandeur dans les pilotes. Après cette phase d’obtention des résultats escomptés et des bénéfices attendus, ils passeront à des phases de production. Les phases pilote (3 à 6 mois) dépendent évidemment de rythme des clients qui doivent impliquer les métiers. « Au deuxième trimestre 2015, nous aurons donc des clients en phase de production de projets Big Data ». Il s’agit donc des projets novateurs !

D’autres clients considèrent différemment le Big Data et le perçoivent comme une optimisation de projets existants. Dans le cas de datawarehouse et de non-satisfaction des temps de traitement (consolidations de nuit par exemple), les clients mènent des pilotes de revamping (applications classiques datawarehouse sur des bases du marché en les passant au Big Data) pour profiter de la puissance de traitement parallèle et raccourcir les fenêtres de temps de traitement.

« Les DSI sont plus que jamais mises sous pression et voient le Big Data comme une opportunité d’avoir de meilleures performances à un coût tout à fait compétitif et donner aux appliances un rôle plus verticalisé » commente Bruno Labidoire.

Quelle sécurité sur les gisements de données ?

L’avantage du Big Data est le regroupement des données en un seul endroit, il est ainsi plus aisé de sécuriser l’accès à ce gisement sans besoin de politiques de sécurité multiples. Cette centralisation inhérente au Big Data apporte un avantage conséquent. « Toutefois, quand on fait du Big Data, une partie des données est répliquée, à ce niveau, un risque est introduit puisqu’il faut de nouveau protéger ces données » ajoute Bruno Labidoire. Il faut donc penser à intégrer une sécurité correspondante dans le gisement Big Data.

Grâce aux outils opérationnels et analytiques d’Informatica, les clients peuvent assurer cette sécurité. Le côté opérationnel permet de masquer les données dynamiquement. La visibilité des données s’avère plus ou moins complète en fonction du profil de l’utilisateur, l’information est ainsi privatisée. Dynamic Data Masking (logiciel de masquage dynamique des données) permet de paramétrer les profils des utilisateurs du gisement Big Data et décider ainsi ce qu’ils peuvent visualiser ou non (données ensemblistes ou granulaires). Un bon moyen d’éviter les accès non autorisés aux informations sensibles ! En amont de la mise en œuvre opérationnelle de la sécurité, on note une problématique d’analyse, « face aux divers tables, champs, gisements, un travail d’analyse pour comprendre la sensibilité des données et la sécurité nécessaire, doit être mené »

L’aspect analytique se retrouve ainsi dans le module Secure@Source, disponible début 2015, qui va analyser les gisements de données présents dans le Système d’Information du client (Big Data, bases classiques, applications CRM..), les cartographier, pré-identifier les données sensibles, prendre en compte les spécificités et compléments client, et fournir une vision unique de la criticité des données avant de décider la mise en œuvre opérationnelle de solutions pour sécuriser les données.
Les équipes de développement ont besoin de base de tests dans tout projet, classique ou Big Data. Mais, prendre une base de production pour les environnements test donne un accès non-contrôlé à des données sensibles. Le module Persistent Data Masking élimine ce risque, se positionne sur les phases amont des projets, et masque les données de façon définitive. Au moment du besoin de la base de test et dans le processus de recopie de production à test, il est possible de transformer les valeurs de façon à rendre la donnée inexploitable à des fins frauduleuses, « ce n’est plus la donnée d’origine, elle est masquée et irréversible ».

« Aujourd’hui, il y a un vrai bénéfice à utiliser le Big Data, encore faut-il bien identifier les projets candidats et ne pas sous-estimer les aspects sécurité, les aspects d’alimentation des gisements, l’architecture technique » conclut Bruno Labidoire. Du chargement initial massif des données à la réplication au fil de l’eau, il faut prendre en compte l’impact du Big Data sur le réseau

Téléchargez cette ressource

Préparer l’entreprise aux technologies interconnectées

Préparer l’entreprise aux technologies interconnectées

Avec la « quatrième révolution industrielle », les environnements hyperconnectés entraînent de nouveaux risques en matière de sécurité. Découvrez, dans ce guide Kaspersky, comment faire face à cette nouvelle ère de vulnérabilité.

Data - Par Sabine Terrey - Publié le 26 mars 2015