> Data > L’extraction de la valeur des All Data passe par 3 technologies majeures

L’extraction de la valeur des All Data passe par 3 technologies majeures

Data - Par Jérôme Besson - Publié le 08 avril 2016
email

La Direction des Systèmes d’Information est confrontée plus que jamais à un SI multi-modal.

L’extraction de la valeur des All Data passe par 3 technologies majeures

Chahuté entre le SI traditionnel (2.0), porteur historique de la logique des processus, des données transactionnelles et des référentiels d’entreprise et le SI du nouveau monde digital (3.0), porteur des nouveaux usages omni-canaux et terre d’accueil des Big Data. Pour articuler et faire cohabiter sans couture ces mondes à 2 vitesses, les entreprises doivent porter leurs efforts, au-delà des technologies d’interopérabilité de ce System-of-Systems (e.g. API Mngt, ESB, IAM, Data Lake) sur les technologies du System-of-Insight capables d’extraire de la valeur sans latence métier de toutes les données et évènements à leur disposition et ce, au plus près de leur occurrence lorsque les usages le nécessitent. Une valeur qui ne découle pas uniquement de l’analyse des Big Data (e.g Tweets, Likes, Video, GPS Data) mais de l’ensemble des données de l’entreprise quelle que soit leur lieu de résidence SI. 

Pour traiter de façon efficace ces All Data, les entreprises ont à leur disposition 3 gammes de technologies complémentaires :

  • 1.  Les technologies d’Event Processing : La première de ces technologies est celle permettant d’analyser en masse des évènements. Avec l’explosion du nombre de composants produisant et/ou consommant des données, le volume d’évènements à suivre croît au même titre que les données de façon exponentielle. S’assurer de la légitimité de leur occurrence unitaire et/ou corrélativement à d’autres évènements, écarter les évènements indésirables avant qu’ils ne déstabilisent le SI, détecter des conjonctions d’évènements à valeur métier, détecter des cyberattaques le plus en amont possible, nourrir les plateformes d’orchestration de processus avec le juste niveau d’évènement pour qu’elles se concentrent sur leur primo-vocation de pilotage de l’exécution des activités métiers, déclencher des processus ad-hoc pour le traitement de situations imprévues, produire des nouveaux évènements à valeur métier forte…démontrent non seulement que le nombre de cas d’usage ne manquent pas, mais que l’Event Processing va devenir une fondation majeure et centrale du système d’information.
 
  • 2. Les technologies de Data Stream Processin : La deuxième est celle permettant d’analyser en masse les données en mouvement et en particulier les Big Data (Stream Analytics). Elle est complémentaire de la précédente car elle permet d’analyser en temps réel des flux continus de données (e.g. video data, voice data, IoT data) et pas seulement des évènements unitaires comme la précédente. Par l’observation et l’analyse des données, elle permet de générer des évènements qui traitent efficacement des situations aux conséquences critiques pour l’entreprise (e.g. propagation virale d’un buzz négatif produits/services vs l’image de marque de l’entreprise, augmentation soudaine d’une demande de produits versus la supply chain).
 
  • 3. Les technologies de Machine Intelligence : La dernière est celle permettant de les interpréter et d’y apporter une réponse dans le bon momentum et à un coût économiquement viable. Les entreprises doivent commencer à s’intéresser de près aux technologies de Machine Intelligence, seules capables de traiter en masse des volumes aussi massifs que disparates. Ces dernières, qui visent à exploiter les mécanismes d’apprentissage et de raisonnement du cerveau humain (e.g. Deep learning) ont franchis un cap avec la meilleure compréhension des mécanismes du cerveau et leurs transpositions logicielles ont produit des résultats qui surpassent dans un certain nombre de cas d’usage les approches algorithmiques traditionnelles (e.g. Statistical Analysis, Baysian Hierarchical Network). Ainsi, plutôt que de se lancer dans une quête à l’algorithme miracle, pourquoi ne pas apprendre à une machine à apporter des réponses aux questions que l’on se pose ?

Téléchargez gratuitement cette ressource

Le Guide Server & Data center

Le Guide Server & Data center

Le Nouveau Guide Atlassian Server & Data center liste les meilleures pratiques et solutions pour libérer le potentiel de toutes les équipes. Découvrez, pas à pas, comment fluidifier l’organisation, accentuer la communication et la collaboration. Plus de 100 000 entreprises dans le monde, comme Coca Cola, Visa ou BMW utilisent des produits de gestion des services, de communication en temps réel, de partage et de création de contenu et de suivi de projets d'Atlassian pour gagner en efficacité, notamment Jira Software, Confluence, Crowd, Trello, Bitbucket, Jira ServiceDesk et Bamboo. Découvrez les meilleures pratiques.

Data - Par Jérôme Besson - Publié le 08 avril 2016