> Cloud > Les 3 stratégies pour exploiter correctement les données

Les 3 stratégies pour exploiter correctement les données

Cloud - Par Sabine Terrey - Publié le 07 juillet 2021
email

A l’heure où 13% seulement des entreprises françaises accordent une importance cruciale aux données, il est urgent de concilier réalité, technologies, compétences et processus pour que les données ne soient plus un obstacle à la transformation.

Les 3 stratégies pour exploiter correctement les données

Face au volume et à la diversité des données, le manque de compétences, le cloisonnement et les problématiques de confidentialité refont surface. De plus, la surcharge de données / l’incapacité à les analyser sont perçues comme le 3e obstacle à la transformation digitale dans le monde – N°2 en France.

Perception, technologies et compétences !

Si pour 64 % (France – 59 %) se disant « data driven », les données sont primordiales au fonctionnement de l’entreprise, 23 % (France – 13%) donnent une importance capitale aux données et la priorité à leur usage.

En outre, 87 % (France – 93%) n’ont pas progressé dans les processus et technologies liés à l’exploitation des données et/ou dans la culture et les compétences. 13 % seulement (France – 7%) atteignent la catégorie Data Champions, (entreprises activement impliquées dans ces deux domaines.

Collecte, stockage et analyse

71 % (France – 75%) collectent des données plus rapidement qu’ils ne peuvent les analyser et exploiter, mais 66 % (France – 70%) ont besoin de quantités de données que les capacités actuelles ne sont pas en mesure de fournir.

Pourquoi ces difficultés liées au volume des données ? Voici les raisons :

  • Stockage d’une grande quantité de données dans des datacenters détenus ou contrôlés
  • Manque d’intérêt du leadership
  • Stratégie IT impossible à déployer à grande échelle

(ajout de data lakes au lieu d’une consolidation des ressources existantes)

  • Difficulté à respecter les exigences de sécurité et de conformité
  • Des équipes submergées

Téléchargez gratuitement cette ressource

Observabilité 2.0 : 5 défis à relever

Observabilité 2.0 : 5 défis à relever

Microservices, containers, infrastructures cloud « software-defined »... ces innovations créent une complexité extrême à l’échelle du web et étendent considérablement le périmètre d’observabilité. Comment identifier et relever ces nouveaux défis ?

Conscience et inaction

Peu ont migré la majorité des applications et infrastructures vers des modèles « as-a-service » (20% / France – 11%). Toutefois, cette transition leur permettrait de

  • gagner en agilité
  • s’adapter à l’évolution des demandes client
  • activer des applications rapidement et facilement
  • surmonter les obstacles à collecter, analyser et exploiter efficacement les données, à savoir :

coûts de stockage élevés, entrepôt de données non optimisé, infrastructure IT obsolète, processus manuels


Les 3 stratégies pour passer à l’action !

Malgré les contraintes, les entreprises entendent déployer le machine learning pour automatiser la détection des données anormales, passer à un modèle data-as-a-service et réaliser une analyse de la grille de performance.

Voici trois axes à garder en tête :

  • Moderniser l’architecture IT pour exploiter les données à la source la périphérie
  • Optimiser les pipelines de données

(libre circulation en toute sécurité et enrichissement avec l’IA et l’apprentissage automatique)

  • Développer des logiciels pour offrir aux clients les expériences personnalisées et intégrées

 

Source Forrester & Dell Technologies – 4 036 décideurs data dans 45 pays – 

Cloud - Par Sabine Terrey - Publié le 07 juillet 2021