> Data > L’IA générative va-t-elle révolutionner la qualité des données ?

L’IA générative va-t-elle révolutionner la qualité des données ?

Data - Par Sabine Terrey - Publié le 30 juin 2023
email

Doit-on s’attendre à une révolution de la qualité des données par-dessous l’impulsion des modèles qui utilisent l’intelligence artificielle générative comme ChatGPT ? Davide Pelosi, Manager Solutions Engineering, Talend explique notamment l’impact de l’intelligence artificielle générative sur la qualité des données.

L’IA générative va-t-elle révolutionner la qualité des données ?

Si, auparavant, l’IA se cantonnait à l’analyse prédictive, l’industrie des données est entrée dans une ère où l’IA devient générative et créative, devenant un puissant outil de traitement du langage naturel, d’analyse des données et d’automatisation qui façonnera l’avenir de la gestion et de la qualité des données.

Les premiers programmes d’IA à destination ont été développés dans les années 1950 et 1960 pour traiter et analyser les données, en s’appuyant sur des règles, des raisonnements symboliques et des systèmes experts pour faire des déductions et obtenir des informations à partir des données.

Des décisions éclairées

Aujourd’hui, 80,5 % des responsables des données considèrent l’IA/ML comme un domaine d’investissement accru dans les données et l’analytique au cours de l’année 2023, qui sera leur priorité numéro un pour investir pour 16,3% d’entre eux, selon le Data and Analytics Leadership Annual Executive Survey 2023.

La qualité des données, élément essentiel qui permet aux entreprises de prendre des décisions éclairées sur la base d’informations précises, complètes et cohérentes, arrive en deuxième place des priorités pour 10,6% des entreprises. Les données de mauvaise qualité peuvent mener à de mauvaises prises de décision, une perte de revenus ou une atteinte à la réputation d’une entreprise.

Une grande proportion d’entreprises sont aujourd’hui confrontées à des défis liés à l’utilisation de leurs données, et se préoccupent de plus en plus de garantir leur qualité. L’opportunité d’amélioration est donc bien réelle, avec des bénéfices considérables à la clé pour les entreprises qui y parviennent.

Améliorer les workflows de qualité des données

Gartner prévoit que, d’ici 2025, 50 % de toutes les tâches de gestion des données seront automatisées, en grande partie grâce à une automatisation alimentée par l’IA/ML, comme les modèles d’IA générative, dont l’ambition est de bousculer le marché en profondeur. Il est donc temps que les techniques de gestion des données évoluent.

Ce type de technologie révolutionne déjà le monde de l’entreprise, que ce soit sur la création de contenus ou l’automatisation des tâches de développement, et ouvre de nouvelles perspectives en termes d’initiatives de gestion et de qualité des données, en automatisant et en simplifiant les tâches de gestion des données comme jamais auparavant. Les entreprises peuvent ainsi plus facilement garantir l’exactitude, l’exhaustivité et la cohérence de leurs données grâce à une automatisation et une efficacité accrues.

Davide Pelosi – Talend

Comprendre concrètement le concept de qualité des données

Evaluer de façon technique la qualité des données peut passer, dans le cadre d’un workflow, par des algorithmes d’apprentissage automatique qui identifient les anomalies et quantifient la gravité des problèmes. Des modèles de langage génératifs sont ensuite utilisés, sur la base des résultats de l’évaluation, pour suggérer des règles de qualité des données et des transformations dans un texte en langage naturel, que les utilisateurs métiers de l’entreprise peuvent facilement comprendre.

Une fois acceptées, ces règles peuvent être converties en code exécutable (par exemple Python ou SQL). Avant de déployer, il faudra au préalable tester et valider le code en production à l’aide d’un échantillon de données pour s’assurer que les règles fonctionnent comme prévu et que les paramètres de qualité des données sont respectés. Mais une fois cette étape franchie, les données nettoyées peuvent être utilisées pour diverses tâches, de l’analyse et de la visualisation des données, à l’apprentissage automatique et à la veille stratégique.

Une transformation significative 

Le secteur de la gestion et de la qualité des données s’apprête donc à vivre une transformation significative. S’il est vrai que l’utilisation des modèles d’IA générative dans ce domaine en est encore à ses débuts et requiert de nouvelles recherches de la part d’experts du secteur, des projets de recherche et des prototypes qui démontrent le potentiel de ces technologies existent déjà.

Grâce aux possibilités qu’offre l’intelligence artificielle au secteur, l’avenir est plus prometteur que jamais, en attendant d’autres percées dans le monde de la gestion et de la qualité des données.

Téléchargez cette ressource

XDR : 4 bénéfices opérationnels

XDR : 4 bénéfices opérationnels

Avec une solution complète et intégrée, le XDR garantit aux entreprises de toutes tailles une réponse aux menaces les plus sophistiquées en améliorant leur efficacité opérationnelle. Découvrez dans ce nouveau livre blanc Stormshield, pourquoi l’eXtended Detection & Response - XDR - sera le nouveau paradigme de la cybersécurité.

Data - Par Sabine Terrey - Publié le 30 juin 2023