Entreprise française créée en 2019, Datanexions conçoit des solutions technologiques innovantes. Objectif : accélérer la valorisation des données en renforçant la performance, la modularité et la souveraineté numérique. Avec le lancement de Streams, plateforme no-code, orientée objet, pour orchestrer l’intégralité du traitement des données, l’entreprise propose une nouvelle façon de penser l’ETL (Extract, Transform, Load). Entretien avec Guy Tsanga Kepeden, fondateur de Datanexions pour en savoir plus sur cette pépite.
Datanexions, acteur clé de la transformation numérique data-centric

Quelques mots sur Datanexions ?
Datanexions est une entreprise technologique française indépendante, fondée en 2019 par une équipe d’experts issus des domaines du conseil, de l’ingénierie logicielle et de l’architecture data.
L’ambition fondatrice reste inchangée : démocratiser l’accès aux données, simplifier leur exploitation et garantir leur qualité dans les environnements professionnels les plus exigeants. À l’heure où la donnée est un levier stratégique pour la prise de décision, la performance et la conformité, Datanexions se positionne comme un acteur clé de la transformation numérique data-centric.
La société s’appuie sur une équipe pluridisciplinaire composée d’ingénieurs, de développeurs, de data architects mais aussi de consultants métiers, capables de faire le lien entre technologie et finalité opérationnelle. C’est cette capacité à conjuguer vision technique et sens métier qui permet à Datanexions de proposer des solutions à la fois performantes, intuitives et durables.
L’approche de Datanexions repose sur une double expertise. La maîtrise des technologies modernes : cloud computing, big data, modèles hybrides SQL/NoSQL, APIs RESTful, entre autres. Ainsi qu’une compréhension fine des enjeux métiers contemporains : pilotage en temps réel, gouvernance de la donnée, exigence réglementaire, ou encore réduction de la dette technique. Le tout dans une logique de souveraineté numérique et d’agilité organisationnelle.

Comment accompagnez-vous les entreprises sur l’ensemble du cycle de vie des données ?
Datanexions propose une approche globale et modulaire de la gestion des données, qui s’étend de la collecte initiale jusqu’à la restitution finale, en passant par toutes les étapes critiques du traitement et de la gouvernance. Ce cycle de vie repose sur cinq piliers fondamentaux.
Le premier est la collecte des données. Les architectures actuelles sont hybrides par nature : elles mêlent bases de données relationnelles, systèmes NoSQL, fichiers plats, services web, applications SaaS. Nous sommes capables de nous connecter à l’ensemble de ces sources, qu’elles soient locales ou dans le cloud, modernes ou patrimoniales. Cette interopérabilité est essentielle dans des systèmes d’information de plus en plus distribués.
Le deuxième pilier est la transformation. Cette étape est clé pour passer de données brutes à des objets métier exploitables. Elle inclut le nettoyage, l’enrichissement, l’application de règles de gestion, la normalisation, ou encore le calcul de KPIs spécifiques. Nous nous appuyons ici sur un moteur déclaratif puissant, qui permet de structurer les flux sans codage, tout en intégrant une logique métier compréhensible par tous les acteurs.
Troisièmement, le chargement vers les systèmes cibles (data lakes, data hubs, entrepôts analytiques, outils BI) est réalisé de manière automatisée et conforme aux standards de l’entreprise.
Nous assurons également la gouvernance via des mécanismes de traçabilité (data lineage), de documentation automatique, de validation structurelle, et de respect des règles de conformité (RGPD, ISO 27001, Solvabilité II…).
Enfin, la restitution permet de rendre les données disponibles via des APIs ou des interfaces de visualisation. L’objectif est de favoriser l’accès en libre-service pour les équipes métiers, d’accélérer les cycles de production de valeur, et de renforcer la collaboration entre IT et métiers.
L’accompagnement de nos clients se fait selon trois modalités : en mode projet classique, en assistance technique continue, ou en co-construction agile avec les équipes internes. Notre objectif reste toujours le même : permettre à nos clients d’industrialiser leurs flux tout en gagnant en autonomie.
Vous venez de lancer Streams, ETL no code qui apparaît comme une solution simple et intuitive. Qu’apporte-t-il concrètement ?
Streams est une réponse directe aux limites des ETL traditionnels. Il s’agit d’une plateforme no-code, orientée objet, conçue pour orchestrer l’intégralité du traitement des données, de l’ingestion jusqu’à la restitution. Là où les outils classiques se concentrent sur des logiques tabulaires et linéaires, Streams adopte une vision modulaire et déclarative. Cette approche permet de manipuler des objets métiers complexes, construits à partir de sources multiples, tout en garantissant la cohérence, la traçabilité et la gouvernance de bout en bout.
L’un des grands apports de Streams réside dans sa capacité à modéliser des entités complètes, telles qu’un dossier client, un contrat, ou une commande, en agrégeant automatiquement des informations issues de bases relationnelles, de documents NoSQL, ou d’APIs. Cette modélisation repose sur un moteur déclaratif qui applique des règles métier, fusionne les données, calcule des indicateurs, et produit des objets directement exploitables, sans intervention manuelle.
La restitution se fait sous forme d’APIs générées dynamiquement, prêtes à être intégrées dans des applications ou exposées à des partenaires. Ce mode de diffusion garantit la fraîcheur, la sécurité et la cohérence des informations. Streams se distingue également par sa capacité à tracer chaque transformation, chaque enrichissement, et à appliquer des règles de gouvernance à chaque étape. Cela permet aux DSI de garantir la conformité et la qualité des données diffusées, tout en gardant un contrôle précis sur les flux.
Concrètement, Streams répond à des besoins très variés : unification des données pour construire des vues transverses dans un data hub, transformation d’objets pour l’alimentation de data warehouses, préparation de datasets pour la data science, ou encore mise en œuvre de contrôles qualité automatisés. Ce qui en fait un outil stratégique pour les directions informatiques confrontées à l’hybridation croissante des architectures et à la nécessité de rapprocher les mondes techniques et métier.
Streams propose une nouvelle manière de penser l’ETL : plus agile, plus lisible, et surtout plus alignée sur les enjeux actuels des systèmes d’information. Son approche no-code, combinée à une architecture orientée objet, permet de gagner en performance, en gouvernance et en capacité d’innovation.
Téléchargez cette ressource

Rapport Forrester sur les services de réponse aux incidents de cybersécurité
Dans ce rapport, basé sur 25 critères, Forrester Consulting passe au crible les 14 principaux fournisseurs de services de réponse aux incidents de cybersécurité du marché. Cette analyse complète permet aux professionnels de la sécurité et de la gestion des risques d’évaluer et de sélectionner les solutions les plus adaptées à leurs besoins.
Les articles les plus consultés
- L’utilisation des données pour survivre !
- 10 grandes tendances Business Intelligence
- Les projets d’intégration augmentent la charge de travail des services IT
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
Les plus consultés sur iTPro.fr
- L’IA agentique ouvre la voie à davantage d’alliances stratégiques et d’intégrations technologiques
- Oneytrust, la fintech française référente de la lutte contre la fraude bancaire & e-commerce fête ses 25 ans !
- Prendre en compte le développement durable est un facteur de réussite
- L’IA et le machine learning au service d’une cybersécurité préventive
- 90 % des responsables IT et sécurité signalent une cyberattaque en 2024
Sur le même sujet

Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises

Les projets d’intégration augmentent la charge de travail des services IT

ActiveViam fait travailler les data scientists et les décideurs métiers ensemble

La blockchain en pratique

10 grandes tendances Business Intelligence
