Dans les grandes entreprises, des données sensibles sont partagées avec des applications d’IA générative chaque heure dans une journée de travail.
Le code source, catégorie de données sensibles partagée sur ChatGPT
Pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT.
De plus, l’utilisation des applications d’IA générative a augmenté de 22,5 % au cours des deux derniers mois.
Usage croissant des applications d’IA
Les entreprises d’au moins 10 000 collaborateurs emploient en moyenne cinq IA applicatives par jour, ChatGPT comptant plus de huit fois plus d’utilisateurs quotidiens actifs que toute autre application.
Au cours des deux derniers mois, Google Bard est l’application d’IA qui a enregistré la croissance la plus soutenue, avec une hausse hebdomadaire du nombre d’utilisateurs de 7,1 %, contre 1,6 % pour ChatGPT. Google ne devrait pas rattraper ChatGPT avant plus d’un an.
Le monde des applications d’IA générative va probablement évoluer de façon significative au cours de cette période, un grand nombre de plateformes étant en cours de développement.
ChatGPT alimenté en données sensibles
Les codes source sont publiés dans ChatGPT, plus que tout autre type de données sensibles, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs.
Parmi les autres données confidentielles partagées sur ChatGPT figurent
- des données réglementées, notamment financières, ou médicales
- des informations personnellement identifiables (IPI)
- des blocs de propriété intellectuelle
Selon Ray Canzanese, Threat Research Director, Netskope Threat Labs , « il est impératif que les entreprises mettent en place des contrôles autour de l’IA afin de pallier toute fuite de données sensibles, l’objectif ultime étant de déployer des contrôles qui permettent aux utilisateurs de bénéficier des avantages de l’intelligence artificielle en rationalisant les opérations et en améliorant leur efficacité, tout en atténuant les risques »
Bloquer ou permettre l’accès à ChatGPT
Les données collectées par Netskope montrent que dans des secteurs fortement réglementés tels que les services financiers et la santé :
- près d’une entreprise sur cinq interdit purement et simplement à ses employés d’utiliser ChatGPT, contre seulement une sur vingt dans le secteur technologique.
Les entreprises doivent centrer leur approche sur
- l’identification des applications autorisées
- la mise en place de contrôles permettant aux utilisateurs d’en exploiter pleinement le potentiel
- le filtrage de domaines
- le filtrage des adresses URL
- l’inspection des contenus pour neutraliser les attaques
D’autres mesures sont indispensables :
- Le blocage de l’accès aux applications qui ne répondent à aucun objectif professionnel légitime ou présentent un risque disproportionné pour l’entreprise
- L’encadrement des utilisateurs et le rappel des règles de l’entreprise relatives à l’utilisation des applications d’IA
- L’utilisation de technologies de prévention des pertes de données de nouvelle génération
Source Etude Netskope Threat Labs – Cloud & Threat Report: AI Apps in the Enterprise
Téléchargez cette ressource
Plan de sécurité Microsoft 365
Les attaquants savent comment prendre le contrôle de votre tenant Microsoft 365, et vous, savez-vous comment le reprendre en main ?
Les articles les plus consultés
- Databricks lève 1 milliard de dollars !
- Les projets d’intégration augmentent la charge de travail des services IT
- L’utilisation des données pour survivre !
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Dark Web : où sont vos données dérobées ?
Les plus consultés sur iTPro.fr
- Semperis : gouverner l’identité à l’ère des agents IA
- Analyse Patch Tuesday Mars 2026
- Une nouvelle ère de la modernisation du mainframe
- Akamai Technologies déploie sa stratégie de protection en ligne
Articles les + lus
Fuites de données : la France, 2ème pays le plus touché au monde début 2026
Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
À la une de la chaîne Data
- Fuites de données : la France, 2ème pays le plus touché au monde début 2026
- Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
- Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
- Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
- Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
