Dans les grandes entreprises, des données sensibles sont partagées avec des applications d’IA générative chaque heure dans une journée de travail.
Le code source, catégorie de données sensibles partagée sur ChatGPT
Pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT.
De plus, l’utilisation des applications d’IA générative a augmenté de 22,5 % au cours des deux derniers mois.
Usage croissant des applications d’IA
Les entreprises d’au moins 10 000 collaborateurs emploient en moyenne cinq IA applicatives par jour, ChatGPT comptant plus de huit fois plus d’utilisateurs quotidiens actifs que toute autre application.
Au cours des deux derniers mois, Google Bard est l’application d’IA qui a enregistré la croissance la plus soutenue, avec une hausse hebdomadaire du nombre d’utilisateurs de 7,1 %, contre 1,6 % pour ChatGPT. Google ne devrait pas rattraper ChatGPT avant plus d’un an.
Le monde des applications d’IA générative va probablement évoluer de façon significative au cours de cette période, un grand nombre de plateformes étant en cours de développement.
ChatGPT alimenté en données sensibles
Les codes source sont publiés dans ChatGPT, plus que tout autre type de données sensibles, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs.
Parmi les autres données confidentielles partagées sur ChatGPT figurent
- des données réglementées, notamment financières, ou médicales
- des informations personnellement identifiables (IPI)
- des blocs de propriété intellectuelle
Selon Ray Canzanese, Threat Research Director, Netskope Threat Labs , « il est impératif que les entreprises mettent en place des contrôles autour de l’IA afin de pallier toute fuite de données sensibles, l’objectif ultime étant de déployer des contrôles qui permettent aux utilisateurs de bénéficier des avantages de l’intelligence artificielle en rationalisant les opérations et en améliorant leur efficacité, tout en atténuant les risques »
Bloquer ou permettre l’accès à ChatGPT
Les données collectées par Netskope montrent que dans des secteurs fortement réglementés tels que les services financiers et la santé :
- près d’une entreprise sur cinq interdit purement et simplement à ses employés d’utiliser ChatGPT, contre seulement une sur vingt dans le secteur technologique.
Les entreprises doivent centrer leur approche sur
- l’identification des applications autorisées
- la mise en place de contrôles permettant aux utilisateurs d’en exploiter pleinement le potentiel
- le filtrage de domaines
- le filtrage des adresses URL
- l’inspection des contenus pour neutraliser les attaques
D’autres mesures sont indispensables :
- Le blocage de l’accès aux applications qui ne répondent à aucun objectif professionnel légitime ou présentent un risque disproportionné pour l’entreprise
- L’encadrement des utilisateurs et le rappel des règles de l’entreprise relatives à l’utilisation des applications d’IA
- L’utilisation de technologies de prévention des pertes de données de nouvelle génération
Source Etude Netskope Threat Labs – Cloud & Threat Report: AI Apps in the Enterprise
Téléchargez cette ressource
Sécuriser Microsoft 365 avec une approche Zero-Trust
Découvrez comment renforcer la cyber-résilience de Microsoft 365 grâce à une approche Zero-Trust, une administration granulaire et une automatisation avancée. La technologie Virtual Tenant de CoreView permet de sécuriser et simplifier la gestion des environnements complexes, tout en complétant vos stratégies IAM, y compris dans les secteurs réglementés.
Les articles les plus consultés
- 10 grandes tendances Business Intelligence
- Les projets d’intégration augmentent la charge de travail des services IT
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Dark Web : où sont vos données dérobées ?
- La blockchain en pratique
Les plus consultés sur iTPro.fr
- Akamai Technologies déploie sa stratégie de protection en ligne
- Baromètre channel IT : fin du cuivre, essor de UCaaS et premiers pas vers l’IA
- Fraude par identité synthétique : comment l’IA peut redonner confiance aux entreprises et à leurs clients
- VirtualBrowser protège la navigation web à la source
Articles les + lus
Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
Construire la souveraineté numérique en Europe grâce à un écosystème ouvert et collaboratif
À la une de la chaîne Data
- Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
- Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
- Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
- Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
- Construire la souveraineté numérique en Europe grâce à un écosystème ouvert et collaboratif
