> Data > Le code source, catégorie de données sensibles partagée sur ChatGPT

Le code source, catégorie de données sensibles partagée sur ChatGPT

Data - Par Sabine Terrey - Publié le 21 août 2023
email

Dans les grandes entreprises, des données sensibles sont partagées avec des applications d’IA générative chaque heure dans une journée de travail.

Le code source, catégorie de données sensibles partagée sur ChatGPT

Pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT.

De plus, l’utilisation des applications d’IA générative a augmenté de 22,5 % au cours des deux derniers mois.

Usage croissant des applications d’IA

Les entreprises d’au moins 10 000 collaborateurs emploient en moyenne cinq IA applicatives par jour, ChatGPT comptant plus de huit fois plus d’utilisateurs quotidiens actifs que toute autre application.

Au cours des deux derniers mois, Google Bard est l’application d’IA qui a enregistré la croissance la plus soutenue, avec une hausse hebdomadaire du nombre d’utilisateurs de 7,1 %, contre 1,6 % pour ChatGPT. Google ne devrait pas rattraper ChatGPT avant plus d’un an.

Le monde des applications d’IA générative va probablement évoluer de façon significative au cours de cette période, un grand nombre de plateformes étant en cours de développement.

ChatGPT alimenté en données sensibles

Les codes source sont publiés dans ChatGPT, plus que tout autre type de données sensibles, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs.

Parmi les autres données confidentielles partagées sur ChatGPT figurent

  • des données réglementées, notamment financières, ou médicales
    • des informations personnellement identifiables (IPI)
    • des blocs de propriété intellectuelle

Selon Ray Canzanese, Threat Research Director, Netskope Threat Labs , « il est impératif que les entreprises mettent en place des contrôles autour de l’IA afin de pallier toute fuite de données sensibles, l’objectif ultime étant de déployer des contrôles qui permettent aux utilisateurs de bénéficier des avantages de l’intelligence artificielle en rationalisant les opérations et en améliorant leur efficacité, tout en atténuant les risques »

Bloquer ou permettre l’accès à ChatGPT

Les données collectées par Netskope montrent que dans des secteurs fortement réglementés tels que les services financiers et la santé :

  • près d’une entreprise sur cinq interdit purement et simplement à ses employés d’utiliser ChatGPT, contre seulement une sur vingt dans le secteur technologique.

Les entreprises doivent centrer leur approche sur

  • l’identification des applications autorisées
    • la mise en place de contrôles permettant aux utilisateurs d’en exploiter pleinement le potentiel
    • le filtrage de domaines
    • le filtrage des adresses URL
    • l’inspection des contenus pour neutraliser les attaques

D’autres mesures sont indispensables :

  • Le blocage de l’accès aux applications qui ne répondent à aucun objectif professionnel légitime ou présentent un risque disproportionné pour l’entreprise
    • L’encadrement des utilisateurs et le rappel des règles de l’entreprise relatives à l’utilisation des applications d’IA
    • L’utilisation de technologies de prévention des pertes de données de nouvelle génération

Source Etude Netskope Threat Labs Cloud & Threat Report: AI Apps in the Enterprise

Téléchargez cette ressource

Préparer l’entreprise aux technologies interconnectées

Préparer l’entreprise aux technologies interconnectées

Avec la « quatrième révolution industrielle », les environnements hyperconnectés entraînent de nouveaux risques en matière de sécurité. Découvrez, dans ce guide Kaspersky, comment faire face à cette nouvelle ère de vulnérabilité.

Data - Par Sabine Terrey - Publié le 21 août 2023