Les cyberattaques ont augmenté de 150 % en seulement quatre ans, passant de 818 par organisation en 2021 à près de 2 000 cette année, selon le Forum économique mondial (WEF)
Alliée ou menace ? Comment l’IA redessine le paysage cyber
Ouyang Xin, General Manager of Security Products chez Alibaba Cloud Intelligence partage son analyse du sujet.
Une dynamique qui touche toutes les organisations et en particulier les petites entreprises, qui sont sept fois plus susceptibles de déclarer une cyber-résilience insuffisante qu’en 2022. Dans ce contexte tendu, les outils d’intelligence artificielle jouent un rôle majeur, aussi bien dans la hausse du volume d’attaques que dans leur sophistication.
Les risques émergent désormais à tous les niveaux des technologies IA, depuis les attaques par injection de prompts et les fuites de données, jusqu’au scraping automatisé et les deepfakes plus crédibles que jamais. Un récent rapport montre que les attaquants exploitent déjà les grands modèles de langage (LLM) pour mener des campagnes de phishing difficiles à distinguer du réel et automatiser des opérations de social engineering à grande échelle. Le paysage des menaces évolue désormais plus vite que la capacité des équipes humaines à réagir.
L’IA crée de nouveaux vecteurs d’attaque
Les systèmes IA reposent sur plusieurs couches, chacune avec ses propres vulnérabilités. Dans l’environnement technique qui réunit calcul, réseau et stockage, on retrouve les mêmes risques que dans l’IT classique, mais la rapidité et la densité des workloads IA compliquent la détection.
Injections de requêtes, contournement des garde-fous et exfiltration de données sont autant de risques mis en avant dans le top 10 de l’OWASP (Open Worldwide Application Security Project) pour les applications LLM. Le contexte autour du modèle devient lui aussi une cible, car le contrôler revient souvent à influer sur l’information elle-même. Les outils et les intégrations constituent un autre point d’entrée, et une API trop permissive ou un agent IA mal protégé peuvent suffire à exposer un workflow complet. La vulnérabilité ne tient donc pas à un point faible isolé, mais à l’ensemble de l’architecture.
La surface d’attaque s’étend dans toutes les directions, et avec elle, le besoin de défenses plus intelligentes. La solution n’est pas d’abandonner l’IA, mais d’utiliser l’IA pour sécuriser l’IA. Un cadre de sécurité complet doit donc couvrir l’ensemble de son cycle de vie, en protégeant les trois couches essentielles : l’infrastructure du modèle, le modèle lui-même et les applications.
Heureusement, l’IA est désormais l’une des principales priorités d’investissement des RSSI selon une enquête de PwC, signe que les entreprises commencent à considérer la cyber-résilience comme un système qui doit apprendre en continu. Et sur le terrain, les équipes de sécurité peuvent désormais s’appuyer sur des mécanismes capables d’analyser les prompts, de détecter les usages suspects des API et d’assurer la traçabilité des contenus générés.
Le shadow AI gagne du terrain
Le phénomène de shadow AI ou « IA fantôme » s’installe discrètement dans les réseaux d’entreprise. De nombreux employés utilisent des outils génératifs pour résumer des rapports, écrire du code ou analyser des données clients sans autorisation ni contrôle. D’après un rapport de Netskope, près de 90 % des entreprises recourent à des applications d’IA générative, et plus de 70 % de ces usages relèvent du shadow AI. Chaque prompt non supervisé ou plug-in non vérifié devient alors une source potentielle de fuite de données.
Plus les organisations dépendent de l’IA, plus elles étendent leur surface d’exposition et plus les conséquences d’une faille peuvent devenir sérieuses. Les gouvernements ont commencé à identifier ce risque et les règles qui émergent imposeront aux organisations de démontrer régulièrement leur conformité, tout en gardant une visibilité complète sur leurs systèmes. Intégrer la sécurité dès le développement, adopter une approche zero trust et surveiller les modèles comme des composants vivants devient nécessaire.
La sécurité numérique reposera sur une complémentarité entre intuition humaine et capacités techniques. Les organisations doivent former leurs équipes, adapter leurs infrastructures et instaurer une culture de transparence. Les mêmes algorithmes qui permettent des attaques plus élaborées peuvent aussi renforcer les défenses.
Reste à savoir si les entreprises investiront assez vite pour laisser l’intelligence (plutôt que l’inertie) définir la prochaine étape de la cybersécurité.
Téléchargez cette ressource
Guide de Threat Intelligence contextuelle
Ce guide facilitera l’adoption d’une Threat Intelligence - renseignement sur les cybermenaces, cyberintelligence - adaptée au "contexte", il fournit des indicateurs de performance clés (KPI) pour progresser d' une posture défensive vers une approche centrée sur l’anticipation stratégique
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Cloud 2026 : 5 tendances à anticiper pour les PME françaises
- Les DSI français face au défi de l’IA : ambitions élevées, marges de manœuvre limitées
- Connectivité et impression sans contrainte : repenser la gestion documentaire en 2026
- Souveraineté numérique : réinvestir les fondations pour sortir de la dépendance à Microsoft
Articles les + lus
CES 2026 : l’IA physique et la robotique redéfinissent le futur
Les 3 prédictions 2026 pour Java
Semi-conducteurs : comment l’Irlande veut contribuer à atténuer la pénurie mondiale de puces
Face à l’urgence écologique, l’IT doit faire sa révolution
D’ici 2030, jusqu’à 90 % du code pourrait être écrit par l’IA, pour les jeunes développeurs, l’aventure ne fait que commencer
À la une de la chaîne Tech
- CES 2026 : l’IA physique et la robotique redéfinissent le futur
- Les 3 prédictions 2026 pour Java
- Semi-conducteurs : comment l’Irlande veut contribuer à atténuer la pénurie mondiale de puces
- Face à l’urgence écologique, l’IT doit faire sa révolution
- D’ici 2030, jusqu’à 90 % du code pourrait être écrit par l’IA, pour les jeunes développeurs, l’aventure ne fait que commencer
