> Tech > Alliée ou menace ? Comment l’IA redessine le paysage cyber

Alliée ou menace ? Comment l’IA redessine le paysage cyber

Tech - Par ITPro Magazine - Publié le 18 février 2026

Les cyberattaques ont augmenté de 150 % en seulement quatre ans, passant de 818 par organisation en 2021 à près de 2 000 cette année, selon le Forum économique mondial (WEF)

Alliée ou menace ? Comment l’IA redessine le paysage cyber

Ouyang Xin, General Manager of Security Products chez Alibaba Cloud Intelligence partage son analyse du sujet.

Une dynamique qui touche toutes les organisations et en particulier les petites entreprises, qui sont sept fois plus susceptibles de déclarer une cyber-résilience insuffisante qu’en 2022. Dans ce contexte tendu, les outils d’intelligence artificielle jouent un rôle majeur, aussi bien dans la hausse du volume d’attaques que dans leur sophistication.

Les risques émergent désormais à tous les niveaux des technologies IA, depuis les attaques par injection de prompts et les fuites de données, jusqu’au scraping automatisé et les deepfakes plus crédibles que jamais. Un récent rapport montre que les attaquants exploitent déjà les grands modèles de langage (LLM) pour mener des campagnes de phishing difficiles à distinguer du réel et automatiser des opérations de social engineering à grande échelle. Le paysage des menaces évolue désormais plus vite que la capacité des équipes humaines à réagir.

L’IA crée de nouveaux vecteurs d’attaque

Les systèmes IA reposent sur plusieurs couches, chacune avec ses propres vulnérabilités. Dans l’environnement technique qui réunit calcul, réseau et stockage, on retrouve les mêmes risques que dans l’IT classique, mais la rapidité et la densité des workloads IA compliquent la détection.

Injections de requêtes, contournement des garde-fous et exfiltration de données sont autant de risques mis en avant dans le top 10 de l’OWASP (Open Worldwide Application Security Project) pour les applications LLM. Le contexte autour du modèle devient lui aussi une cible, car le contrôler revient souvent à influer sur l’information elle-même. Les outils et les intégrations constituent un autre point d’entrée, et une API trop permissive ou un agent IA mal protégé peuvent suffire à exposer un workflow complet. La vulnérabilité ne tient donc pas à un point faible isolé, mais à l’ensemble de l’architecture.

La surface d’attaque s’étend dans toutes les directions, et avec elle, le besoin de défenses plus intelligentes. La solution n’est pas d’abandonner l’IA, mais d’utiliser l’IA pour sécuriser l’IA. Un cadre de sécurité complet doit donc couvrir l’ensemble de son cycle de vie, en protégeant les trois couches essentielles : l’infrastructure du modèle, le modèle lui-même et les applications.

Heureusement, l’IA est désormais l’une des principales priorités d’investissement des RSSI selon une enquête de PwC, signe que les entreprises commencent à considérer la cyber-résilience comme un système qui doit apprendre en continu. Et sur le terrain, les équipes de sécurité peuvent désormais s’appuyer sur des mécanismes capables d’analyser les prompts, de détecter les usages suspects des API et d’assurer la traçabilité des contenus générés.

Le shadow AI gagne du terrain

Le phénomène de shadow AI ou « IA fantôme » s’installe discrètement dans les réseaux d’entreprise. De nombreux employés utilisent des outils génératifs pour résumer des rapports, écrire du code ou analyser des données clients sans autorisation ni contrôle. D’après un rapport de Netskope, près de 90 % des entreprises recourent à des applications d’IA générative, et plus de 70 % de ces usages relèvent du shadow AI. Chaque prompt non supervisé ou plug-in non vérifié devient alors une source potentielle de fuite de données.

Plus les organisations dépendent de l’IA, plus elles étendent leur surface d’exposition et plus les conséquences d’une faille peuvent devenir sérieuses. Les gouvernements ont commencé à identifier ce risque et les règles qui émergent imposeront aux organisations de démontrer régulièrement leur conformité, tout en gardant une visibilité complète sur leurs systèmes. Intégrer la sécurité dès le développement, adopter une approche zero trust et surveiller les modèles comme des composants vivants devient nécessaire.

La sécurité numérique reposera sur une complémentarité entre intuition humaine et capacités techniques. Les organisations doivent former leurs équipes, adapter leurs infrastructures et instaurer une culture de transparence. Les mêmes algorithmes qui permettent des attaques plus élaborées peuvent aussi renforcer les défenses.

Reste à savoir si les entreprises investiront assez vite pour laisser l’intelligence (plutôt que l’inertie) définir la prochaine étape de la cybersécurité.

 

Téléchargez cette ressource

Guide de Threat Intelligence contextuelle

Guide de Threat Intelligence contextuelle

Ce guide facilitera l’adoption d’une Threat Intelligence - renseignement sur les cybermenaces, cyberintelligence - adaptée au "contexte", il fournit des indicateurs de performance clés (KPI) pour progresser d' une posture défensive vers une approche centrée sur l’anticipation stratégique

Les plus consultés sur iTPro.fr

A lire aussi sur le site

À la une de la chaîne Tech