Il y a quelques années encore, de nombreuses équipes SOC se méfiaient de l’automatisation. Son adoption complète a été ralentie par des préoccupations liées à la responsabilité, à la visibilité et au contrôle.
Redéfinir la confiance à l’ère de l’IA agentique : les entreprises sont-elles prêtes pour le SOC autonome ?
Aujourd’hui, l’IA agentique représente la prochaine évolution. Contrairement à l’automatisation fixe et scriptée, les agents peuvent fonctionner de manière autonome pendant de plus longues périodes.
Ce passage de l’automatisation à l’intelligence agentique n’est pas seulement un changement technologique, c’est aussi une nouvelle ère de résilience en matière de sécurité qui nécessite de nouvelles dimensions de confiance.
Kirsty Paine, Strategic Advisor in Technology and Innovation EMEA chez Splunk partage son analyse.
Combler le déficit de confiance vis-à-vis de l’IA agentique grâce à ses compétences et à son intégrité
Lorsque les entreprises prennent le risque d’adopter une technologie inconnue pour des résultats tout aussi méconnus, un déficit de confiance se fait souvent sentir. Or, la confiance ne se limite pas aux signatures numériques et à la cryptographie ; sa définition évolue.
La confiance repose sur deux facteurs clés : la compétence et la personnalité. Naturellement, les individus ont tendance à faire confiance à des tiers à la fois pour ce qu’ils peuvent faire (leurs compétences ou leur fiabilité) et pour ce qu’ils sont (leur personnalité ou leurs intentions).
Mais, avec l’IA et l’humanisation de la technologie, la confiance dans la technologie ne repose plus uniquement sur sa fiabilité et ses compétences, mais aussi sur sa personnalité, notamment son intégrité et son empathie : correspond-elle à leurs valeurs? Est-elle en phase avec leurs objectifs ? C’est le passage d’une approche centrée uniquement sur les capacités à une approche incluant l’intégrité.
À terme, le rôle de l’analyste sera peut-être de s’assurer que les agents sont empathiques, c’est-à-dire qu’ils s’inscrivent dans les objectifs du SOC et qu’ils adoptent une approche prudente – par exemple, en ne tolérant que de faibles taux de faux positifs, en s’alignant sur les politiques de confinement et en minimisant les risques.

Kirsty Paine, Strategic Advisor in Technology and Innovation EMEA chez Splunk
Comprendre l’IA grâce à des processus centrés sur l’humain
Pour instaurer la confiance, il est important de démontrer la compétence et l’intégrité de l’IA de manière constante dans le temps, comme pour une personne. C’est là que l’IA peut se révéler complexe : il est difficile de comprendre son raisonnement, de démontrer son « caractère » et de vérifier l’intégralité de sa réflexion.
En l’absence de tests, les entreprises peuvent vérifier l’intégrité et la compétence de l’IA à l’aide d’indicateurs, par exemple en mettant en place des boucles de rétroaction afin de vérifier l’alignement à intervalles réguliers et garantir des contrôles de véracité systématiques, et les valider à plusieurs reprises jusqu’à ce qu’elles en soient satisfaites. La logique sous-jacente à l’IA doit être documentée afin de pouvoir gérer tout manquement à l’intégrité ou à l’alignement, ou encore d’assumer clairement le risque encouru.
Il est également judicieux de se servir de l’IA pour améliorer la compréhension et la confiance en elle, tout en évitant la situation « qui surveille les surveillants ? » en gardant l’humain dans le process. Tout comme les fonctionnalités de chat en ligne ont aidé les utilisateurs à interagir avec l’IA générative, une interface utilisateur générative [1] aidera à instaurer la confiance envers les agents en visualisant leurs actions.
Les agents peuvent ainsi rendre compte visuellement de leurs tâches, en affichant les résultats tout au long de leur investigation. Lors du développement d’une IA, il est essentiel de créer des mécanismes permettant ce reporting, tels qu’une interface utilisateur intuitive, la journalisation pour assurer la traçabilité et l’auditabilité, ainsi que la possibilité d’interrompre et de corriger le processus.
Une IA avec laquelle l’entreprise peut interagir rassure ; elle préserve la confiance en développant de nouvelles fonctionnalités et en démontrant constamment son adéquation avec les objectifs. Et ce n’est que le début. Une fois que les avantages l’emportent sur les risques et que l’IA est mieux acceptée dans la culture d’entreprise, les métiers commenceront à percevoir les avantages stratégiques, les limites et les domaines où il est nécessaire de réorienter les efforts humains.
- L’interface utilisateur générative est une interface utilisateur générée dynamiquement en temps réel par l’IA.
Téléchargez cette ressource
Plan de sécurité Microsoft 365
Les attaquants savent comment prendre le contrôle de votre tenant Microsoft 365, et vous, savez-vous comment le reprendre en main ?
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Identité de l’IA : 4 priorités pour anticiper plutôt que subir la régulation
- Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
- Cybermalveillance : 2025, seuil franchi pour les victimes comme pour les cybercriminels
- Communes, entreprises ? Non, face au RGAA 5, l’IA seule ne rendra pas vos sites accessibles
Articles les + lus
Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
Construire la souveraineté numérique en Europe grâce à un écosystème ouvert et collaboratif
Editeurs, crawlers et équipes sécurité, les alliances qui feront tenir le web
À la une de la chaîne Data
- Les défaillances des pipelines de données pèsent lourdement sur la performance des grandes entreprises
- Les nouvelles menaces liées à l’IA obligent les entreprises à dépasser la seule stratégie de sauvegarde
- Sauvegarder les données ne suffit plus : il faut refonder le poste de travail
- Construire la souveraineté numérique en Europe grâce à un écosystème ouvert et collaboratif
- Editeurs, crawlers et équipes sécurité, les alliances qui feront tenir le web
