En 1818, Mary Shelley publiait Frankenstein, sans pouvoir imaginer un monde dominé par les algorithmes, les systèmes autonomes et l’intelligence artificielle. L’histoire, centrée sur un scientifique qui crée une vie artificielle puis l’abandonne, reste étonnamment actuelle. Elle ne condamne pas l’innovation, mais met en garde contre le danger d’un créateur qui refuse d’assumer ses responsabilités.
Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA
Aujourd’hui, alors que l’IA se répand en Europe et dans le monde, et que des cadres réglementaires émergent pour encadrer son usage, une question essentielle se pose : que devient l’innovation lorsque la dimension humaine est absente ? L’adaptation cinématographique du roman de Maria Shelley de Guillermo del Toro en 2025 relance cette réflexion, rappelant l’importance de l’empathie et de la responsabilité dans nos technologies.
Shobana Sruthi Mohan, Enterprise Analyst chez ManageEngine partage son analyse et nous alerte.
Le véritable monstre : la négligence
Le danger ne réside pas dans la technologie elle-même, mais dans l’abandon et le manque de supervision. Dans Frankenstein, Victor échoue non pas en donnant la vie, mais en refusant d’assumer sa responsabilité. Horrifié par sa création, il l’abandonne, ignorant son apprentissage, son développement et sa place dans le monde. La tragédie qui s’ensuit n’est pas le fruit d’un mal inévitable, mais d’un abandon prévisible.
Les systèmes d’IA modernes courent un risque similaire. Déployés à grande échelle avec une supervision limitée, des responsabilités floues et un contexte incomplet, ils peuvent reproduire et amplifier des erreurs. Même avec des normes et des garde-fous techniques, ce qui manque souvent, c’est une responsabilité humaine continue, exactement ce que vise l’AI Act européen en imposant un suivi constant plutôt qu’un simple déploiement ponctuel.

Shobana Sruthi Mohan, Enterprise Analyst chez ManageEngine
Guider l’IA par l’apprentissage et l’empathie
Une autre leçon souvent négligée de Frankenstein concerne l’apprentissage. La Créature observe, écoute, développe de l’empathie et se forge une éthique à partir de ses expériences. Un aveugle qui lui transmet son savoir lui offre un aperçu de ce que signifie être reconnu et accepté. Del Toro met l’accent sur ce cheminement émotionnel, plus que sur l’apparence monstrueuse.
L’IA fonctionne de manière analogue : elle apprend de son environnement, des données qui la nourrissent, du comportement des utilisateurs et des objectifs fixés par ses créateurs. Quand ces éléments sont biaisés, flous ou mal supervisés, l’IA reproduit et amplifie ces défauts à grande échelle, dans le recrutement, l’octroi de crédit ou la surveillance. À l’inverse, des objectifs clairs, une gouvernance attentive et une supervision active permettent de faire de l’IA un outil qui renforce les capacités humaines plutôt qu’une menace.
Au-delà du contrôle, l’empathie reste cruciale. Les moments clés de la Créature naissent de sa connexion aux autres et d’un simple geste de bonté qui révèle sa propre humanité. Pour l’IA, cela signifie intégrer l’empathie de manière opérationnelle : évaluer qui pourrait être exclu, mal représenté ou lésé, et maintenir une supervision humaine constante. Dans des domaines sensibles comme la santé, le recrutement, l’octroi de prêts ou les politiques publiques, l’IA ne devrait jamais se substituer au jugement humain, mais le compléter.
L’écosystème de l’IA se développe rapidement, porté par l’intérêt des institutions pour l’éthique. Cette dynamique offre une opportunité clé : intégrer la supervision humaine dès les premières étapes, avant que les systèmes n’atteignent des échelles irréversibles. Le défi n’est pas seulement technique, il est profondément humain : il s’agit de veiller à ce que nos technologies reflètent nos valeurs, et non leur absence.
Comme Frankenstein le rappelle, l’échec naît de la négligence et de l’abandon. L’IA responsable ne se limite pas aux politiques ; elle exige un engagement constant : audits réguliers, amélioration des données, écoute des utilisateurs et adaptation continue. La véritable question n’est pas la puissance des systèmes, mais leur fiabilité. Nos créations technologiques sont le miroir de nos valeurs… ou de leur carence.
Téléchargez cette ressource
Microsoft 365 Tenant Resilience
Face aux principales failles de résilience des tenants M365 (configurations, privilèges, sauvegarde). Découvrez une approche en 5 piliers pour durcir, segmenter et surveiller vos environnements afin de limiter l’impact des attaques. Comment prioriser vos chantiers cyber et améliorer durablement la résilience de vos tenants Microsoft 365 ?
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Et si la sécurité de nos villes se jouait aussi… en orbite ?
- Forum INCYBER : les 4 lauréats du Prix de la Start-up 2026
- Mises à jour Microsoft : quand l’automatisation du cloud redéfinit la gouvernance IT
- State of DevSecOps 2026 : la sécurité glisse vers la chaîne d’approvisionnement logicielle
Articles les + lus
Mixité dans la Tech : en 2026, un choix de souveraineté stratégique
Analyse Patch Tuesday Mars 2026
Confiance et curiosité : les clés pour entrer (et grandir) en tant que femme dans la tech
Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
Pourquoi Shopify Plus s’impose dans la transformation du e-commerce B2B
À la une de la chaîne Tech
- Mixité dans la Tech : en 2026, un choix de souveraineté stratégique
- Analyse Patch Tuesday Mars 2026
- Confiance et curiosité : les clés pour entrer (et grandir) en tant que femme dans la tech
- Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
- Pourquoi Shopify Plus s’impose dans la transformation du e-commerce B2B
