> Tech > Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA

Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA

Tech - Par iTPro - Publié le 26 février 2026

En 1818, Mary Shelley publiait Frankenstein, sans pouvoir imaginer un monde dominé par les algorithmes, les systèmes autonomes et l’intelligence artificielle. L’histoire, centrée sur un scientifique qui crée une vie artificielle puis l’abandonne, reste étonnamment actuelle. Elle ne condamne pas l’innovation, mais met en garde contre le danger d’un créateur qui refuse d’assumer ses responsabilités.

Quand l’innovation échappe à ses créateurs: Comment éviter l’effet Frankenstein à l’ère de l’IA

Aujourd’hui, alors que l’IA se répand en Europe et dans le monde, et que des cadres réglementaires émergent pour encadrer son usage, une question essentielle se pose : que devient l’innovation lorsque la dimension humaine est absente ? L’adaptation cinématographique du roman de Maria Shelley de Guillermo del Toro en 2025 relance cette réflexion, rappelant l’importance de l’empathie et de la responsabilité dans nos technologies.

Shobana Sruthi Mohan, Enterprise Analyst chez ManageEngine partage son analyse et nous alerte.

Le véritable monstre : la négligence

Le danger ne réside pas dans la technologie elle-même, mais dans l’abandon et le manque de supervision. Dans Frankenstein, Victor échoue non pas en donnant la vie, mais en refusant d’assumer sa responsabilité. Horrifié par sa création, il l’abandonne, ignorant son apprentissage, son développement et sa place dans le monde. La tragédie qui s’ensuit n’est pas le fruit d’un mal inévitable, mais d’un abandon prévisible.

Les systèmes d’IA modernes courent un risque similaire. Déployés à grande échelle avec une supervision limitée, des responsabilités floues et un contexte incomplet, ils peuvent reproduire et amplifier des erreurs. Même avec des normes et des garde-fous techniques, ce qui manque souvent, c’est une responsabilité humaine continue, exactement ce que vise l’AI Act européen en imposant un suivi constant plutôt qu’un simple déploiement ponctuel.

Shobana Sruthi Mohan, Enterprise Analyst chez ManageEngine

Shobana Sruthi Mohan, Enterprise Analyst chez ManageEngine

Guider l’IA par l’apprentissage et l’empathie

Une autre leçon souvent négligée de Frankenstein concerne l’apprentissage. La Créature observe, écoute, développe de l’empathie et se forge une éthique à partir de ses expériences. Un aveugle qui lui transmet son savoir lui offre un aperçu de ce que signifie être reconnu et accepté. Del Toro met l’accent sur ce cheminement émotionnel, plus que sur l’apparence monstrueuse.

L’IA fonctionne de manière analogue : elle apprend de son environnement, des données qui la nourrissent, du comportement des utilisateurs et des objectifs fixés par ses créateurs. Quand ces éléments sont biaisés, flous ou mal supervisés, l’IA reproduit et amplifie ces défauts à grande échelle, dans le recrutement, l’octroi de crédit ou la surveillance. À l’inverse, des objectifs clairs, une gouvernance attentive et une supervision active permettent de faire de l’IA un outil qui renforce les capacités humaines plutôt qu’une menace.

Au-delà du contrôle, l’empathie reste cruciale. Les moments clés de la Créature naissent de sa connexion aux autres et d’un simple geste de bonté qui révèle sa propre humanité. Pour l’IA, cela signifie intégrer l’empathie de manière opérationnelle : évaluer qui pourrait être exclu, mal représenté ou lésé, et maintenir une supervision humaine constante. Dans des domaines sensibles comme la santé, le recrutement, l’octroi de prêts ou les politiques publiques, l’IA ne devrait jamais se substituer au jugement humain, mais le compléter.

L’écosystème de l’IA se développe rapidement, porté par l’intérêt des institutions pour l’éthique. Cette dynamique offre une opportunité clé : intégrer la supervision humaine dès les premières étapes, avant que les systèmes n’atteignent des échelles irréversibles. Le défi n’est pas seulement technique, il est profondément humain : il s’agit de veiller à ce que nos technologies reflètent nos valeurs, et non leur absence.

Comme Frankenstein le rappelle, l’échec naît de la négligence et de l’abandon. L’IA responsable ne se limite pas aux politiques ; elle exige un engagement constant : audits réguliers, amélioration des données, écoute des utilisateurs et adaptation continue. La véritable question n’est pas la puissance des systèmes, mais leur fiabilité. Nos créations technologiques sont le miroir de nos valeurs… ou de leur carence.

 

Téléchargez cette ressource

Créer des agents dans Microsoft 365 Copilot

Créer des agents dans Microsoft 365 Copilot

Insight vous guide dans l’utilisation de la nouvelle expérience de création d’agents dans Microsoft Copilot Studio, disponible dans Copilot Chat. Découvrez les étapes clés pour concevoir, configurer et déployer ces nouveaux agents et injecter la puissance de l’IA directement dans le flux de travail.

Les plus consultés sur iTPro.fr

A lire aussi sur le site

À la une de la chaîne Tech