Quel est le point commun entre les films : 2001, l’Odyssée de l’espace, Matrix, I Robot et Avengers : L'Ère d'Ultron ?
L’Intelligence Artificielle responsable chez Microsoft
L’ensemble de ces films, abordent le thème de l’Intelligence Artificielle (IA), et pour certains d’entre eux, l’IA est même en confrontation directe avec l’homme, ce qui est plutôt effrayant quand on y réfléchit un peu.
Il ne vous a pas échappé que l’IA prend de plus en plus d’importance dans notre quotidien. Elle est présente au sein de produits comme les maisons intelligentes, les voitures autonomes, les GPS. Mais également au sein de services comme les chatbots, la recommandation de publicités ciblées ou simplement au travers d’applications accessibles depuis votre smartphone préféré.
Mais au fait, c’est quoi l’IA ?
Le parlement Européen, définit l’IA comme la possibilité pour une machine, de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité.
Le développement d’une IA, ne se fait pas en quelques heures, au contraire de ma mousse au chocolat préférée.
A l’instar d’une recette, l’IA a besoin de différents ingrédients, comme un algorithme, des données qui sont souvent personnelles, et bien sûr du matériel. On réalise alors des phases d’apprentissage, que l’on appelle le Machine Learning (ML) pour entrainer l’IA, sur des milliers d’heures afin qu’on puisse vérifier la pertinence de ses résultats.
Mais malgré, ces ingrédients, l’IA peut provoquer des erreurs, qui peuvent être liées à de mauvaises données, des hypothèses incomplètes ou approximatives, ou simplement une mauvaise conception de l’algorithme.
Comme pour toute nouvelle technologie innovante, je pense notamment au clonage, l’éthique doit primer. La définition de règles précises, afin que son usage respecte certaines précautions, sont essentielles, c’est d’ailleurs ce qu’a commencé à faire l’Union Européenne en Avril 2021.
D’autres organisations ont également débuté ce travail de fourmis, et en attendant que d’autres normes viennent s’ajouter à celles de l’UNESCO par exemple, on peut déjà s’appuyer sur l’Intelligence Artificielle Responsable de Microsoft, qui au travers de son Cloud Microsoft Azure, permet déjà de développer des IA.
Les 6 principes de l’Intelligence Artificielle Responsable de Microsoft
Microsoft s’appuie sur six principes pour son Intelligence Artificielle Responsable :
Essayons de voir ensemble ce qui se cache derrière ces principes.
- Equité
- Fiabilité et sécurité
- Confidentialité et sécurité
- Inclusion
- Transparence
- Responsabilité
- L’équité
L’idée est d’offrir des systèmes d’IA qui tendent à réduire les inégalités dans l’attribution de ressources, de décisions, comme par exemple avec l’obtention de prêts immobiliers qui peuvent aujourd’hui exclure certaines catégories de personnes en fonction de certains critères.
Mais aussi offrir au plus grand nombre des systèmes d’IA qui permettent de réaliser des diagnostics médicaux pour détecter certaines anomalies, ou bien détecter très en amont certaines maladies malines afin de mettre en place les traitements préconisés.
- La fiabilité et la sécurité
Comme on l’évoquait précédemment, une IA peut provoquer des erreurs. Ainsi les services proposés par Azure et plus globalement par Microsoft, sont proposés avec des risques et des dommages quantifiés et compris, et surtout partagés avec les utilisateurs afin qu’ils en soient pleinement conscients. Il ne faut en aucun cas que les défaillances ou les erreurs de l’IA ne puissent mettre en péril les personnes, comme lors de l’utilisation de véhicules autonomes, ou bien avec de mauvais diagnostics sur la santé des personnes.
- La confidentialité et la sécurité
La confidentialité des systèmes et des données est une préoccupation majeure pour Microsoft. Pour réduire la corruption et la compromission des données, l’une des bonnes pratiques, est d’exécuter les charges de travail au plus près des sources de données, et ces dernières doivent être obtenues de manières légales avec le consentement des utilisateurs.
Microsoft propose différents mécanismes pour s’assurer que les données ne soient pas endommagées avec des systèmes de détection d’anomalies entre autres.
Téléchargez cette ressource
Guide de Threat Intelligence contextuelle
Ce guide facilitera l’adoption d’une Threat Intelligence - renseignement sur les cybermenaces, cyberintelligence - adaptée au "contexte", il fournit des indicateurs de performance clés (KPI) pour progresser d' une posture défensive vers une approche centrée sur l’anticipation stratégique
Les articles les plus consultés
- MOOC : Propulser les femmes dans le numérique !
- Les entreprises européennes championnes de l’IA
- Les services cognitifs : un élément essentiel pour la gestion intelligente des contenus d’entreprise
- Cinq conseils de sécurité IoT pour le travail hybride
- Les 3 fondamentaux pour réussir son projet d’automatisation intelligente
Les plus consultés sur iTPro.fr
- La sécurité logicielle à l’ère de l’IA
- Confiance et curiosité : les clés pour entrer (et grandir) en tant que femme dans la tech
- Scality bouscule le marché du stockage avec une cyber garantie de 100 000 $
- Portails développeurs internes : accélérer l’innovation sans alourdir les budgets
Articles les + lus
La sécurité logicielle à l’ère de l’IA
Sous pression, les CIO entrent dans l’ère de la responsabilité IA
Les entreprises n’ont plus le luxe d’expérimenter l’IA
Gouvernance, cybersécurité et agents IA : trois défis clés à relever pour réussir la transition en 2026
IoT et cybersécurité : les bases que chaque décideur doit maîtriser
À la une de la chaîne IA
- La sécurité logicielle à l’ère de l’IA
- Sous pression, les CIO entrent dans l’ère de la responsabilité IA
- Les entreprises n’ont plus le luxe d’expérimenter l’IA
- Gouvernance, cybersécurité et agents IA : trois défis clés à relever pour réussir la transition en 2026
- IoT et cybersécurité : les bases que chaque décideur doit maîtriser
