> IoT > L’Intelligence Artificielle responsable chez Microsoft

L’Intelligence Artificielle responsable chez Microsoft

IoT - Par Arnaud Morvillier - Publié le 26 août 2022
email

Quel est le point commun entre les films : 2001, l’Odyssée de l’espace, Matrix, I Robot et Avengers : L'Ère d'Ultron ?

L’Intelligence Artificielle responsable chez Microsoft

L’ensemble de ces films, abordent le thème de l’Intelligence Artificielle (IA), et pour certains d’entre eux, l’IA est même en confrontation directe avec l’homme, ce qui est plutôt effrayant quand on y réfléchit un peu.

Il ne vous a pas échappé que l’IA prend de plus en plus d’importance dans notre quotidien. Elle est présente au sein de produits comme les maisons intelligentes, les voitures autonomes, les GPS. Mais également au sein de services comme les chatbots, la recommandation de publicités ciblées ou simplement au travers d’applications accessibles depuis votre smartphone préféré.

Mais au fait, c’est quoi l’IA ?

Le parlement Européen, définit l’IA comme la possibilité pour une machine, de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité.

Le développement d’une IA, ne se fait pas en quelques heures, au contraire de ma mousse au chocolat préférée.

A l’instar d’une recette, l’IA a besoin de différents ingrédients, comme un algorithme, des données qui sont souvent personnelles, et bien sûr du matériel. On réalise alors des phases d’apprentissage, que l’on appelle le Machine Learning (ML) pour entrainer l’IA, sur des milliers d’heures afin qu’on puisse vérifier la pertinence de ses résultats.

Mais malgré, ces ingrédients, l’IA peut provoquer des erreurs, qui peuvent être liées à de mauvaises données, des hypothèses incomplètes ou approximatives, ou simplement une mauvaise conception de l’algorithme.

Comme pour toute nouvelle technologie innovante, je pense notamment au clonage, l’éthique doit primer. La définition de règles précises, afin que son usage respecte certaines précautions, sont essentielles, c’est d’ailleurs ce qu’a commencé à faire l’Union Européenne en Avril 2021.

D’autres organisations ont également débuté ce travail de fourmis, et en attendant que d’autres normes viennent s’ajouter à celles de l’UNESCO par exemple, on peut déjà s’appuyer sur l’Intelligence Artificielle Responsable de Microsoft, qui au travers de son Cloud Microsoft Azure, permet déjà de développer des IA.

Les 6 principes de l’Intelligence Artificielle Responsable de Microsoft

Microsoft s’appuie sur six principes pour son Intelligence Artificielle Responsable :

Essayons de voir ensemble ce qui se cache derrière ces principes.

  • Equité
  • Fiabilité et sécurité
  • Confidentialité et sécurité
  • Inclusion
  • Transparence
  • Responsabilité
  • L’équité

L’idée est d’offrir des systèmes d’IA qui tendent à réduire les inégalités dans l’attribution de ressources, de décisions, comme par exemple avec l’obtention de prêts immobiliers qui peuvent aujourd’hui exclure certaines catégories de personnes en fonction de certains critères.
Mais aussi offrir au plus grand nombre des systèmes d’IA qui permettent de réaliser des diagnostics médicaux pour détecter certaines anomalies, ou bien détecter très en amont certaines maladies malines afin de mettre en place les traitements préconisés.   

  • La fiabilité et la sécurité

Comme on l’évoquait précédemment, une IA peut provoquer des erreurs. Ainsi les services proposés par Azure et plus globalement par Microsoft, sont proposés avec des risques et des dommages quantifiés et compris, et surtout partagés avec les utilisateurs afin qu’ils en soient pleinement conscients. Il ne faut en aucun cas que les défaillances ou les erreurs de l’IA ne puissent mettre en péril les personnes, comme lors de l’utilisation de véhicules autonomes, ou bien avec de mauvais diagnostics sur la santé des personnes.

  • La confidentialité et la sécurité

La confidentialité des systèmes et des données est une préoccupation majeure pour Microsoft. Pour réduire la corruption et la compromission des données, l’une des bonnes pratiques, est d’exécuter les charges de travail au plus près des sources de données, et ces dernières doivent être obtenues de manières légales avec le consentement des utilisateurs.
Microsoft propose différents mécanismes pour s’assurer que les données ne soient pas endommagées avec des systèmes de détection d’anomalies entre autres.

Téléchargez cette ressource

Les mégatendances cybersécurité et cyber protection 2024

Les mégatendances cybersécurité et cyber protection 2024

L'évolution du paysage des menaces et les conséquences sur votre infrastructure, vos outils de contrôles de sécurité IT existants. EPP, XDR, EDR, IA, découvrez la synthèse des conseils et recommandations à appliquer dans votre organisation.

  • L’inclusion

Microsoft est engagé depuis de nombreuses années dans de nombreuses causes sociétales, et fait en sorte de concevoir des systèmes qui n’enfreignent en aucune manière les libertés des uns et des autres.

Afin d’avoir des résultats aussi proche de la réalité possible, les systèmes d’IA doivent être entrainés avec toutes sortes de données et pas seulement celles qui cibleraient une population spécifique, une catégorie socio-professionnelle, ou d’un genre. C’est aussi cela qui permet de réduire le taux d’erreur lié à un manque de représentativité.

 

  • La transparence

Que cela soit dans les buts à atteindre, ou pour réduire les erreurs provoquées par l’IA, la transparence est de mise car c’est par elle que passera la confiance des utilisateurs.
Les personnes qui créent les systèmes d’IA, doivent identifier pourquoi elles utilisent l’IA, quelles sont les raisons qui les poussent à le faire et quel est leur objectif.
Mais autre point important, elles doivent être conscientes des limites de leurs systèmes pour réagir en cas d’erreurs ou d’un fonctionnement qui ne correspond pas à ce qu’elles s’étaient fixées.

 

  • La responsabilité

Et le dernier principe qui est peut être l’un des plus importants aux yeux de Microsoft est sa responsabilité, malgré la complexité des systèmes qui peuvent parfois être imprévisibles et difficiles à interpréter. Les services proposés sont mis à disposition dans le respect des principes au sein de Microsoft, ce qui pousse forcément les clients et partenaires à également être responsables.
Le but étant de minimiser les déviances qui pourraient être faites à l’encontre des libertés des personnes ou des entreprises.
Au cours des dernières semaines, Microsoft a par exemple, implémenté de nouveaux garde-fous pour l’utilisation de services liées à la reconnaissance faciale.

 

A l’heure où j’ai écrit ces quelques lignes, il existe évidemment d’autres systèmes pour développer des solutions d’IA, il faudra donc se poser les bonnes questions pour privilégier un système plutôt qu’un autre.
Le coût ne sera, à mon avis, pas le seul critère à prendre en considération pour le choix d’un système de développement d’une IA. Mais comme souvent, les entreprises ont des souhaits et des priorités différentes, et seule la confiance des utilisateurs sur le long terme permettra de dire si le choix était le bon.

 

Vous trouverez sur le portail de Microsoft dédié à l’IA, tout ce dont vous avez besoin pour comprendre l’IA, mais aussi dans quels cas d’usage elle peut être intéressante.

 

Si vous souhaitez allez plus loin en découvrant les services Azure dédiés à l’Intelligence Artificielle et au Machine Learning, c’est ici que cela se passe.

Et enfin, pour ceux qui souhaitent approfondir leurs connaissances et s’exercer sur ce sujet, de nombreux supports sont disponibles sur Microsoft Learn.

 

 

IoT - Par Arnaud Morvillier - Publié le 26 août 2022