> IoT > Intelligence Artificielle & Proposition de résolution européenne : décryptage

Intelligence Artificielle & Proposition de résolution européenne : décryptage

IoT - Par Sabine Terrey - Publié le 18 décembre 2023
email

Les sénateurs s'étaient prononcés le 30 mars 2023 dans une proposition de résolution visant l’examen d’un projet de règlement européen destiné à instaurer un cadre légal harmonisé sur l’intelligence artificielle et marquant un tournant du fait de son caractère juridiquement contraignant.

Intelligence Artificielle & Proposition de résolution européenne : décryptage

Décembre 2023, les institutions européennes se sont donc accordées sur un texte encadrant l’intelligence artificielle, AI Act. Mais revenons sur le sujet avec Mélanie Erber, associée et Marion Faupin, collaboratrice chez Coblence avocats, qui partageaient en juin dernier leur expertise sur ce sujet clé. Rétrospective.

Quel est l’encadrement juridique de l’IA aujourd’hui en France ? En Europe ? Dans les pays voisins ?

Il n’existe pas de législation propre à l’IA en France. Toutefois, des interactions nécessaires existent par exemple avec le droit de la propriété intellectuelle où la préservation des droits d’auteur sur des œuvres préexistantes mais aussi la protection des contenus générés font couler beaucoup d’encre. Les règles relatives au RGPD lorsque l’IA procède à un traitement de données à caractère personnelle devront également trouver application.

Au niveau européen, alors que dans une lettre ouverte publiée le 29 mars 2023[1], les dirigeants des plus grands groupes mondiaux alertent sur les risques que représentent l’IA pour la société et les droits de l’homme et appellent à un moratoire sur le développement de l’IA, l’Union européenne semble au contraire vouloir accélérer la mise en œuvre d’une régulation à ce sujet. Elle a définitivement inscrit à son agenda les problématiques d’IA vu le nombre de textes de toute nature (résolutions, communications, propositions de directives et de règlement, livre blanc, avis, orientations, déclaration de droits etc…) publiés à ce sujet depuis ces dernières années.

A côté des nombreux textes reposant sur des principes éthiques, la proposition de règlement débattue est particulièrement scrutée en instaurant un cadre juridique contraignant et des sanctions importantes en cas de manquement. Deux propositions de directives[2] sont également en cours de discussion relatives aux règles de responsabilité et de réparation en cas de dommages causés par un système d’IA.

Au Royaume-Uni, le mouvement est en marche sur la réglementation de l’IA et le gouvernement anglais vient de publier le 29 mars 2023 un livre blanc prônant une approche pro-innovation souhaitant éviter une législation trop lourde basée sur les cinq principes de sécurité, de transparence, d’équité, de responsabilité – gouvernance et de voies de recours.

Mélanie Erber

Quels risques si l’on n’harmonise pas le droit qui l’entoure ?

L’absence d’un cadre juridique général européen sur l’IA constitue un risque pour les droits fondamentaux que sont en particulier le respect de la vie privée, l’accès à la justice ou encore le principe de non-discrimination. Depuis les scandales ayant mis à jour les dérives de systèmes basés sur la récupération d’un grand nombre de données en ligne, telle que l’affaire Cambridge Analytica en 2018 où des journalistes ont démontré l’exploitation de données de millions d’utilisateurs de Facebook sans leur consentement pour de la propagande électorale[3], l’objectif d’une harmonisation est, en palliant les possibles dérives de l’IA, d’instaurer un cadre de confiance permettant son développement.

L’absence d’une définition universelle de l’IA tantôt vu comme des « systèmes d’IA » ou des « technologies de l’IA » engendrerait de facto des différences d’approches quant au droit applicable. Ces divergences créeraient une insécurité juridique quant au droit à mettre en œuvre en pratique lors de l’utilisation d’une IA dans les applications qu’elle peut trouver dans le monde physique ou virtuel (logiciels, assistants vocaux, moteurs de recherche, robots etc.), notamment en matière de responsabilité lorsqu’un dommage serait occasionné par l’utilisation d’une IA.

L’absence d’harmonisation constituerait une entrave à la lutte contre la désinformation et les « deepfakes » que sont capables de générer les IA.

Marion Faupin

Quelles applications pourraient-être qualifiées à « haut risque » ou être interdites ?

La proposition de règlement envisage une approche graduée des risques. Une liste serait dressée de pratiques interdites en matière d’IA puis de pratiques à « haut risque » menaçant par exemple les droits fondamentaux, de pratiques à risque limité que sont par exemple les « chatbots » et de systèmes autorisés. Cette approche pyramidale est soutenue par les sénateurs tout en insistant sur la nécessité de pouvoir compléter cette liste selon les évolutions des technologies et des usages.

Sont bannis en particulier les systèmes d’IA contribuant à la manipulation des comportements ou encore mettant en œuvre la reconnaissance faciale dans les espaces publics. Les applications à « haut risque » doivent répondre à certaines exigences et à un mécanisme d’évaluation de la conformité préalable à la mise sur le marché. Les systèmes d’IA à risque limité devront faire preuve de transparence en informant leur utilisateur qu’une machine est derrière l’application en question.

Les applications susceptibles d’« influencer ou d’avoir des incidences négatives sur les droits des personnes vulnérables, en particulier des enfants », de causer des « préjudices environnementaux »,  « promouvant des contenus de désinformation et les contenus clivants » sont notamment pointées par la proposition de résolution sénatoriale afin qu’elles figurent dans les systèmes d’IA à « haut risque ».

Les sénateurs appellent en particulier à l’interdiction de pratiques en matière d’IA concernant l’exploitation « d’éventuelles vulnérabilités économiques et sociales d’un groupe de personnes et risquant d’entraîner un préjudice social ou économique ».

Un mot sur la suite envisagée ?

La proposition de règlement va continuer d’être débattue pour une entrée en vigueur projetée en 2023.

Aussi, pour la conduite des évaluations de conformité envisagées par la proposition de règlement, des structures de gouvernance devront être mises en place.

Un Comité européen de l’IA serait créé pour garantir une coopération des Etats membres à des fins d’application uniforme et cohérente dudit règlement au sein de l’UE.

Sur le contrôle de l’application du règlement si ce dernier est adopté, les sénateurs préconisent en tant qu’autorité compétente la Commission nationale de l’informatique et des libertés (CNIL).

Depuis, le 8 décembre 2023, le Parlement européen et le Conseil de l’Union européenne ont abouti à un accord qui sera la première loi sur l’IA.


1 – Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle), COM/2021/206 final, publiée le 21 avril 2021.

2 – « Elon Musk et des centaines d’experts réclament une « pause » dans le développement de l’intelligence artificielle » Le Monde, de Alexandra Piquard, publié le 29 mars 2023.

3 – Proposition de directive du Parlement européen et du Conseil relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle (directive sur la responsabilité en matière d’IA), COM(2022) 496 final publiée le 28 septembre 2022 et proposition de directive du Parlement européen et du Conseil relative à la responsabilité du fait des produits défectueux, COM(2022) 495 final, publiée le 28 septembre 2022.

4 – « Ce qu’il faut savoir sur Cambridge Analytica, la société au cœur du scandale Facebook » Le Monde, de William Audureau, publié le 22 mars 2018.

Publié dans Smart DSI N°30 – Juin 2023

Plus d’informations sur le cadre juridique européen de l’IA – 8 décembre 2023, le Parlement européen et le Conseil de l’Union européenne ont abouti à un accord qui sera la première loi sur l’IA.

Téléchargez cette ressource

Guide de Sécurité IA et IoT

Guide de Sécurité IA et IoT

Compte tenu de l'ampleur des changements que l'IA est susceptible d'entraîner, les organisations doivent élaborer une stratégie pour se préparer à adopter et à sécuriser l'IA. Découvrez dans ce Livre blanc Kaspersky quatre stratégies efficaces pour sécuriser l'IA et l'IoT.

IoT - Par Sabine Terrey - Publié le 18 décembre 2023

A lire aussi sur le site

Revue Smart DSI

La Revue du Décideur IT