Image générée par IA

Qu'est-ce que l'« AI Act » ?

Publié 24/05/2024|Modifié 21/05/2024

L'intelligence artificielle occupe une place de plus en plus importante dans notre vie quotidienne, à tel point que les députés européens ont adopté la première réglementation appelée « AI Act », le 13 mars 2024. Mais de quoi s'agit-il exactement ? Guillaume Avrin, coordonnateur national pour l'intelligence artificielle, nous détaille ce texte réglementaire qui vise à encadrer de manière éthique et responsable le développement et l'utilisation de l'intelligence artificielle, tout en renforçant la compétitivité de l'UE dans ce domaine.

L'évolution rapide de l'intelligence artificielle (IA), capable de composer de la musique, rédiger des essais et reproduire des œuvres d’art, a suscité à la fois l'admiration et des inquiétudes pour sa propension à générer des fausses informations et à influencer l'opinion publique.
Suite au déploiement de ChatGPT en 2022, l'Union européenne (UE) a adopté le règlement « AI Act » le 13 mars 2024 pour promouvoir une IA digne de confiance tout en assurant le respect des droits fondamentaux des individus.
Guillaume Avrin, coordonnateur national pour l'intelligence artificielle, explique en détail cette première législation historique sur l'intelligence artificielle.

Qu'est-ce que l'« AI Act » ?

L'AI Act, c'est une « réglementation produit », c'est-à-dire qu'elle vise à réguler des produits d'intelligence artificielle qui sont commercialisés sur le marché européen. Les systèmes d'IA autorisés obtiennent le fameux « marquage CE ».

Le « marquage CE » est une indication clé qui atteste qu'un produit est conforme aux exigences légales de l'Union européenne (UE).

Une approche dite « par les risques » est utilisée pour cette réglementation. Il ne s'agit donc pas de classer les IA qui seront autorisées et celles qui seront interdites en fonction de la technologie sous-jacente, mais en fonction de l'usage prévu de la technologie.

Les distinctions de risques au sein de l'« AI Act »

L’AI Act classe les systèmes d'IA selon cinq niveaux de risque :

Risque inacceptable

Il s’agit notamment des systèmes d’IA utilisés pour la manipulation inconsciente, l'exploitation des vulnérabilités, la notation sociale, et la catégorisation biométrique (origine ethnique, religion, etc.).

Haut-risque

La plupart des IA qui rentrent dans cette catégorie sont celles déjà couvertes par des réglementations européennes existantes comme la réglementation sur les dispositifs médicaux, la directive machine ou la directive sur la sécurité des jouets, etc.
Cependant, de nouvelles applications de l’IA sont également concernées comme l’éducation et la formation professionnelle, l’accès aux services privés essentiels (crédit bancaire, assurance) et aux prestations publics essentiels (santé, appels d'urgence, justice).

Risque spécifique

Cela concerne notamment les systèmes d’IA qui interagissent avec des personnes physiques, génèrent des contenus ou détectent des émotions. L’utilisateur doit alors être informé qu’il interagit avec une IA.

Risque associé aux IA d’usage général

Les développeurs doivent fournir un résumé détaillé des jeux de données d'entraînement, notamment pour s'assurer du bon respect des droits d'auteur, ainsi qu’une documentation technique.

Risque systémique associé aux IA d’usage général

Pour les IA d’usage général ayant nécessité une puissance de calcul supérieure à 10 puissance 25 flops, s’ajoute aux exigences de transparences des exigences d’évaluation et de tests adversariaux, d’atténuation des risques, de déclaration des incidents sérieux, de cybersécurité et d’analyse de la consommation d'énergie.
Guillaume Avrin, coordonnateur national pour l'intelligence artificielle

Quelles sont les principales préoccupations éthiques de l'« AI Act » ?

L'AI Act vise à garantir la sécurité des biens et des personnes, ainsi que la protection des droits fondamentaux comme la protection de la vie privée et des données personnelles, la non-discrimination, la transparence, la responsabilité ou encore le respect des valeurs démocratiques européennes.
En période d’élection, l’IA permettra de limiter le risque de manipulation du débat public et de désinformation.
Avec l'AI Act, un certain nombre de mesures sont mises en place pour s'assurer que l'on respecte un ensemble de critères éthiques associés à la gestion des risques, la gouvernance des données, la documentation technique, la traçabilité, la supervision humaine, l'évaluation de la robustesse, l'exactitude, la cybersécurité des systèmes d'IA et la mise en place d'un système de management de la qualité.
Mais l'AI Act n'est pas la seule mesure mise en place par l'UE sur l'IA de confiance.
 Avec le programme pour une Europe numérique,elle cofinance avec les États membres, dont la France, desTesting and Experimentation Facilities for AI(TEF) avec un budget supérieur à 300 millions d’euros.
De large consortiumsde 40 à 60 acteurs de l'IA de confiance, notamment des centres d'essais, des organismes de certification, des organismes de normalisation et des living labs sont impliqués dans l’initiative.
L'objectif de ces TEF est de fournir aux PME, ETI et groupes industriels européens l'ensemble des outils nécessaires pour l’évaluation des systèmes d’IA en phase de mise au point des IA et donc au service des développeurs de technologies intelligentes.

Quelles sont les sanctions de l'« AI Act » ?

Les sanctions prévues par l'AI Act vont de 1 % à 7 % du chiffre d’affaires annuel mondial de l’entreprise ou déterminées à partir de montants seuils allant de 7,5 à 35 millions d’euros d’amende.
Le niveau de l’amende varie selon la nature de la non-conformité (non-respect des usages interdits, manquement aux exigences pour les applications à haut risque, ou non-conformité aux exigences de transparence pour les risques limités mais spécifiques) et la catégorie de l’entreprise.

Quelles sont les répercussions de l'IA sur le marché du travail européen et l'impact de l'« AI Act » sur la compétitivité des entreprises ?

L'IA représente une opportunité unique de progrès économique et de bien-être social.
D'une part, elle peut contribuer à réduire les tâches pénibles physiquement ou rébarbatives. Et d'autre part, elle peut améliorer la compétitivité des entreprises françaises.
Dans mon parcours professionnel, j’ai dirigé un département chargé d'évaluer les systèmes d'IA entrant sur le marché national et  européen au sein du Laboratoire national de métrologie et d’essais.
J'ai pu apprécier qu'une bonne réglementation favorise l'innovation, car sans cadre clair, les développeurs hésitent à intégrer l'IA de peur de ne pas pouvoir prouver qu’ils ont fait leur maximum pour se mettre en conformité en cas d’accident.
Par ailleurs, une mauvaise réglementation peut freiner l'innovation. Il est crucial que les développeurs n'aient pas à se référer à de multiples  règlements pour un même sujet.
Par exemple, pour commercialiser une IA dans la santé, il ne devrait pas être nécessaire de consulter à la fois des exigences de cybersécurité dans la réglementation sur les dispositifs médicaux, dansl'AI Act et d'autres règlements de cybersécurité.
Cela vaut aussi pour les droits d'auteur et les données personnelles. Il est essentiel de simplifier les textes réglementaires pour éviter une complexité excessive pour les entreprises.
Un autre point d'attention qui me semble essentiel, c’est qu'il ne faut pas s'écarter de la régulation par les risques, par les usages. Il ne faut pas réguler les technologies. Parce que si on régule les technologies, le texte réglementaire devient obsolète extrêmement rapidement.
On a vu les progrès en 2023-2024 de l'intelligence artificielle. Chaque semaine, une nouvelle innovation technologique sur l'IA était rendue publique.
Si nous tenons cette ligne, ce qu’a fait la France au cour des négociations sur l’AI Act, nous aurons une réglementation européenne qui favorisera l’innovation et qui accélérera la diffusion de l’IA dans nos entreprises et notre société.

Pour aller plus loin

Partager la page


Avez-vous trouvé les informations que vous cherchiez ?

Votre avis nous intéresse

Nous vous recommandons de ne pas inclure de données à caractère personnel dans les champs suivants.

Merci pour votre réponse !

L'équipe de info.gouv.fr vous remercie pour votre réponse qui participera à l'amélioration du site !

Le choix de la rédaction