L'Artificial Intelligence Act est officiellement adopté

L’Artificial Intelligence Act ou AIA est la première législation européenne ayant un impact mondial établissant des règles horizontales pour le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle.

L’Artificial Intelligence Act ou AIA est la première législation européenne ayant un impact mondial établissant des règles horizontales pour le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle. Le 13 mars 2024 marque un tournant dans le monde de l’intelligence artificielle, puisque l’AIA a été officiellement adopté ce jour.

Qu'est-ce que c'est ?

L’intelligence artificielle (« IA ») joue un rôle central dans la transformation numérique, car elle apporte un large éventail d’avantages économiques et sociétaux à un grand nombre de secteurs (privés et publics). Par exemple, l’IA permet l’automatisation, la prise de décision intelligente, la prévision, une meilleure expérience client et une recherche effica

L’AIA s’inscrit dans le cadre plus large de la stratégie européenne en matière d’IA et du AI package, grâce auxquels l’UE entend devenir un leader mondial dans le développement d’une IA sûre, fiable et éthique. L’AIA impose des obligations aux différents acteurs impliqués dans le développement, la commercialisation et l’utilisation des systèmes d’IA, en fonction de l’étendue et de l’intensité du risque posé par le système d’IA.

larcier 05 24a

Obligations ?

  • L’AIA adopte une approche fondée sur le risque et introduit une classification des différents systèmes d’IA. Différents « niveaux de risque » (risque minimal, limité, élevé et inacceptable) sont associés à différentes exigences et obligations.
  • L’AIA interdit les systèmes d’IA qui présentent un risque inacceptable, y compris, entre autres, (i) la notation sociale basée sur l’IA (sous certaines conditions), et (ii) les systèmes d’identification biométrique à distance en temps réel dans les lieux publics.
  • Par exemple, les systèmes d’IA à haut risque peuvent être mis sur le marché de l’UE par les fournisseurs uniquement s’ils satisfont à plusieurs exigences strictes et obligatoires (telles qu’une procédure d’évaluation de la conformité, un système de gestion de la qualité et une documentation technique). En outre, ces systèmes d’IA à haut risque ne peuvent être mis en service que sous certaines conditions (telles que l’utilisation du système d’IA conformément aux conditions d’utilisation ou la réalisation d’une évaluation de l’impact sur les droits fondamentaux). Par exemple, un outil de sélection de CV et un système d’évaluation des demandes de crédit basé sur l’IA seront considérés comme des systèmes d’IA à haut risque.
  • Les systèmes d’IA destinés à interagir avec les humains, les systèmes de reconnaissance des émotions et les systèmes de catégorisation biométrique, ainsi que les systèmes d’IA utilisés pour générer ou manipuler des contenus image, audio ou vidéo (par exemple, les deep fakes) seront soumis à des règles de transparence harmonisées.
  • En outre, la transparence et d’autres obligations spécifiques s’appliquent également dans le contexte de l’IA générative (par exemple ChatGPT et DALL-E) et des modèles de fondation (par exemple GPT-4).

Gouvernance ?

Au niveau européen, l’AIA prévoit la création d’un Office AI et d’un AI Board.

L’AI Board sera composé (entre autres) de représentants des États membres et jouera un rôle important en fournissant des orientations et des conseils pour la mise en œuvre de l’AIA au niveau national et européen.

L’Office AI assume un large éventail de tâches, mais en général, il sera le centre d’expertise en matière d’IA. Il jouera donc un rôle important (entre autres) dans l’application des modèles d’IA à usage général, ainsi que dans le contexte de la coopération internationale et du soutien aux autorités nationales. La décision de la Commission européenne portant création de l’Office AI est entrée en vigueur le 21 février 2024. Au niveau national, les autorités de régulation du marché superviseront l’application de l’AIA. Enfin, il existe également des organismes d’évaluation de la conformité, des autorités notifiantes et des organismes notifiés, qui jouent un rôle dans les évaluations de la conformité par des tiers.

Qui ?

L’AIA a un large champ d’application. Les deux principaux acteurs auxquels l’AIA s’appliquera sont :

  • Fournisseurs : développer ou posséder un système d’IA mis au point en vue de le commercialiser ou de le mettre en service sous son propre nom ou sa propre marque, que ce soit à titre onéreux ou non;
  • Utilisateurs : ils utilisent un système d’IA sous leur propre responsabilité, sauf si le système d’IA est utilisé dans le cadre d’une activité personnelle non professionnelle.

Il existe également des “représentants autorisés”. Ils ont obtenu une autorisation écrite d’un fournisseur de système d’IA, situé en dehors de l’UE, pour remplir et mettre en œuvre en son nom les obligations et les procédures de l’AIA.

Finalement, l’AIA impose également certaines obligations aux importateurs et aux distributeurs de systèmes d’IA, ainsi qu’aux fabricants de produits.

Comme le règlement général sur la protection des données, l’AIA aura un effet extraterritorial. Il faut donc s’attendre à un « effet Bruxelles », qui semble déjà s’installer, compte tenu du récent décret du président Biden et de la déclaration de Bletchley des pays participant au sommet sur la sécurité de l’IA qui a eu lieu au Royaume-Uni en novembre 2023.

Des sanctions ?

Le non-respect de l’accord préalable en connaissance de cause peut entraîner diverses sanctions. Par exemple, une autorité de contrôle nationale peut prendre des mesures correctives (comme le retrait du système d’IA du marché). En outre, les États membres doivent également fixer des amendes administratives dans les limites des seuils prévus par l’accord (jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial). Enfin, les États membres doivent également fixer et appliquer des sanctions (effectives, proportionnées et dissuasives).

Quand ?

Depuis l’accord politique sur l’AIA conclu le 8 décembre 2023, l’AIA a franchi plusieurs autres étapes législatives européennes. Les développements les plus récents sont la signature de l’AIA par le comité des représentants permanents (Coreper) le 2 février 2024 et sa ratification par les commissions du marché intérieur et de la protection des consommateurs (IMCO) et des libertés civiles, de la justice et des affaires intérieures (LIBE) du Parlement européen le 13 février 2024. Le 13 mars 2024, le Parlement européen a finalement adopté formellement l’AIA lors de son vote en séance plénière.

L’AIA entrera en vigueur 20 jours après sa publication au Journal officiel de l’Union européenne, mais l’applicabilité de ses dispositions se déroulera en plusieurs phases distinctes. La plupart des dispositions, telles que l’application des obligations pour les systèmes d’IA à haut risque dans l’annexe III de l’AIA, deviendront applicables deux ans après son entrée en vigueur (mi-2026). Il existe toutefois plusieurs exceptions : par exemple, les pratiques interdites en matière d’IA deviennent applicables après seulement six mois (décembre 2024) et les obligations pour les fournisseurs de general purpose AI models après 12 mois (mi-2025). Compte tenu de la position proactive de l’Union européenne dans la promotion d’une innovation et d’une adoption responsables de l’IA, la Commission européenne initie le Pacte sur l’IA, encourageant les acteurs de l’industrie à mettre en œuvre les dispositions de l’AIA avant l’échéance légale.

Quelle est la meilleure action à entreprendre dans l’immédiat ?

Compte tenu, entre autres, (i) du nombre d’obligations imposées par l’AIA aux entités concernées, et (ii) des amendes administratives importantes qui pèsent sur les entités en cas de non-respect de l’AIA, nous vous recommandons de prendre des mesures immédiates afin d’agir déjà conformément à l’AIA. Il s’agit par exemple de dresser un inventaire des systèmes d’IA avec les analyses de risque correspondantes, d’élaborer les politiques nécessaires, de mettre en œuvre dès à présent les exigences de l’AIA lors du développement (ultérieur) de vos systèmes d’IA, etc.

Par Anneleen Van de Meulebroucke et Ellen Caen, Eubelius


Découvrez tous nos articles sur l’intelligence artificielle sur l’AI-Hub de Larcier-Intersentia.

Abonnez-vous à notre newsletter pour rester informé des dernières tendances en matière d'IA, des perspectives de l'industrie et du contenu pertinent sur l'importance de l'IA au sein de votre profession.

AI HUB footer FR OK

 

 

More Partner Blogs


05 septembre 2024

L’IA au carrefour entre développement technologique et dilemmes éthiques

Depuis des siècles, le progrès technologique transforme notre quotidien, tant au niveau privé que...

Lire la suite...

29 août 2024

One year of the FSR: the first (in-depth) investigations and the impact on international trade dynamics

On 12 July 2024, the Foreign Subsidies Regulation (FSR) celebrated its first anniversary.

Lire la suite...

27 août 2024

Trends in the legal recruitment market

Sara Beernaert, Sara Berquin and Karolien Eeckhoudt, three of our leading legal recruitment...

Lire la suite...

26 août 2024

Ecodesign: textiles, footwear, detergents and chemicals amongst products to be prioritised under new rules

Published on 28 June 2024 and in force since 18 July, the Ecodesign for Sustainable Products...

Lire la suite...

22 août 2024

Atténuer les risques juridiques : le guide stratégique pour les services juridiques

En tant que juriste d’entreprise, il est essentiel de comprendre les graves conséquences du...

Lire la suite...