La nouvelle régulation de l’IA en Europe
Le 21 mai 2024, le Conseil de l'Union européenne a approuvé un règlement inédit sur l'intelligence artificielle (IA). Ce texte, premier du genre au monde, suit une approche "basée sur le risque" : plus le risque pour la société est élevé, plus les règles sont strictes.
Cette nouvelle législation a été créée pour réguler l’utilisation de l’IA en Europe. Son objectif est d'assurer que cette technologie évolue de manière sûre, éthique et respectueuse des droits des individus.
Pour s’en assurer, elle classe les systèmes d'IA en fonction de leur risque potentiel :
- les systèmes à faible risque sont tenus de respecter des obligations de transparence,
- les systèmes à haut risque doivent répondre à des exigences strictes pour accéder au marché de l'UE,
- les systèmes jugés trop dangereux, comme le scoring social et la manipulation cognitive, sont interdits.
Pour garantir l'application de cette loi, plusieurs organes sont déployés :
- « Un bureau de l’IA » sous l’égide de la Commission européenne. Il veille à l'application uniforme des règles dans toute l’UE.
- « Un groupe scientifique d’experts indépendants » destiné à apporter un soutien dans la mise en œuvre de la loi,
- « Un conseil d’administration de l’IA » pour guider la Commission et les États membres. L’objectif ? Garantir une application cohérente et efficace de la législation,
- « Un forum consultatif » qui offre aux parties prenantes la possibilité de contribuer avec leur expertise technique au conseil d’administration de l’IA et à la Commission
Les entreprises qui enfreignent la loi seront passibles de lourdes amendes, proportionnelles à leur chiffre d’affaires.
Une transparence accrue sera exigée pour les systèmes d’IA à haut risque, notamment l’obligation d’informer les personnes concernées par ces technologies. Certains domaines, comme les applications militaires et la recherche scientifique, sont exemptés de ce règlement.
Pour encourager l'innovation, la loi a prévu la mise en œuvre de "bacs à sable" réglementaires. Ces espaces sécurisés permettront aux entreprises de tester leurs systèmes d'intelligence artificielle dans des conditions réelles, mais sans risque pour le public ou d'autres systèmes. Cela leur donnera la possibilité d'évaluer la performance et la fiabilité de leurs technologies avant de les utiliser à grande échelle.
En savoir plus :