Le règlement européen sur l’intelligence artificielle (AI Act) adopté en juin 2024 encadre l’usage des systèmes d’IA selon un cadre fondé sur le risque, avec des interdictions et obligations progressivement entrées en vigueur depuis février 2025 dans les différents Etats membres de l’UE. La Commission européenne a récemment proposé des mesures visant à simplifier la mise en œuvre de ce cadre afin de favoriser l’innovation tout en assurant la sécurité et la transparence, notamment via des codes de bonnes pratiques spécifiques.
Notre dossier fait le point sur ces deux textes.
• 1/ Rappel des textes en vigueur sur l’IA
Le règlement (UE) 2024/1689, dit AI Act, est entré en vigueur officiellement le 1er août 2024, avec une application progressive des règles dès février 2025. Il constitue la première législation générale et exhaustive dédiée à l'intelligence artificielle au niveau mondial.
Les objectifs principaux du règlement sont :
• D’assurer la sécurité et le respect des droits : garantir que les systèmes d'IA sont sûrs, respectent les droits fondamentaux, les valeurs de l'UE, l'État de droit et l'environnement
• De créer un cadre juridique uniforme : favoriser les investissements et l'innovation en établissant des règles harmonisées au sein de l'Union, tout en renforçant la gouvernance et en améliorant le marché intérieur pour les applications d'IA légales et sûres.
L’AI Act classe les IA selon quatre niveaux de risque (minime, limité, élevé, inacceptable). Les systèmes à risque inacceptable sont interdits depuis le 2 février 2025 et les IA à haut risque sont soumises à des exigences strictes, comme des audits, documentation exhaustive, contrôle des biais et traçabilité, avec une application graduelle jusqu’en août 2027 selon les secteurs.
En France, la mise en œuvre du RIA est assurée par plusieurs autorités sectorielles, chacune intervenant dans son domaine de compétence, sous coordination de la DGCCRF qui assure le rôle de point de contact unique. Pour les pratiques interdites, la CNIL (Commission nationale de l'informatique et des libertés) et la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes) assurent le contrôle du respect de l'interdiction de notation sociale tandis que l'Arcom (Autorité de régulation de la communication audiovisuelle et numérique) et la DGCCRF contrôlent les pratiques manipulatrices ou trompeuses. La CNIL est également chargée du contrôle des systèmes de reconnaissance des émotions ou de catégorisation biométrique8. La DGCCRF et l'Arcom supervisent les systèmes d'IA destinés à interagir directement avec des personnes physiques et ceux générant des contenus de synthèse.
La Direction générale des entreprises (DGE) continue d'apporter son soutien à la mise en œuvre du texte en tant qu'autorité réglementaire en charge du RIA et représente la France au sein du Comité européen de l'IA.
La Commission européenne a très tôt publié des lignes directrices, des codes de bonnes pratiques, et instauré des dispositifs comme le pacte sur l’IA et un service d’assistance légale pour les entreprises. Des sanctions administratives significatives sont prévues pour les manquements au RIA. Pour les violations des systèmes interdits ou des obligations à haut risque, les amendes peuvent aller jusqu'à 35 millions d'EUR ou 7 % du chiffre d'affaires annuel mondial réalisé au cours de l'exercice précédent (le montant le plus élevé s'applique).
2/ Recommandations de la Commission européenne
Dès la signature du RIA, la Commission européenne avait émis des recommandations dans le cadre du plan d’action, visant à faire de l’Europe un leader en intelligence artificielle fiable et compétitive. Ce plan mettait l’accent sur le développement d’infrastructures de données et de calcul, l’accès à des données de qualité, le renforcement des compétences, et la facilitation de la mise en œuvre de la législation sur l’IA. Parmi les initiatives lancées figurait notamment l’Académie des compétences en IA en octobre 2025. Plusieurs lignes directrices ont été publiées, notamment en février 2025 et en juillet 2025, pour clarifier la définition des systèmes d’IA et les obligations applicables aux modèles d’IA à usage général (GPAI).
Le 19 novembre dernier, la Commission a proposé des modifications ciblées de la législation sur l’IA, dans le cadre d’un plan dit « Digital Omnibus » visant à simplifier la mise en œuvre de la législation sur l’IA, clarifier les règles et réduire les charges administratives pour les entreprises, tout en maintenant des exigences adaptées pour l’innovation et la sécurité. La Commission insiste sur l’élaboration et l’adoption des codes de bonnes pratiques, qui précisent les obligations des fournisseurs et déployeurs d’IA pour assurer transparence, auditabilité et gestion des risques systémiques, en particulier pour les GPAI.
La stratégie « Apply AI » a également été présentée en octobre 2025 pour bâtir un écosystème européen souverain de l’IA en renforçant la compétitivité, la formation des talents, et en réduisant la dépendance aux technologies étrangères. Des instances consultatives et scientifiques accompagnent la Commission dans la supervision de la mise en œuvre et pour conseiller sur les évolutions nécessaires, favorisant ainsi un dialogue inclusif avec les acteurs publics et privés. Dans son rapport, la Commission souligne le risque de voir se cumuler des textes qui poursuivent le même objectif mais qui peuvent différer quant à leurs champs d’application et leur application, pouvant entraîner des doublons et des difficultés de mise en œuvre pour les différents acteurs.
Dossier du mois : Intelligence artificielle : vers un assouplissement des règles
Lundi 01 décembre 2025





