Retour au blog
Bonnes pratiques17 min readMay 1, 2026

Règlement IA : comment classer correctement votre cas d'usage IA en 2026 (guide PME)

By Anna Bergström

L'essentiel

Le règlement (UE) 2024/1689 sur l'intelligence artificielle — couramment appelé règlement IA ou AI Act — répartit chaque système d'IA dans l'une de quatre catégories de risque, auxquelles s'ajoute un cinquième régime parallèle pour les modèles à usage général. Pour la majorité des PME européennes, l'enjeu n'est pas de débattre du texte : il est de classer correctement leurs cas d'usage existants — souvent une intégration ChatGPT pour le service client, un outil de présélection de CV, un moteur de scoring de leads, un chatbot RH — puis d'appliquer le bon paquet d'obligations à chacun. Une mauvaise classification expose à des sanctions allant jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial pour les pratiques interdites, et jusqu'à 15 millions d'euros ou 3 % pour les manquements en risque élevé. Cet article propose une grille opérationnelle : les quatre catégories décortiquées, le régime GPAI, un arbre de décision en huit questions, les cinq pièges de classification les plus courants, une liste de conformité par niveau et un calendrier des échéances jusqu'en août 2027. Objectif : qu'à la lecture, vous sachiez précisément dans quelle case se range chacun de vos systèmes IA et ce que cela exige de vous.

Pourquoi se tromper de classification coûte plus cher que se mettre en conformité

La structure de sanction du règlement IA est calibrée pour rendre la mauvaise classification économiquement absurde. Les pratiques interdites de l'article 5 — par exemple un usage de notation sociale, ou une reconnaissance des émotions au travail hors cadre médical ou de sécurité — exposent à une amende administrative pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, le montant le plus élevé étant retenu. Le manquement aux obligations applicables aux systèmes d'IA à haut risque (gouvernance des données, documentation technique, surveillance humaine, évaluation de conformité, marquage CE et autres) est plafonné à 15 millions d'euros ou 3 % du chiffre d'affaires. La fourniture d'informations inexactes, incomplètes ou trompeuses aux autorités nationales compétentes ou aux organismes notifiés peut elle-même atteindre 7,5 millions d'euros ou 1,5 % du chiffre d'affaires. Pour les PME, le règlement prévoit une proportionnalité : les autorités tiennent compte des intérêts économiques et de la viabilité, et les barèmes peuvent être atténués. Mais l'atténuation joue sur le plafond, pas sur le principe : un déployeur qui se trompe de catégorie reste sanctionnable.

La perte la plus douloureuse n'est généralement pas l'amende elle-même mais l'effet en chaîne : retrait d'un système du marché européen pendant la mise en conformité, contentieux avec les clients qui exigent que vous démontriez la conformité de votre fournisseur IA, dégradation de votre cote auprès des grands donneurs d'ordre dont les marchés exigent désormais une attestation de conformité au règlement IA. Une PME qui découvre tardivement qu'un outil utilisé depuis dix-huit mois aurait dû être classé en risque élevé fait face à un coût de mise en conformité rétroactive — DPIA, journalisation, surveillance humaine, documentation technique, évaluation de conformité — souvent cinq à dix fois supérieur au coût d'une classification correcte dès le départ. Le calcul est donc simple : passer une demi-journée à classer rigoureusement chaque cas d'usage est l'investissement de conformité au meilleur rapport coût/bénéfice du règlement.

Les quatre catégories officielles de risque

Le règlement IA construit une pyramide de risque. Au sommet, des pratiques tout simplement interdites. En dessous, les systèmes à haut risque, soumis à la charge de conformité la plus lourde. Plus bas, les systèmes à risque limité, soumis à des obligations de transparence ciblées. Tout en bas, les systèmes à risque minimal, libres de toute obligation contraignante. Vous devez classer chaque cas d'usage IA dans une seule de ces catégories — la catégorie la plus contraignante l'emporte en cas de chevauchement.

Risque inacceptable (article 5)

Les pratiques interdites sont applicables depuis le 2 février 2025. Le règlement énumère huit familles d'usages prohibés. La notation sociale par les autorités publiques ou pour le compte de celles-ci, lorsqu'elle conduit à un traitement défavorable dans des contextes sociaux sans rapport avec ceux où les données ont été collectées, est interdite. L'identification biométrique à distance en temps réel dans les espaces accessibles au public à des fins répressives est interdite, sauf exceptions strictement limitées (recherche ciblée de victimes spécifiques, prévention d'une menace grave et imminente, recherche d'auteurs de certaines infractions graves) — et même dans ces cas, des garanties strictes s'appliquent : autorisation judiciaire ou administrative préalable, notification à l'autorité de surveillance du marché, registre.

La reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement est interdite, sauf pour des raisons médicales ou de sécurité (par exemple un dispositif détectant la somnolence d'un conducteur de poids lourd). La collecte non ciblée d'images faciales sur internet ou à partir de la vidéosurveillance pour créer ou enrichir des bases de données de reconnaissance faciale est interdite. L'exploitation des vulnérabilités d'une personne dues à son âge, à un handicap ou à sa situation socio-économique pour altérer significativement son comportement et lui causer un préjudice est interdite. Les techniques subliminales ou délibérément manipulatrices visant le même résultat sont interdites. La police prédictive fondée uniquement sur le profilage ou l'évaluation des traits de personnalité est interdite. Enfin, la catégorisation biométrique des personnes physiques pour déduire leur race, leurs opinions politiques, leur appartenance syndicale, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle est interdite.

Si l'un de vos systèmes tombe dans cette catégorie, la seule conformité possible est l'arrêt. Aucun aménagement contractuel, aucune surveillance humaine renforcée, aucune documentation technique ne rend ces pratiques licites dans l'Union.

Risque élevé (article 6 et annexe III)

Cette catégorie concentre l'essentiel de la charge de conformité. La majorité des dispositions associées aux systèmes à haut risque devient applicable le 2 août 2026, avec un délai prolongé au 2 août 2027 pour les systèmes à haut risque qui sont des composants de sécurité de produits relevant de la législation d'harmonisation listée à l'annexe II (jouets, dispositifs médicaux, ascenseurs, équipements radio, etc.). Un système d'IA est à haut risque dans deux situations.

Première situation : il est un composant de sécurité d'un produit, ou est lui-même un produit, relevant de la législation d'harmonisation de l'Union listée à l'annexe II et soumis à une évaluation de conformité par tiers au titre de cette législation. Concrètement, un module IA intégré à un dispositif médical de classe IIa ou supérieure, ou à une machine industrielle au titre du règlement Machines, bascule en haut risque par cette voie.

Seconde situation : il relève de l'un des huit domaines de l'annexe III. Premièrement, l'identification et la catégorisation biométriques (lorsqu'elles ne sont pas interdites au titre de l'article 5) ainsi que la reconnaissance des émotions hors usages autorisés. Deuxièmement, les infrastructures critiques — gestion et exploitation du trafic routier, distribution d'eau, de gaz, de chaleur ou d'électricité, infrastructures numériques critiques. Troisièmement, l'éducation et la formation professionnelle — admission, évaluation des résultats d'apprentissage, orientation vers les niveaux d'enseignement, surveillance des examens. Quatrièmement, l'emploi, la gestion des travailleurs et l'accès à l'emploi indépendant — recrutement et sélection, décisions affectant les conditions de travail, la promotion ou la résiliation, attribution des tâches, surveillance et évaluation des performances et du comportement. C'est dans cette catégorie que tombent la plupart des outils RH algorithmiques utilisés par les PME.

Cinquièmement, l'accès et la jouissance des services privés essentiels et des services publics — évaluation de l'éligibilité aux prestations sociales, scoring de crédit hors usages internes de détection de fraude, tarification de l'assurance-vie ou de l'assurance-maladie, dispatching et hiérarchisation des appels d'urgence. Sixièmement, le maintien de l'ordre — évaluation du risque qu'une personne devienne victime d'infractions, polygraphes et outils similaires, évaluation de la fiabilité des éléments de preuve, profilage dans le cadre de la détection ou de l'enquête. Septièmement, la migration, l'asile et le contrôle des frontières — polygraphes, évaluation des risques liés à une personne entrant sur le territoire, examen des demandes. Huitièmement, l'administration de la justice et les processus démocratiques — assistance d'une autorité judiciaire dans la recherche et l'interprétation des faits et du droit, ou influence sur le résultat d'une élection ou d'un référendum.

Le règlement prévoit une dérogation à l'article 6, paragraphe 3 : un système répertorié à l'annexe III n'est pas considéré comme à haut risque s'il ne présente pas de risque significatif d'atteinte à la santé, à la sécurité ou aux droits fondamentaux. Cette dérogation est étroite — elle vise par exemple un système d'IA qui se borne à exécuter une tâche procédurale étroite, ou qui ne fait qu'améliorer le résultat d'une activité humaine déjà accomplie. Documenter rigoureusement le motif de l'exclusion est obligatoire ; une auto-déclaration sans dossier ne résistera pas à un contrôle.

Risque limité (article 50)

Les systèmes d'IA à risque limité sont soumis à des obligations de transparence ciblées, applicables le 2 août 2026. Trois cas principaux. Premier cas : les systèmes d'IA destinés à interagir directement avec des personnes physiques — chatbots, assistants vocaux, agents conversationnels — doivent être conçus de telle sorte que les personnes concernées soient informées qu'elles interagissent avec un système d'IA, à moins que ce ne soit évident pour une personne raisonnablement avertie compte tenu du contexte. Deuxième cas : les contenus générés ou manipulés par IA constituant des hypertrucages (deepfakes) doivent être étiquetés comme tels — image, audio, vidéo — sauf exceptions limitées (œuvre artistique manifestement satirique, par exemple). Troisième cas : les textes générés ou manipulés par IA et publiés dans le but d'informer le public sur des questions d'intérêt public doivent être divulgués comme tels, sauf si le contenu a fait l'objet d'un examen humain ou d'un contrôle éditorial et qu'une personne physique ou morale assume la responsabilité éditoriale.

Notez : un chatbot de service client pour une PME est un système à risque limité — il déclenche l'obligation de transparence de l'article 50 — mais ce n'est pas un système à haut risque. La distinction est cruciale et induit régulièrement en erreur les responsables conformité.

Risque minimal

Cette catégorie regroupe tout ce qui ne tombe ni dans les pratiques interdites, ni en haut risque, ni en risque limité : filtres anti-spam dans une messagerie, IA dans les jeux vidéo, moteurs de recommandation purement éditoriale, traduction automatique, optimisation logistique sans impact sur les droits des personnes. Aucune obligation contraignante au titre du règlement IA. L'article 95 encourage l'adhésion volontaire à des codes de conduite — utile pour la maturité conformité et la communication client, mais sans contrainte juridique.

Le cinquième volet : modèles d'IA à usage général (GPAI)

Les articles 51 à 55 instaurent un régime parallèle pour les modèles d'IA à usage général — les modèles de fondation comme GPT-4o, Claude, Gemini, Mistral Large, Llama. Ces dispositions sont applicables depuis le 2 août 2025. Le régime distingue deux niveaux. Premier niveau, le GPAI standard : tout fournisseur d'un modèle d'IA à usage général doit établir et tenir à jour une documentation technique du modèle, fournir des informations et de la documentation aux fournisseurs en aval qui souhaitent intégrer le modèle dans leurs propres systèmes, mettre en place une politique de respect du droit d'auteur de l'Union (notamment l'identification et le respect des réserves de droits exprimées par les ayants droit au titre de l'article 4, paragraphe 3 de la directive sur le droit d'auteur dans le marché unique numérique), et publier un résumé suffisamment détaillé du contenu utilisé pour l'entraînement du modèle.

Second niveau, le GPAI à risque systémique : un modèle franchit ce seuil si la puissance de calcul cumulée utilisée pour son entraînement dépasse 10^25 opérations en virgule flottante (FLOPs), ou s'il est désigné comme tel par la Commission sur la base de critères qualitatifs (taille du modèle, nombre d'utilisateurs professionnels, modalités, etc.). Aux obligations standard s'ajoutent : évaluation du modèle conformément à des protocoles standardisés (red-teaming compris), évaluation et atténuation des risques systémiques au niveau de l'Union, documentation et signalement des incidents graves à l'Office européen de l'IA et aux autorités nationales compétentes, et mise en place d'un niveau adéquat de protection en matière de cybersécurité du modèle et de l'infrastructure physique sous-jacente.

Point essentiel pour les PME : vous êtes très probablement déployeur d'un GPAI, pas fournisseur. Vos obligations directes au titre des articles 51-55 sont quasi nulles — c'est OpenAI, Anthropic, Google, Meta, Mistral qui en supportent la charge. Mais cela ne signifie pas que vous échappez au règlement : votre cas d'usage construit au-dessus du modèle est classifié séparément selon la pyramide de risque (inacceptable, haut, limité, minimal) et déclenche les obligations correspondantes au titre de cette classification. Une PME qui utilise GPT-4o via API pour trier des CV exploite un GPAI (obligations du fournisseur en amont, qui ne vous concernent pas) ET déploie un système à haut risque au titre de l'annexe III.4 (obligations de l'article 26 sur les déployeurs et alignement avec les exigences pesant sur les fournisseurs en aval, qui vous concernent intégralement). Les deux régimes coexistent et ne se substituent pas.

Arbre de décision : classer votre cas d'usage en 8 questions

Voici un arbre de décision opérationnel à dérouler dans l'ordre. Dès qu'une question vous oriente vers un niveau, arrêtez-vous et appliquez les obligations correspondantes — sans oublier que le déploiement d'un GPAI s'ajoute en parallèle si vous utilisez un modèle de fondation tiers.

Question 1 : votre système relève-t-il d'une des huit pratiques interdites de l'article 5 ? Notation sociale par autorité publique, identification biométrique en temps réel dans l'espace public, reconnaissance des émotions au travail ou à l'école hors médical/sécurité, scraping facial pour bases biométriques, manipulation ou exploitation de vulnérabilités, police prédictive par profilage seul, catégorisation biométrique de caractéristiques sensibles. Si oui — arrêt immédiat. Si non — passez à la question 2.

Question 2 : votre système est-il un composant de sécurité d'un produit relevant de la législation d'harmonisation de l'annexe II (machines, jouets, dispositifs médicaux, ascenseurs, équipements radio, véhicules, etc.) et soumis à une évaluation de conformité par tiers au titre de cette législation ? Si oui — haut risque au titre de l'article 6, paragraphe 1. Si non — passez à la question 3.

Question 3 : votre cas d'usage tombe-t-il dans l'un des huit domaines de l'annexe III ? Biométrie hors interdiction, infrastructures critiques, éducation, emploi/RH/recrutement, services privés essentiels et services publics, maintien de l'ordre, migration et frontières, justice et processus démocratiques. Si oui — passez à la question 4. Si non — passez à la question 6.

Question 4 : pouvez-vous documenter rigoureusement que votre système, bien qu'il relève d'un domaine de l'annexe III, ne présente pas de risque significatif d'atteinte à la santé, à la sécurité ou aux droits fondamentaux au titre de la dérogation de l'article 6, paragraphe 3 (tâche procédurale étroite, simple amélioration du résultat d'une activité humaine, détection de tendances décisionnelles humaines, ou tâche purement préparatoire à une évaluation pertinente) ? La dérogation est étroite et le dossier doit être solide. Si oui et documenté — sortie d'annexe III, passez à la question 6 pour vérifier les obligations de transparence. Si non, ou si vous avez le moindre doute — haut risque.

Question 5 : si votre système est en haut risque, quelle est votre qualité au sens du règlement — fournisseur (vous le développez ou le faites développer pour le mettre sur le marché en votre nom), déployeur (vous l'utilisez sous votre autorité pour vos opérations), importateur ou distributeur ? La majorité des PME sont déployeurs. Les obligations diffèrent : les fournisseurs portent l'évaluation de conformité, le marquage CE, l'enregistrement dans la base de données UE, la documentation technique complète ; les déployeurs portent les obligations de l'article 26 — usage conforme aux instructions, surveillance humaine effective, journalisation, suivi des performances, information des travailleurs et des personnes concernées, analyse d'impact sur les droits fondamentaux dans certains cas.

Question 6 : votre système interagit-il directement avec des personnes physiques (chatbot, assistant vocal, agent conversationnel), génère-t-il des hypertrucages (image, audio, vidéo, texte), ou produit-il des textes destinés à informer le public sur des questions d'intérêt public ? Si oui — risque limité, obligations de transparence de l'article 50. Si non — passez à la question 7.

Question 7 : votre système relève-t-il du risque minimal. Aucune obligation contraignante au titre du règlement IA, mais examinez l'opportunité d'adhérer à un code de conduite au titre de l'article 95.

Question 8 : votre système s'appuie-t-il sur un modèle d'IA à usage général (GPT, Claude, Gemini, Mistral, Llama, etc.) ? Si oui — vous êtes déployeur de GPAI : la plupart des obligations des articles 51-55 incombent au fournisseur du modèle, mais vous devez vous assurer que vous disposez de la documentation et des instructions transmises par ce fournisseur, et que votre usage en aval respecte les conditions et limites communiquées. Cela s'ajoute à la classification du cas d'usage déterminée par les questions 1 à 7.

Erreurs de classification fréquentes

Cinq pièges récurrents que nous voyons dans les audits de PME francophones. Évitez-les avant qu'ils ne deviennent un constat d'inspection.

Piège 1 : « On utilise juste ChatGPT, le règlement IA ne nous concerne pas »

Faux à deux niveaux. D'abord, en utilisant ChatGPT vous êtes déployeur d'un GPAI, ce qui déclenche les obligations de bonne utilisation en aval (respect des conditions du fournisseur, traçabilité de l'usage, instructions au personnel). Ensuite et surtout, le cas d'usage que vous construisez au-dessus du modèle est classifié indépendamment. Une PME RH-tech parisienne de cinquante personnes qui intègre GPT-4o pour la présélection de CV : déroulons l'arbre. Question 1 : pratique interdite ? Non. Question 2 : composant de sécurité au titre de l'annexe II ? Non. Question 3 : annexe III ? Oui — point 4, emploi et accès à l'emploi, recrutement et sélection. Question 4 : dérogation de l'article 6, paragraphe 3 ? Le tri de CV qui filtre des candidats avant l'entretien humain est précisément le type de scénario où la dérogation ne joue pas — l'IA influence directement l'accès à l'emploi. Conclusion : système à haut risque, obligations de l'article 26 pour la PME en tant que déployeur, plus les obligations résiduelles côté fournisseur si la PME a substantiellement modifié le modèle (voir piège 3).

Piège 2 : « C'est uniquement en interne, ça n'est pas mis sur le marché »

Cette croyance est probablement la plus dangereuse. Le règlement IA ne distingue pas, pour les obligations clés du haut risque, entre usage interne et mise sur le marché de tiers. Le critère opérant est l'effet du système sur la santé, la sécurité ou les droits fondamentaux des personnes — qu'elles soient candidates à un poste chez vous, vos propres salariés évalués par un outil de performance, ou les bénéficiaires de prestations de votre entreprise. Un cabinet d'avocats lyonnais qui utilise un outil d'évaluation des performances de ses collaborateurs alimenté par IA déploie un système à haut risque même si l'outil n'est jamais commercialisé. Une scale-up bruxelloise qui filtre ses propres candidatures internes pour des promotions via un algorithme de scoring déploie un système à haut risque. La frontière interne/externe n'est pas un critère de classification.

Piège 3 : « Nous n'avons pas entraîné le modèle, nous ne sommes pas fournisseur »

C'est vrai dans la majorité des cas, mais pas toujours. L'article 25 prévoit qu'un déployeur peut basculer en statut de fournisseur dans plusieurs hypothèses. Première hypothèse : vous mettez votre nom ou votre marque sur un système d'IA à haut risque déjà mis sur le marché, en assumant la responsabilité du système sous votre identité. Deuxième hypothèse : vous apportez une modification substantielle à un système d'IA à haut risque déjà mis sur le marché, de sorte qu'il reste à haut risque. Troisième hypothèse : vous modifiez la finalité d'un système d'IA, y compris d'un GPAI, qui n'avait pas été classifié à haut risque, et que cette modification le fait basculer en haut risque. Pour les PME, le scénario réaliste est le fine-tuning poussé d'un modèle de fondation pour un usage relevant de l'annexe III : si la modification altère substantiellement les capacités ou la finalité, vous endossez les obligations du fournisseur, y compris l'évaluation de conformité, la documentation technique complète et le marquage CE. Documentez systématiquement la nature et l'ampleur de toute modification appliquée à un modèle tiers.

Piège 4 : confondre risque limité et risque minimal pour les chatbots client

Un chatbot de service client n'est pas à risque minimal — il est à risque limité au titre de l'article 50. La nuance est concrète : à risque minimal vous n'avez aucune obligation, à risque limité vous devez informer la personne qu'elle interagit avec un système d'IA (ou que le contenu qu'elle voit a été généré par IA dans les cas de deepfake). L'information doit être donnée de manière claire et distincte au plus tard lors de la première interaction ou exposition. La pratique fréquente d'enterrer cette mention dans les conditions générales d'utilisation ne satisfait pas l'article 50. Un bandeau d'ouverture du chatbot, un avatar non humain explicite, ou une mention d'introduction au premier message suffisent.

Piège 5 : oublier l'article 22 du RGPD

Le règlement IA ne se substitue pas au RGPD ; les deux régimes s'empilent. L'article 22 du RGPD interdit qu'une personne fasse l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire — sauf consentement explicite, contrat, ou autorisation par le droit de l'Union ou d'un État membre. Cette interdiction est antérieure au règlement IA et continue de jouer. Un outil de scoring de crédit qui décide automatiquement de l'octroi d'un prêt déclenche à la fois la classification haut risque au titre de l'annexe III.5(b) et l'application de l'article 22 du RGPD avec ses obligations propres (intervention humaine, droit d'expression de point de vue, droit de contestation). Votre dossier de conformité doit traiter les deux régimes de front, pas l'un à la place de l'autre.

Liste de conformité par niveau

Pour chaque niveau, voici la liste opérationnelle d'actions à conduire. Cette liste n'est pas exhaustive mais couvre l'essentiel auquel un audit de surveillance s'attendra à voir documenté.

Risque inacceptable

Une seule liste : arrêter immédiatement, repenser le besoin métier sous-jacent, identifier une alternative non-IA ou une approche IA qui ne tombe pas dans les pratiques interdites, et documenter la décision de sortie. Conservez la trace écrite de cette décision : elle vous servira de preuve en cas de contrôle portant sur la période antérieure à l'arrêt.

Risque élevé — obligations du fournisseur

  • Système de gestion des risques (article 9) : processus continu, itératif et documenté sur tout le cycle de vie du système, identifiant et traitant les risques connus et raisonnablement prévisibles.
  • Gouvernance des données (article 10) : pratiques de gestion des données d'entraînement, de validation et de test, examen de la pertinence, de la représentativité, de l'absence d'erreurs et du caractère complet, prise en compte des biais possibles.
  • Documentation technique (article 11 et annexe IV) : description générale du système, description détaillée des éléments et des processus de développement, informations sur le suivi, le fonctionnement et le contrôle, mesures de cybersécurité.
  • Journalisation (article 12) : capacité de tenir des journaux automatisés enregistrant la durée d'utilisation, la base de données de référence, les données d'entrée pour lesquelles la recherche a abouti à une correspondance, et l'identification des personnes physiques participant à la vérification des résultats.
  • Transparence et information des utilisateurs (article 13) : instructions d'utilisation claires, complètes, exactes, accessibles et compréhensibles pour les déployeurs.
  • Surveillance humaine (article 14) : conception permettant une supervision effective par des personnes physiques pendant la période d'utilisation, capacité de comprendre les capacités et les limites, vigilance face au biais d'automatisation, capacité d'interrompre.
  • Exactitude, robustesse et cybersécurité (article 15) : niveaux appropriés d'exactitude documentés dans les instructions d'utilisation, résilience aux erreurs, défaillances et incohérences, mesures techniques pour prévenir les attaques tentant d'exploiter les vulnérabilités.
  • Système de management de la qualité (article 17) : politique documentée couvrant la stratégie de conformité réglementaire, les techniques et procédures de contrôle, les procédures d'examen, de test et de validation, les spécifications techniques, le système de gestion des données, le système de gestion des risques, la procédure de surveillance après commercialisation, la procédure de signalement des incidents graves, la communication avec les autorités, l'allocation des ressources humaines.
  • Évaluation de conformité (article 43) : selon le type de système, contrôle interne (annexe VI) ou intervention d'un organisme notifié (annexe VII).
  • Marquage CE (article 48) : apposition visible, lisible et indélébile, accompagnée du numéro d'identification de l'organisme notifié si applicable.
  • Enregistrement dans la base de données UE (article 49) : avant la mise sur le marché ou la mise en service, enregistrement du système et des informations associées dans la base gérée par la Commission.
  • Surveillance après commercialisation (article 72) : système actif et documenté de collecte, d'analyse et d'évaluation des données pertinentes pour la performance du système tout au long de sa vie.
  • Signalement des incidents graves (article 73) : notification à l'autorité de surveillance du marché de l'État membre concerné dans les délais prévus (généralement quinze jours, raccourcis pour certains incidents).

Risque élevé — obligations du déployeur (article 26)

Pour les PME qui sont déployeurs (et non fournisseurs) d'un système à haut risque, les obligations principales sont : utiliser le système conformément aux instructions d'utilisation, confier la surveillance humaine à des personnes physiques disposant des compétences, de la formation et de l'autorité nécessaires, s'assurer que les données d'entrée sont pertinentes et suffisamment représentatives, surveiller le fonctionnement du système et en informer le fournisseur en cas de risque ou d'incident, conserver les journaux générés automatiquement pendant une durée appropriée (au moins six mois sauf disposition contraire), informer les travailleurs et leurs représentants si un système à haut risque est utilisé sur le lieu de travail avant sa mise en service, informer les personnes physiques concernées qu'elles sont soumises à un système d'IA à haut risque lorsqu'il prend des décisions ou les assiste, et — pour certains domaines (administrations publiques, services privés essentiels) — réaliser une analyse d'impact sur les droits fondamentaux avant la première utilisation.

Risque limité

  • Information claire et distincte des personnes physiques qu'elles interagissent avec un système d'IA, donnée au plus tard lors de la première interaction (article 50, paragraphe 1).
  • Étiquetage des contenus synthétiques générés par IA — image, audio, vidéo — dans un format lisible par machine, et identification comme tels (article 50, paragraphe 2).
  • Étiquetage des hypertrucages comme contenus générés ou manipulés artificiellement (article 50, paragraphe 4).
  • Divulgation, pour les textes générés par IA publiés en vue d'informer le public sur des questions d'intérêt public, du caractère artificiel du contenu — sauf revue éditoriale humaine documentée et responsabilité éditoriale assumée (article 50, paragraphe 4).

Risque minimal

  • Aucune obligation contraignante au titre du règlement IA.
  • Adhésion volontaire à un code de conduite au titre de l'article 95 — utile pour la maturité conformité, la communication client et la préparation à d'éventuelles évolutions réglementaires.

Fournisseurs de GPAI

  • Documentation technique du modèle, comprenant le processus d'entraînement et de test, les résultats d'évaluation (article 53, paragraphe 1, point a).
  • Informations et documentation à destination des fournisseurs en aval qui souhaitent intégrer le modèle, suffisantes pour leur permettre de bien comprendre les capacités et les limites (article 53, paragraphe 1, point b).
  • Politique de respect du droit d'auteur de l'Union, comprenant l'identification et le respect des réserves de droits exprimées au titre de l'article 4, paragraphe 3 de la directive (UE) 2019/790 (article 53, paragraphe 1, point c).
  • Résumé suffisamment détaillé du contenu utilisé pour l'entraînement, selon un modèle fourni par l'Office européen de l'IA (article 53, paragraphe 1, point d).
  • Pour les modèles à risque systémique : évaluation conformément à des protocoles standardisés, évaluation et atténuation des risques systémiques au niveau de l'Union, signalement des incidents graves, niveau adéquat de cybersécurité (article 55).

Calendrier des échéances

Le règlement IA déploie ses obligations en cinq vagues. Connaissez-les pour planifier votre roadmap.

Premier jalon, 2 février 2025 : entrée en application des dispositions générales (chapitre I) et des pratiques interdites (chapitre II, article 5). À cette date, tout système relevant des huit pratiques interdites doit avoir été retiré ou cessé.

Deuxième jalon, 2 août 2025 : entrée en application des règles relatives aux modèles d'IA à usage général (chapitre V), de la gouvernance (chapitre VII) et des sanctions (chapitre XII). À cette date, les fournisseurs de GPAI mis sur le marché de l'Union à compter du 2 août 2025 doivent satisfaire l'intégralité des obligations des articles 53 et 55. Les fournisseurs de GPAI mis sur le marché avant cette date disposent d'un délai jusqu'au 2 août 2027 pour se mettre en conformité.

Troisième jalon, 2 février 2026 : la Commission adopte les actes d'exécution établissant un modèle de plan de surveillance après commercialisation (article 72). Une étape technique mais à suivre, car elle conditionne le format opérationnel d'une obligation centrale du haut risque.

Quatrième jalon, 2 août 2026 : entrée en application de l'essentiel du reste du règlement, dont les obligations applicables aux systèmes d'IA à haut risque listés à l'annexe III, les obligations de transparence de l'article 50 (risque limité), les règles relatives aux organismes notifiés, à l'évaluation de conformité, à la base de données UE, à la surveillance après commercialisation et au signalement des incidents graves. C'est la date la plus structurante pour la majorité des PME.

Cinquième jalon, 2 août 2027 : entrée en application des obligations applicables aux systèmes d'IA à haut risque qui sont des composants de sécurité de produits relevant de la législation d'harmonisation de l'annexe II. Date limite également pour la mise en conformité des GPAI mis sur le marché avant le 2 août 2025.

Que faire ce trimestre

Pour la majorité des PME, l'angle d'attaque est de découper le travail en trois fenêtres successives.

Jours 1 à 30 — inventaire et classification. Recensez tous les systèmes d'IA en usage ou en projet : intégrations API, plug-ins SaaS dotés de fonctions IA (Copilot, Notion AI, Salesforce Einstein, HubSpot, Gong, etc.), modèles internes, agents conversationnels, outils d'analyse prédictive, briques RH algorithmiques. Pour chacun, déroulez l'arbre de décision en huit questions et consignez la classification dans un registre formel — propriétaire, finalité, fournisseur, niveau de risque, base juridique RGPD parallèle. Ce registre est l'artefact que les contrôles vous demanderont en premier.

Jours 31 à 60 — priorisation et plan d'action. Pour chaque système classé en haut risque, identifiez votre qualité (fournisseur, déployeur, importateur, distributeur) et chiffrez l'écart de conformité par rapport à la liste d'obligations applicables. Pour chaque système à risque limité, vérifiez la conformité concrète à l'article 50 — souvent une simple mise à jour de l'écran d'accueil du chatbot suffit. Pour chaque pratique interdite identifiée, lancez immédiatement la procédure de retrait ou de reconception. Pour les déploiements de GPAI, collectez la documentation transmise par le fournisseur et vérifiez l'alignement de votre usage avec les conditions communiquées.

Jours 61 à 90 — mise en œuvre et gouvernance pérenne. Désignez un référent IA Act au sein de l'organisation (souvent rattaché au DPO ou au RSSI selon la maturité). Intégrez la classification IA Act au processus d'achat IT et au cycle de vie des projets pour que tout nouveau système soit classifié avant déploiement, pas après. Programmez une revue trimestrielle du registre IA pour suivre les évolutions. Si vous traitez des systèmes à haut risque, lancez le chantier de fond — système de gestion des risques, gouvernance des données, documentation technique, surveillance humaine — en visant le 2 août 2026 comme jalon de référence. L'avance se prend maintenant ; elle ne se rattrape pas.

Évaluez votre niveau de conformité

Lancez notre évaluation gratuite RGPD, NIS2 et Règlement IA et obtenez des recommandations personnalisées en quelques minutes.

Démarrer l'évaluation gratuite

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.