classification système ia haut risqueai act haut risqueannexe iii ai act

Classifier son système IA : haut risque ou non selon l'AI Act ?

13 de febrero de 202612 min7
Classifier son système IA : haut risque ou non selon l'AI Act ?

En bref

L'AI Act classe les systèmes IA selon leur niveau de risque. Comment déterminer si le vôtre est à haut risque ? Deux voies de classification, 8 domaines sensibles et une clause d'exception à connaître avant août 2026.

Votre outil de tri de CV est-il un système IA à haut risque ? Et votre chatbot de service client ? Selon la réponse, les obligations réglementaires passent de quasi inexistantes à un arsenal complet de documentation technique, gestion des risques et évaluation de conformité. L'Article 6 du Règlement (UE) 2024/1689 — l'AI Act — définit les règles de classification qui déterminent le régime applicable à chaque système. Comprendre ces règles est la première étape de toute démarche de conformité.

L'approche par les risques : quatre niveaux de l'AI Act

L'AI Act repose sur une logique graduée : plus un système IA présente de risques pour la santé, la sécurité ou les droits fondamentaux, plus les exigences réglementaires sont strictes. Le règlement distingue quatre niveaux.

Risque inacceptable : les pratiques interdites

Certains usages de l'IA sont purement et simplement interdits depuis le 2 février 2025 (Article 5). C'est le cas de la manipulation subliminale, de la notation sociale par les autorités publiques, de la police prédictive fondée uniquement sur le profilage, ou encore de la reconnaissance des émotions sur le lieu de travail et dans les établissements scolaires.

Haut risque : le cœur du règlement

Les systèmes classés à haut risque sont autorisés, mais soumis aux obligations les plus lourdes du règlement : documentation technique conforme à l'Annexe IV, système de gestion des risques, gouvernance des données, surveillance humaine, marquage CE. C'est la catégorie qui concentre l'essentiel des exigences.

Risque limité : les obligations de transparence

Les systèmes interagissant avec des personnes (chatbots, générateurs de contenu synthétique, deepfakes) sont soumis à des obligations de transparence prévues par l'Article 50 : informer l'utilisateur qu'il interagit avec une IA, étiqueter les contenus générés, rendre les sorties détectables par des moyens techniques.

Risque minimal : aucune obligation spécifique

La grande majorité des systèmes IA actuels — filtres anti-spam, recommandations de contenu, jeux vidéo — relèvent de cette catégorie. Aucune obligation spécifique ne leur est imposée par le règlement.

Les deux voies de classification « haut risque »

L'Article 6 établit deux chemins distincts pour qu'un système IA soit classé à haut risque. Comprendre cette distinction est essentiel, car les échéances d'application diffèrent.

Voie 1 — Composant de sécurité d'un produit réglementé (Article 6§1)

Un système IA est à haut risque s'il remplit deux conditions cumulatives :

  • Il est intégré comme composant de sécurité dans un produit couvert par l'une des législations d'harmonisation de l'Union listées à l'Annexe I, ou il constitue lui-même ce produit
  • Ce produit doit faire l'objet d'une évaluation de conformité par un tiers (organisme notifié) avant sa mise sur le marché

L'Annexe I vise plus de 20 législations sectorielles européennes, couvrant notamment les dispositifs médicaux, les jouets, les ascenseurs, les équipements radio, les véhicules agricoles, l'aviation civile et la sécurité maritime. Un logiciel d'IA embarqué dans un dispositif médical de classe IIa, par exemple, tombe automatiquement dans cette catégorie.

Les obligations pour ces systèmes s'appliqueront à compter du 2 août 2027 — un an après les systèmes de la voie 2.

Voie 2 — Systèmes listés dans les domaines sensibles (Article 6§2)

Indépendamment de tout produit physique, un système IA est classé à haut risque s'il relève de l'un des domaines d'utilisation énumérés à l'Annexe III. C'est cette voie qui concerne le plus grand nombre d'entreprises, et c'est elle qui entre en application dès le 2 août 2026.

Les 8 domaines de l'Annexe III

L'Annexe III identifie huit catégories de cas d'usage dans lesquels un système IA est présumé à haut risque en raison de son impact potentiel sur les droits, la santé ou la sécurité des personnes.

1. Biométrie

Systèmes d'identification biométrique à distance (temps réel ou a posteriori), de catégorisation biométrique selon des attributs sensibles (origine ethnique, orientation sexuelle) et de reconnaissance des émotions. La simple vérification d'identité (confirmer qu'une personne est bien qui elle prétend être) est exclue.

2. Infrastructures critiques

Systèmes utilisés comme composants de sécurité dans la gestion du trafic routier, de l'approvisionnement en eau, gaz, chauffage, électricité, ou dans l'exploitation d'infrastructures numériques critiques.

3. Éducation et formation professionnelle

Systèmes déterminant l'accès ou l'affectation à des établissements d'enseignement, évaluant les résultats d'apprentissage, le niveau d'éducation approprié d'une personne, ou surveillant les comportements interdits lors d'examens.

4. Emploi et gestion de la main-d'œuvre

Systèmes de recrutement (publication d'offres ciblées, tri de CV, évaluation de candidats), de prise de décisions sur les conditions de travail, les promotions, les licenciements, ou de suivi et évaluation des performances des salariés.

5. Services essentiels publics et privés

Systèmes évaluant l'éligibilité aux prestations sociales ou de santé, établissant un score de crédit (hors détection de fraude), tarifiant l'assurance vie et maladie, évaluant et classant les appels d'urgence, ou effectuant le tri des patients en urgence.

6. Répression

Systèmes évaluant le risque qu'une personne devienne victime d'infractions, servant de polygraphe, évaluant la fiabilité de preuves, profilant des personnes dans le cadre d'enquêtes, ou analysant des infractions pénales.

7. Migration, asile et contrôle aux frontières

Systèmes évaluant un risque en matière de sécurité ou de migration irrégulière, assistant l'examen de demandes d'asile ou de visas, ou détectant et identifiant des personnes dans le cadre de la surveillance des frontières.

8. Administration de la justice et processus démocratiques

Systèmes assistant les autorités judiciaires dans la recherche et l'interprétation des faits et du droit, ou utilisés pour influencer le résultat d'élections ou de référendums (hors outils d'organisation de campagnes sans contact direct avec les électeurs).

La clause d'exception : Article 6, paragraphe 3

Un système figurant dans l'Annexe III n'est pas automatiquement à haut risque. L'Article 6§3 prévoit une dérogation importante : un système listé peut être exclu du classement haut risque s'il ne présente pas de risque significatif d'atteinte à la santé, à la sécurité ou aux droits fondamentaux.

Cette exception s'applique lorsque l'une des conditions suivantes est remplie :

  1. Tâche procédurale étroite — Le système exécute une tâche bien délimitée et à faible enjeu : transformer des données non structurées en données structurées, trier des documents par catégorie, détecter des doublons
  2. Amélioration d'une activité humaine existante — L'IA complète une action humaine sans autonomie décisionnelle : reformuler un texte dans un style professionnel, améliorer la qualité linguistique d'un document
  3. Détection de schémas sans influence décisionnelle — Le système détecte des écarts par rapport à des modèles de décision antérieurs, sans remplacer ni influencer l'évaluation humaine effectuée au préalable
  4. Tâche préparatoire — Le système ne réalise qu'une action préparatoire à une évaluation humaine dans l'un des domaines listés à l'Annexe III
« Un système d'IA visé à l'annexe III n'est pas considéré comme étant à haut risque lorsqu'il ne présente pas de risque significatif d'atteinte à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques. » — Article 6§3, Règlement (UE) 2024/1689

La limite absolue : le profilage

Cette clause d'exception connaît une restriction majeure. Quel que soit le critère invoqué, un système IA qui réalise du profilage de personnes physiques — c'est-à-dire l'analyse automatisée de données personnelles pour évaluer des aspects comme les performances professionnelles, la santé, les préférences ou le comportement — reste toujours classé à haut risque. Aucune dérogation n'est possible.

L'obligation de documentation

Un fournisseur qui invoque cette exception doit documenter son évaluation avant la mise sur le marché (Article 6§4). Cette documentation doit être tenue à disposition des autorités nationales compétentes sur demande. Le fournisseur reste également soumis à l'obligation d'enregistrement prévue à l'Article 49§2.

En pratique, cette exigence vise à empêcher qu'un fournisseur ne minimise artificiellement le rôle de son IA pour échapper aux obligations du haut risque. L'Article 80 prévoit d'ailleurs une procédure spécifique permettant aux autorités de contester la classification déclarée par le fournisseur.

Un arbre de décision en 5 questions

Pour déterminer si votre système IA est à haut risque, suivez ce raisonnement séquentiel :

  1. Votre système est-il un système IA au sens de l'Article 3 ? — S'il ne repose pas sur l'apprentissage automatique ou l'inférence, il peut ne pas relever du règlement. Les lignes directrices de la Commission de février 2025 excluent l'optimisation mathématique simple, le traitement déterministe de données et les heuristiques classiques
  2. Son usage relève-t-il d'une pratique interdite (Article 5) ? — Si oui, il est tout simplement illégal depuis le 2 février 2025
  3. Est-il intégré comme composant de sécurité dans un produit couvert par l'Annexe I ? — Si oui et qu'une évaluation par un tiers est requise, il est à haut risque (voie 1, échéance août 2027)
  4. Son cas d'usage figure-t-il dans l'un des 8 domaines de l'Annexe III ? — Si oui, il est présumé à haut risque (voie 2, échéance août 2026), sauf à démontrer qu'il remplit les conditions de l'exception Article 6§3
  5. Interagit-il directement avec des personnes ou génère-t-il du contenu synthétique ? — Si oui, il est soumis aux obligations de transparence de l'Article 50, même sans être à haut risque

La classification de votre système IA conditionne l'ensemble de vos obligations réglementaires. Un outil comme le diagnostic gratuit AiActo permet de parcourir ce raisonnement de manière guidée et d'identifier en quelques minutes le niveau de risque applicable, ainsi que les obligations qui en découlent.

Exemples concrets de classification

Pour illustrer les subtilités de la classification, voici des cas d'usage courants et leur analyse :

Cas classés haut risque

  • Outil de scoring de crédit bancaire — Évalue la solvabilité des personnes physiques → Annexe III, domaine 5. Haut risque, pas d'exception possible car le profilage est impliqué
  • Logiciel de tri automatique de CV — Analyse et filtre des candidatures → Annexe III, domaine 4. Haut risque, le profilage de candidats empêche toute dérogation
  • Système de reconnaissance faciale dans un aéroport — Identification biométrique à distance → Annexe III, domaine 1. Haut risque
  • IA de diagnostic médical embarquée dans un dispositif — Composant de sécurité d'un dispositif médical → Annexe I, voie 1. Haut risque

Cas potentiellement exclus via l'Article 6§3

  • Correcteur grammatical dans un contexte RH — Améliore la rédaction d'une fiche de poste sans influencer la sélection → tâche d'amélioration d'une activité humaine, exclusion possible
  • Outil de détection de doublons dans des dossiers administratifs — Tâche procédurale étroite, pas de profilage → exclusion possible si bien documentée

Cas non concernés par le haut risque

  • Chatbot de service client — Ne figure pas dans l'Annexe III, mais soumis aux obligations de transparence Article 50
  • Filtre anti-spam — Risque minimal, aucune obligation spécifique
  • Système de recommandation de produits e-commerce — Risque minimal, sauf si le profilage atteint un niveau susceptible de manipuler les comportements (auquel cas l'Article 5 pourrait s'appliquer)

Le contexte réglementaire : entre retard et incertitude

L'Article 6§5 imposait à la Commission européenne de publier, au plus tard le 2 février 2026, des lignes directrices précisant la mise en œuvre pratique de la classification, assorties d'exemples concrets de systèmes à haut risque et non haut risque. Cette échéance n'a pas été respectée.

Après une consultation publique lancée en juin 2025, la Commission a indiqué travailler à l'intégration des retours reçus. Une version pour commentaires est attendue dans les semaines à venir, mais l'adoption finale pourrait ne pas intervenir avant le printemps 2026.

Le Digital Omnibus : un report en discussion

En parallèle, la Commission a proposé en novembre 2025 le Digital Omnibus, un paquet législatif de simplification qui inclut un report de l'entrée en application des obligations haut risque. Concrètement, pour les systèmes relevant de l'Annexe III, les obligations ne s'appliqueraient que 6 mois après la disponibilité des normes harmonisées, avec une date butoir maximale au 2 décembre 2027 — soit un report de 16 mois par rapport à l'échéance initiale d'août 2026.

Ce texte est encore en discussion au Parlement européen et au Conseil. Rien ne garantit qu'il sera adopté dans sa forme actuelle, ni qu'il le sera avant août 2026. Les entreprises prudentes se préparent donc sur la base du calendrier initial, tout en surveillant l'évolution législative.

Des normes techniques en retard

Les organismes de normalisation européens (CEN et CENELEC) chargés d'élaborer les normes harmonisées pour l'IA ont eux aussi dépassé leurs délais. Les normes complètes ne seront probablement pas disponibles avant fin 2026, ce qui renforce l'argument en faveur d'un report. En attendant, les entreprises doivent s'appuyer sur les exigences du règlement et les futures spécifications communes de la Commission.

Comment se préparer dès maintenant

Malgré les incertitudes calendaires, les exigences substantielles du règlement ne changent pas. Voici les étapes à engager sans attendre.

  1. Cartographier vos systèmes IA — Inventoriez tous les systèmes d'intelligence artificielle développés, déployés ou utilisés dans votre organisation. Incluez les outils tiers et les modèles intégrés dans vos produits
  2. Classifier chaque système — Pour chaque système identifié, appliquez l'arbre de décision : Annexe I, Annexe III, exception Article 6§3, transparence Article 50, ou risque minimal
  3. Documenter les exclusions — Si vous invoquez l'exception de l'Article 6§3, rédigez une évaluation détaillée justifiant que votre système ne présente pas de risque significatif. Cette documentation doit exister avant la mise sur le marché
  4. Identifier votre rôle — Êtes-vous fournisseur (développeur), déployeur (utilisateur professionnel), importateur ou distributeur ? Les obligations diffèrent selon votre position dans la chaîne de valeur
  5. Lancer la documentation technique — Pour les systèmes haut risque, la conformité à l'Annexe IV requiert un dossier technique couvrant la description du système, la gestion des risques, la gouvernance des données, les tests et la surveillance post-commercialisation
  6. Anticiper l'évaluation de conformité — Selon le domaine, une évaluation interne ou par un organisme notifié sera nécessaire avant le marquage CE
Pas certain du niveau de risque de votre système IA ? Le diagnostic gratuit AiActo analyse votre cas d'usage en quelques minutes et identifie précisément vos obligations selon l'AI Act.

Questions fréquentes

Comment savoir si mon système IA est classé haut risque selon l'AI Act ?

Un système IA est à haut risque s'il est intégré comme composant de sécurité dans un produit couvert par l'Annexe I (dispositifs médicaux, jouets, véhicules), ou si son cas d'usage figure dans l'un des 8 domaines de l'Annexe III (biométrie, emploi, éducation, crédit, etc.). L'Article 6 du Règlement (UE) 2024/1689 définit ces deux voies de classification.

Un système listé dans l'Annexe III peut-il échapper au classement haut risque ?

Oui, l'Article 6§3 prévoit une clause d'exception. Un système de l'Annexe III peut ne pas être considéré à haut risque s'il exécute une tâche procédurale étroite, améliore une activité humaine existante, ou ne fait que détecter des schémas sans influencer la décision. Toutefois, cette exception ne s'applique jamais si le système réalise du profilage de personnes physiques.

Quand les obligations pour les systèmes haut risque entrent-elles en vigueur ?

Les systèmes relevant de l'Annexe III sont soumis aux obligations à compter du 2 août 2026. Ceux intégrés dans des produits réglementés (Annexe I) ont jusqu'au 2 août 2027. Le Digital Omnibus, en cours de discussion, propose un report maximal de 16 mois pour les systèmes Annexe III, avec une date butoir au 2 décembre 2027.

Quelles sanctions en cas de mauvaise classification de mon système IA ?

Un fournisseur qui met sur le marché un système à haut risque sans respecter les obligations encourt une amende pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial. L'Article 80 permet en outre aux autorités de contester la classification déclarée par le fournisseur et d'exiger une mise en conformité.

Les lignes directrices de la Commission sur la classification sont-elles publiées ?

Non. La Commission a manqué l'échéance du 2 février 2026 fixée par l'Article 6§5. Après une consultation publique menée à l'été 2025, un projet de lignes directrices devrait être publié pour commentaires début 2026, avec une adoption finale possible au printemps. En attendant, les entreprises doivent se fonder sur le texte du règlement et les exemples du considérant 53.

Mon chatbot est-il un système IA à haut risque ?

En général, non. Un chatbot de service client ne figure pas dans les domaines de l'Annexe III et ne constitue pas un composant de sécurité d'un produit réglementé. Il est en revanche soumis aux obligations de transparence de l'Article 50 : l'utilisateur doit être informé qu'il interagit avec un système d'IA.

La classification de vos systèmes IA constitue le socle de toute démarche de conformité à l'AI Act. Que votre système soit à haut risque, soumis aux obligations de transparence ou à risque minimal, l'identification précise de votre catégorie détermine le périmètre de vos obligations, le calendrier applicable et les ressources à mobiliser. Face aux incertitudes réglementaires actuelles, les organisations qui cartographient et classifient leurs systèmes dès maintenant seront les mieux préparées — quelle que soit la date finale d'application.

Partager cet article

Articles similaires