Testez toutes les fonctionnalités gratuitement — 3 crédits offerts à l'inscriptionEssayer gratuitement
Aller au contenu principal
agents ia ai actagentic ai conformité

Agents IA en entreprise : quelles obligations AI Act pour les systèmes autonomes ?

7 avril 20269 min0
Agents IA en entreprise : quelles obligations AI Act pour les systèmes autonomes ?

En bref

  • L'AI Act couvre les agents IA : sans les nommer explicitement, la définition générale du "système d'IA" de l'Article 3 englobe les agents autonomes. La Commission européenne l'a confirmé dans ses guidelines de février 2026.
  • Le risque dépend du cas d'usage : un agent qui rédige des emails = risque limité. Un agent qui trie des candidatures ou prend des décisions de scoring = haut risque (Annexe III). C'est l'action, pas l'autonomie, qui détermine le niveau.
  • Supervision humaine : l'obligation centrale : l'Article 14 exige que les systèmes à haut risque permettent à un humain de comprendre, surveiller et interrompre leurs actions. Un agent totalement autonome sur des décisions à fort impact est non conforme.
  • Traçabilité obligatoire : toute action d'un agent IA à haut risque doit être journalisée, examinable et validable. "Le quoi, quand, pourquoi, avec quelles sources" doit être documenté.
  • Les agents multi-agents compliquent la conformité : quand plusieurs agents interagissent, la chaîne de responsabilité doit être clairement définie entre fournisseurs et déployeurs.
  • Opportunité EU : la conformité AI Act sur les agents autonomes devient un avantage commercial sur les marchés B2B européens, notamment face aux solutions américaines moins encadrées.

Fin 2025, le MIT Technology Review estimait que 40 % des applications d'entreprise intègreront des modèles d'IA agentique d'ici 2027. En 2026, la réalité est déjà là : des agents IA gèrent des achats B2B complets, trient des candidatures, orchestrent des workflows RH, déclenchent des transactions financières - souvent sans intervention humaine à chaque étape. Visa, Mastercard, des centaines de startups et de grands groupes déploient ces systèmes à grande échelle.

Pour la plupart des décideurs, la question de conformité à l'AI Act (Règlement UE 2024/1689) est encore floue sur ce sujet. L'AI Act parle de "systèmes d'IA" - mais s'applique-t-il aux agents autonomes ? Et si oui, comment ? La réponse est claire : oui, et souvent avec des obligations substantielles.

Qu'est-ce qu'un agent IA au sens de l'AI Act ?

L'AI Act ne mentionne pas explicitement les "agents IA" ou l'"IA agentique". Mais sa définition générale du système d'IA, à l'Article 3§1, est suffisamment large pour les englober :

Un système d'IA est un système automatisé conçu pour fonctionner avec des niveaux d'autonomie variables et qui peut, pour des objectifs explicites ou implicites, générer des sorties telles que des prédictions, des recommandations, des décisions ou du contenu influençant des environnements réels ou virtuels.

Les agents IA correspondent exactement à cette définition - et la Commission européenne l'a confirmé dans ses guidelines de février 2026 sur les systèmes à haut risque : les agents autonomes effectuant des transactions financières ou influençant des décisions économiques y sont explicitement classifiés.

Ce qui distingue un agent d'un chatbot ordinaire

La distinction est structurelle, pas de degré. Un système IA conventionnel fonctionne en mode requête-réponse : l'humain pose une question, l'IA répond, l'humain décide. L'humain reste dans la boucle à chaque étape conséquente.

Un agent rompt ce schéma. Il reçoit un objectif de haut niveau, le décompose en sous-tâches, sélectionne et invoque des outils (APIs, bases de données, services externes), évalue les résultats intermédiaires et ajuste son approche - le tout avec des degrés variables de supervision humaine, parfois aucune. C'est précisément cette autonomie qui crée un profil de risque différent.

Comment classifier le risque d'un agent IA ?

L'erreur la plus fréquente est de penser que "agent = haut risque automatiquement". C'est faux. Le niveau de risque dépend du cas d'usage, pas du niveau d'autonomie.

Risque minimal ou limité

Un agent qui automatise des tâches sans impact direct sur des personnes relève du risque minimal ou limité :

  • Agent de rédaction de contenus marketing ou d'emails
  • Agent de veille et de synthèse d'informations
  • Agent d'organisation de calendrier ou de prise de rendez-vous internes
  • Agent de recherche documentaire ou de résumé

Pour ces usages, seules les obligations de transparence de l'Article 50 s'appliquent : informer les personnes qui interagissent avec l'agent qu'elles ont affaire à un système IA.

Haut risque - Annexe III

Un agent bascule en haut risque dès lors que son action entre dans l'un des huit domaines de l'Annexe III :

  • Agent RH autonome qui trie des candidatures, évalue des performances ou recommande des licenciements - Annexe III, section 4
  • Agent de scoring financier qui évalue la solvabilité, fixe des limites de crédit ou déclenche des alertes de fraude - Annexe III, section 5
  • Agent de gestion d'infrastructure critique (énergie, transport, eau) qui prend des décisions opérationnelles - Annexe III, section 2
  • Agent d'accès aux services publics qui oriente des demandes de prestations sociales ou de logement - Annexe III, section 5
  • Agent dans le domaine judiciaire ou répressif qui analyse des dossiers, évalue des risques ou formule des recommandations de décision - Annexe III, sections 6 et 7
La règle pratique : un agent qui agit sur des décisions concernant des personnes physiques - leur emploi, leur accès au crédit, leurs droits, leur sécurité - est presque certainement à haut risque. Un agent qui agit sur des données ou des processus sans impact direct sur des individus est généralement à risque limité.

Les obligations concrètes pour les agents à haut risque

Article 14 : supervision humaine effective

C'est l'obligation centrale pour les agents autonomes - et la plus difficile à concilier avec leur mode de fonctionnement. L'Article 14 exige que les systèmes à haut risque soient conçus pour permettre à un humain de comprendre, surveiller et interrompre leur fonctionnement.

Concrètement, pour un agent IA à haut risque, cela implique :

  • Mécanisme d'interruption : un humain qualifié doit pouvoir stopper l'agent à tout moment sans conséquence irréversible
  • Explicabilité des actions : chaque décision ou action de l'agent doit être compréhensible par un humain, pas seulement le résultat final
  • Seuils de validation : au-delà d'un certain niveau d'impact (montant d'une transaction, importance d'une décision RH), une validation humaine doit être requise avant exécution
  • Personnel formé : les personnes supervisant l'agent doivent comprendre ses capacités, ses limites et les situations qui nécessitent leur intervention

Article 12 et 26§6 : traçabilité et logs

Toute action d'un agent IA à haut risque doit être journalisée de façon automatique. Les logs doivent permettre de reconstituer le raisonnement de l'agent : quelles données il a consultées, quels outils il a invoqués, quelles décisions intermédiaires il a prises, et pourquoi.

Cette exigence est particulièrement structurante pour les architectures multi-agents, où plusieurs agents s'enchaînent. Chaque agent de la chaîne doit produire ses propres logs - pas seulement l'agent final.

Article 9 : gestion des risques tout au long du cycle de vie

La capacité des agents à invoquer dynamiquement des outils à l'exécution crée un défi spécifique : les capacités du système le lundi peuvent différer de ses capacités le vendredi si de nouveaux outils ont été connectés. L'Article 9 impose un processus continu d'identification et d'atténuation des risques - pas une évaluation ponctuelle initiale.

Pour les agents IA, cela signifie que chaque ajout d'outil, chaque nouvelle intégration API, chaque modification du prompt système déclenche une révision de l'évaluation des risques.

Article 13 : transparence envers le déployeur

Si vous utilisez un agent IA développé par un tiers (un fournisseur SaaS), ce fournisseur doit vous fournir des informations claires sur les capacités et limites de l'agent, les données qu'il utilise, et les contextes dans lesquels il peut produire des résultats incorrects ou biaisés. Ces informations doivent être dans les instructions d'utilisation.

Le cas spécifique des systèmes multi-agents

Les architectures où plusieurs agents interagissent - un agent orchestrateur qui délègue à des agents spécialisés - posent une question délicate de responsabilité : qui est fournisseur ? Qui est déployeur ?

La réponse de l'AI Act est structurelle :

  • L'entité qui développe et commercialise chaque agent composant est fournisseur de cet agent
  • L'entité qui orchestre ces agents dans un workflow est déployeur pour l'ensemble du système
  • Si vous développez votre propre agent orchestrateur en assemblant des agents tiers, vous devenez fournisseur du système résultant

Cette question n'est pas encore pleinement clarifiée dans les textes officiels, et des guidelines complémentaires de la Commission sont attendues. Mais le principe général est clair : la responsabilité suit la conception.

Ce que vous devez faire si vous déployez des agents IA

  1. Cartographier chaque agent déployé : listez tous vos agents, avec leur cas d'usage exact, les outils qu'ils invoquent, les données qu'ils accèdent, et les types de décisions qu'ils produisent ou influencent.
  2. Classifier le niveau de risque de chaque agent : appliquez la grille Annexe III. Si l'agent agit sur des décisions concernant des personnes physiques dans l'un des 8 domaines, c'est haut risque.
  3. Implémenter la supervision humaine par design : ne pas ajouter la supervision après coup. Concevoir les workflows agentiques avec des points de validation humaine, des seuils d'escalade et des mécanismes d'interruption dès la conception.
  4. Mettre en place les logs : chaque agent à haut risque doit générer des journaux automatiques conservés au moins 6 mois, couvrant toutes les actions et décisions intermédiaires.
  5. Vérifier vos fournisseurs SaaS agentiques : si vous utilisez un agent développé par un tiers dans un contexte haut risque, exigez les instructions d'utilisation et vérifiez leur conformité AI Act.

Le diagnostic gratuit AiActo vous aide à classifier vos systèmes IA - y compris vos agents autonomes - et à identifier vos obligations selon votre profil de fournisseur ou déployeur.

Questions fréquentes

Un agent IA complètement autonome est-il interdit par l'AI Act ?

Non - l'autonomie totale n'est pas interdite en tant que telle. Ce qui est requis pour les systèmes à haut risque, c'est que l'autonomie soit encadrée par des mécanismes de supervision humaine effective. Un agent peut agir de façon autonome sur des tâches à faible impact, mais les décisions à fort impact sur des personnes physiques doivent pouvoir être examinées, contestées et corrigées par un humain compétent.

Comment gérer la supervision humaine quand un agent agit 24h/24 ?

L'Article 14 n'impose pas qu'un humain soit présent à chaque action de l'agent - il impose que des mécanismes permettant la supervision soient en place. Concrètement : des alertes automatiques quand l'agent franchit certains seuils, des tableaux de bord de monitoring, des procédures claires d'escalade, et la capacité d'arrêter l'agent à tout moment. La supervision peut être asynchrone pour les actions à faible impact, mais doit être quasi-immédiate pour les décisions critiques.

Mon agent IA utilise des outils tiers via API - qui est responsable si quelque chose se passe mal ?

En tant que déployeur de l'agent, vous êtes responsable de l'ensemble du comportement du système dans le cadre de votre déploiement. Si l'agent invoque une API tierce qui produit un résultat erroné, votre responsabilité est engagée pour ne pas avoir mis en place des contrôles suffisants. Vous pouvez vous retourner contractuellement contre le fournisseur de l'API, mais cela ne vous exonère pas vis-à-vis de la personne affectée ou de l'autorité de régulation.

Les agents IA sont-ils couverts par le GPAI (modèles d'IA à usage général) ?

Cela dépend de la construction de l'agent. Si votre agent est un LLM (comme GPT-4 ou Claude) utilisé directement avec un prompt, le modèle sous-jacent est soumis aux obligations GPAI (Articles 51-56) en tant que fournisseur. Mais votre usage de ce modèle en tant qu'agent est soumis aux obligations de déployeur. Les deux couches s'appliquent simultanément et ne se substituent pas l'une à l'autre.

Quelle est la différence entre un workflow automatisé RPA et un agent IA au regard de l'AI Act ?

Un système RPA (Robotic Process Automation) qui exécute des règles fixes et prédéterminées sans capacité d'adaptation ne relève généralement pas de la définition d'un système IA au sens de l'AI Act. Un agent IA qui utilise un modèle de langage ou d'apprentissage automatique pour s'adapter à des situations imprévues, choisir entre plusieurs actions possibles ou générer des sorties variables relève bien de l'AI Act. La ligne de partage est la capacité d'adaptation et d'apprentissage, pas le niveau d'automatisation.

L'IA agentique est la prochaine frontière de la conformité AI Act. Les entreprises qui déploient ces systèmes aujourd'hui sans structurer leur gouvernance prennent un risque réglementaire croissant à mesure qu'août 2026 approche. Mais celles qui anticipent - supervision humaine par design, traçabilité des actions, classification précise des cas d'usage - transforment cette contrainte en un avantage structurel sur les marchés européens. Consultez l'échéancier AI Act pour suivre toutes les dates clés de votre conformité.

Partager cet article