AI Act : pourquoi "ça ne nous concerne pas" est la phrase la plus dangereuse pour votre entreprise

En bref
- 42% des PME européennes : utilisent déjà des outils intégrant de l'IA sans en avoir conscience (Eurostat 2024).
- Critère AI Act : ce n'est pas la taille de l'entreprise qui compte, mais la nature et le niveau de risque du système IA utilisé.
- Exemples concrets : un CRM avec scoring des prospects, un logiciel de comptabilité avec prédiction de trésorerie, ou un ATS de recrutement sont potentiellement concernés.
- Sanctions lourdes : jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires mondial pour non-conformité aux obligations des systèmes haut risque.
- Quiz rapide : 5 questions pour savoir en 2 minutes si votre entreprise est concernée par l'AI Act.
- Solution simple : le diagnostic gratuit AiActo permet de vérifier votre conformité en moins de 3 minutes.
Imaginez : vous recevez un courrier de l'AI Office vous informant que votre entreprise est en infraction avec le Règlement (UE) 2024/1689 - l'AI Act. Motif : l'utilisation d'un système d'IA non conforme, intégré dans un outil que vous utilisez quotidiennement sans même savoir qu'il contenait de l'intelligence artificielle. Scénario catastrophe ? Pas tant que ça. Selon Eurostat (2024), 42% des entreprises européennes de plus de 10 salariés utilisent au moins un outil intégrant de l'IA. Pourtant, beaucoup de dirigeants de PME pensent encore que l'AI Act « ne les concerne pas ». Spoiler : c'est probablement faux.
Pourquoi "ça ne nous concerne pas" est une phrase dangereuse
L'AI Act est entré en vigueur le 1er août 2024, et ses premières obligations sont déjà applicables depuis février 2025. Pourtant, une étude menée par McKinsey en 2025 révèle que 68% des dirigeants de PME européennes sous-estiment l'impact de cette réglementation sur leur activité. La raison ? Quatre croyances tenaces, mais fausses, qui pourraient coûter cher - jusqu'à 15 millions d'euros d'amende ou 3% du chiffre d'affaires mondial, selon l'Article 71 du Règlement.
Voici pourquoi ces croyances sont dangereuses, et comment les déconstruire.
Croyance n°1 : "On est trop petits pour être concernés"
Beaucoup de dirigeants de PME pensent que l'AI Act ne s'applique qu'aux grandes entreprises ou aux géants de la tech. Pourtant, le critère de l'AI Act n'est pas la taille de l'entreprise, mais la nature et le niveau de risque du système d'IA utilisé. Une PME de 5 personnes qui utilise un outil de scoring crédit pour évaluer ses clients est autant concernée qu'une grande banque.
Exemples concrets :
- Une boutique en ligne de 3 personnes : utilise un outil de pricing dynamique pour ajuster ses tarifs en fonction de la demande. Cet outil intègre de l'IA pour analyser les comportements d'achat et prédire les tendances. Risque : si le système est considéré comme « haut risque » (par exemple, s'il influence fortement les prix de produits essentiels), la PME doit se conformer aux obligations de l'AI Act, comme la documentation technique ou l'évaluation des risques.
- Un cabinet comptable de 10 salariés : utilise un logiciel de comptabilité avec un module de prédiction de trésorerie. Ce module, basé sur des algorithmes d'IA, analyse les flux financiers passés pour anticiper les difficultés de trésorerie. Risque : si le système est utilisé pour prendre des décisions financières importantes (comme l'octroi de crédits ou le report de paiements), il pourrait être classé comme « haut risque » et nécessiter une conformité stricte.
- Une agence immobilière de 5 personnes : utilise un CRM avec un module de scoring des prospects. Ce module, alimenté par de l'IA, évalue la probabilité qu'un prospect achète un bien en fonction de son historique de navigation, de ses interactions avec l'agence, et de données démographiques. Risque : si le scoring influence fortement les décisions commerciales (par exemple, en priorisant certains prospects au détriment d'autres), le système pourrait être considéré comme « à risque limité » et nécessiter des obligations de transparence.
Dans ces trois cas, la taille de l'entreprise n'a aucune importance. Ce qui compte, c'est l'utilisation d'un système d'IA et son niveau de risque. Et les sanctions pour non-conformité peuvent être existentielles pour une PME : jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires mondial.
Croyance n°2 : "On n'utilise pas vraiment l'IA"
Beaucoup de dirigeants pensent que leur entreprise n'utilise pas d'IA, simplement parce qu'ils n'ont pas développé de modèles maison ou qu'ils n'utilisent pas de chatbots. Pourtant, l'IA est souvent intégrée dans des outils du quotidien, sans que leurs utilisateurs en aient conscience. Selon une étude de Gartner (2024), 75% des logiciels d'entreprise intégreront une forme d'IA d'ici 2028 - souvent de manière invisible pour l'utilisateur final.
Exemples concrets :
- Un logiciel de comptabilité : avec un module de prédiction de trésorerie. Ce module utilise des algorithmes d'IA pour analyser les flux financiers passés et anticiper les difficultés de trésorerie. Problème : si le module est utilisé pour prendre des décisions financières (comme l'octroi de crédits ou le report de paiements), il pourrait être classé comme « haut risque » et nécessiter une conformité stricte.
- Un CRM (Customer Relationship Management) : avec un module de scoring des prospects. Ce module, alimenté par de l'IA, évalue la probabilité qu'un prospect devienne client en fonction de son historique de navigation, de ses interactions avec l'entreprise, et de données démographiques. Problème : si le scoring influence fortement les décisions commerciales (par exemple, en priorisant certains prospects), le système pourrait être considéré comme « à risque limité » et nécessiter des obligations de transparence.
- Un outil de recrutement (ATS - Applicant Tracking System) : avec un module de tri automatique des CV. Ce module utilise des algorithmes d'IA pour analyser les CV et les classer en fonction de leur adéquation avec le poste. Problème : si le système est utilisé pour écarter automatiquement certains candidats, il est considéré comme « haut risque » par l'AI Act et nécessite une conformité stricte, incluant une évaluation des risques de biais et une documentation technique détaillée.
Dans ces trois cas, l'entreprise utilise de l'IA sans même le savoir. Et si ces outils sont classés comme « haut risque », la non-conformité peut coûter cher : jusqu'à 15 millions d'euros d'amende ou 3% du chiffre d'affaires mondial.
Croyance n°3 : "Notre secteur n'est pas concerné"
Beaucoup de dirigeants pensent que l'AI Act ne concerne que les secteurs « tech » ou « innovants ». Pourtant, la réglementation s'applique à tous les secteurs d'activité, dès lors qu'un système d'IA est utilisé. Une boulangerie artisanale qui utilise un logiciel de planification des commandes avec prédiction IA est potentiellement concernée. Une agence de recrutement qui utilise un ATS avec scoring automatique l'est encore plus.
Exemples concrets par secteur :
- Santé : un cabinet de kinésithérapie utilise un logiciel de gestion des rendez-vous avec un module de prédiction des annulations. Ce module, basé sur de l'IA, analyse les historiques de rendez-vous pour anticiper les annulations et optimiser la planification. Risque : si le système influence fortement la prise de rendez-vous (par exemple, en priorisant certains patients), il pourrait être considéré comme « à risque limité » et nécessiter des obligations de transparence.
- Commerce de détail : une boutique de vêtements utilise un outil de pricing dynamique pour ajuster ses tarifs en fonction de la demande. Cet outil intègre de l'IA pour analyser les comportements d'achat et prédire les tendances. Risque : si le système est considéré comme « haut risque » (par exemple, s'il influence fortement les prix de produits essentiels), la boutique doit se conformer aux obligations de l'AI Act.
- BTP : une PME de construction utilise un logiciel de gestion de projet avec un module de prédiction des retards. Ce module, basé sur de l'IA, analyse les historiques de projets pour anticiper les retards et optimiser la planification. Risque : si le système est utilisé pour prendre des décisions importantes (comme l'allocation des ressources ou la planification des délais), il pourrait être classé comme « haut risque » et nécessiter une conformité stricte.
- Restauration : un restaurant utilise un logiciel de gestion des stocks avec un module de prédiction des ventes. Ce module, alimenté par de l'IA, analyse les historiques de ventes pour anticiper les besoins en stocks et éviter les ruptures. Risque : si le système influence fortement les décisions d'achat (par exemple, en commandant automatiquement des produits), il pourrait être considéré comme « à risque limité » et nécessiter des obligations de transparence.
Dans tous ces cas, le secteur d'activité n'a aucune importance. Ce qui compte, c'est l'utilisation d'un système d'IA et son niveau de risque. Et les sanctions pour non-conformité sont les mêmes pour tous : jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires mondial.
Croyance n°4 : "L'AI Act, c'est pour les startups tech"
Beaucoup de dirigeants pensent que l'AI Act ne concerne que les startups tech ou les entreprises qui développent des modèles d'IA. Pourtant, la réglementation s'applique à toutes les entreprises qui utilisent des systèmes d'IA, qu'elles les développent ou non. Une PME qui utilise un outil de scoring crédit pour évaluer ses clients est autant concernée qu'une startup qui développe un modèle de deep learning.
Exemples concrets :
- Un artisan électricien : utilise un logiciel de gestion des interventions avec un module de prédiction des pannes. Ce module, basé sur de l'IA, analyse les historiques d'interventions pour anticiper les pannes et optimiser la planification. Risque : si le système influence fortement la prise de décisions (par exemple, en priorisant certaines interventions), il pourrait être considéré comme « à risque limité » et nécessiter des obligations de transparence.
- Une agence de voyage : utilise un outil de recommandation de destinations avec un module de personnalisation basé sur l'IA. Ce module analyse les historiques de navigation et les préférences des clients pour proposer des destinations adaptées. Risque : si le système influence fortement les choix des clients (par exemple, en proposant des destinations plus chères ou moins adaptées), il pourrait être considéré comme « à risque limité » et nécessiter des obligations de transparence.
- Un cabinet d'avocats : utilise un logiciel de recherche juridique avec un module de prédiction des jurisprudences. Ce module, alimenté par de l'IA, analyse les décisions de justice passées pour anticiper les tendances et proposer des arguments juridiques. Risque : si le système est utilisé pour prendre des décisions importantes (comme la stratégie de défense ou l'évaluation des chances de succès d'un procès), il pourrait être classé comme « haut risque » et nécessiter une conformité stricte.
Dans ces trois cas, l'entreprise n'est pas une startup tech, mais elle utilise des systèmes d'IA qui peuvent être concernés par l'AI Act. Et les sanctions pour non-conformité sont les mêmes pour tous : jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires mondial.
Quiz : Êtes-vous concerné par l'AI Act ?
Pour savoir si votre entreprise est concernée par l'AI Act, répondez à ces 5 questions par « oui » ou « non ». Si vous répondez « oui » à au moins une question, il est probable que votre entreprise soit concernée.
- Utilisez-vous un outil qui analyse automatiquement des données pour prendre des décisions (par exemple, un CRM avec scoring des prospects, un logiciel de recrutement avec tri automatique des CV, ou un outil de pricing dynamique) ?
- Utilisez-vous un outil qui prédit des tendances ou des comportements (par exemple, un logiciel de comptabilité avec prédiction de trésorerie, un outil de gestion des stocks avec prédiction des ventes, ou un logiciel de planification avec prédiction des retards) ?
- Utilisez-vous un outil qui personnalise des recommandations ou des contenus pour vos clients ou vos employés (par exemple, un outil de recommandation de produits, un logiciel de formation avec parcours personnalisé, ou un outil de gestion des ressources humaines avec suggestions de formations) ?
- Utilisez-vous un outil qui automatise des processus de décision (par exemple, un logiciel de recrutement qui écarte automatiquement certains candidats, un outil de scoring crédit qui refuse automatiquement des demandes de prêt, ou un système de surveillance qui déclenche automatiquement des alertes) ?
- Utilisez-vous un outil qui analyse des images, des vidéos ou des voix pour prendre des décisions (par exemple, un logiciel de reconnaissance faciale pour le contrôle d'accès, un outil d'analyse d'images médicales, ou un système de surveillance vidéo avec détection automatique des comportements suspects) ?
Si vous avez répondu « oui » à au moins une question, votre entreprise est probablement concernée par l'AI Act. Pour vérifier votre niveau de risque et vos obligations, vous pouvez utiliser le diagnostic gratuit AiActo, qui permet de classer votre système d'IA en moins de 3 minutes.
Que faire si votre entreprise est concernée ?
Si vous avez découvert que votre entreprise est concernée par l'AI Act, pas de panique. Voici les étapes à suivre pour vous mettre en conformité :
- Classer votre système d'IA : déterminez si votre système est considéré comme « à risque minimal », « à risque limité », « haut risque » ou « interdit » par l'AI Act. Pour cela, vous pouvez utiliser le diagnostic gratuit AiActo, qui vous guide pas à pas.
- Identifier vos obligations : en fonction du niveau de risque de votre système, vous devrez respecter différentes obligations. Par exemple :
- Systèmes à risque minimal : aucune obligation spécifique, mais il est recommandé de documenter votre utilisation de l'IA pour prouver votre bonne foi en cas de contrôle.
- Systèmes à risque limité : obligations de transparence (par exemple, informer les utilisateurs qu'ils interagissent avec un système d'IA).
- Systèmes haut risque : obligations strictes, incluant la documentation technique, l'évaluation des risques, la mise en place de mesures de gouvernance, et la déclaration auprès des autorités compétentes.
- Documenter votre conformité : pour les systèmes haut risque, vous devrez produire une documentation technique détaillée, conforme à l'Annexe IV du Règlement. Cette documentation doit inclure :
- Une description du système d'IA et de ses objectifs.
- Une description des données utilisées pour entraîner le système.
- Une évaluation des risques et des mesures mises en place pour les atténuer.
- Une description des mesures de gouvernance et de surveillance.
- Mettre en place une gouvernance IA : désignez une personne responsable de la conformité IA au sein de votre entreprise, et mettez en place des processus pour surveiller et évaluer régulièrement votre système d'IA.
- Déclarer votre système : si votre système est classé comme « haut risque », vous devrez le déclarer auprès des autorités compétentes (par exemple, l'AI Office en Europe).
Pour vous aider dans ces démarches, AiActo propose une plateforme complète qui vous guide pas à pas dans la conformité AI Act. Avec AiActo, vous pouvez :
- Classer votre système d'IA en quelques clics grâce à un diagnostic gratuit.
- Générer automatiquement votre documentation technique, conforme à l'Annexe IV du Règlement.
- Bénéficier d'un accompagnement personnalisé pour mettre en place une gouvernance IA adaptée à votre entreprise.
- Exporter votre documentation en PDF professionnel, prêt à être présenté en cas de contrôle.
Conclusion : l'AI Act, une opportunité déguisée ?
L'AI Act n'est pas seulement une contrainte réglementaire. C'est aussi une opportunité pour les PME de se différencier, de renforcer la confiance de leurs clients, et de se préparer à l'avenir. En vous mettant en conformité dès maintenant, vous pouvez :
- Éviter des sanctions lourdes : jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires mondial.
- Renforcer la confiance de vos clients : en prouvant que vous utilisez l'IA de manière responsable et transparente.
- Vous préparer à l'avenir : l'IA va continuer à se généraliser dans tous les secteurs. En vous mettant en conformité dès maintenant, vous anticipez les évolutions réglementaires et technologiques.
- Accéder à de nouveaux marchés : certaines entreprises ou institutions publiques exigent déjà une conformité AI Act pour travailler avec des fournisseurs ou des partenaires.
Alors, plutôt que de penser « ça ne nous concerne pas », posez-vous la question : « Et si l'AI Act était une opportunité pour mon entreprise ? » Pour le savoir, commencez par faire le diagnostic gratuit AiActo. En moins de 3 minutes, vous saurez si votre entreprise est concernée, et quelles sont les prochaines étapes pour vous mettre en conformité.
« La conformité AI Act n'est pas une contrainte, mais un investissement dans l'avenir de votre entreprise. En vous mettant en conformité dès maintenant, vous évitez des sanctions lourdes, vous renforcez la confiance de vos clients, et vous vous préparez à l'ère de l'IA responsable. »
- Glossaire AiActo
Est-ce que l'AI Act concerne les petites entreprises ?
Oui, l'AI Act concerne toutes les entreprises, quelle que soit leur taille, dès lors qu'elles utilisent un système d'IA. Le critère n'est pas la taille de l'entreprise, mais la nature et le niveau de risque du système d'IA utilisé. Par exemple, une PME de 5 personnes qui utilise un outil de scoring crédit pour évaluer ses clients est autant concernée qu'une grande banque.
Comment savoir si mon entreprise utilise de l'IA sans le savoir ?
Beaucoup d'outils du quotidien intègrent de l'IA sans que leurs utilisateurs en aient conscience. Par exemple : un logiciel de comptabilité avec prédiction de trésorerie, un CRM avec scoring des prospects, ou un outil de recrutement avec tri automatique des CV. Pour vérifier si votre entreprise utilise de l'IA, posez-vous ces questions :
- Utilisez-vous un outil qui analyse automatiquement des données pour prendre des décisions ?
- Utilisez-vous un outil qui prédit des tendances ou des comportements ?
- Utilisez-vous un outil qui personnalise des recommandations ou des contenus ?
Si vous répondez « oui » à au moins une question, vous utilisez probablement de l'IA. Pour en être sûr, faites le diagnostic gratuit AiActo.
Quels sont les secteurs concernés par l'AI Act ?
L'AI Act s'applique à tous les secteurs d'activité, dès lors qu'un système d'IA est utilisé. Par exemple :
- Santé : un logiciel de gestion des rendez-vous avec prédiction des annulations.
- Commerce de détail : un outil de pricing dynamique pour ajuster les tarifs.
- BTP : un logiciel de gestion de projet avec prédiction des retards.
- Restauration : un logiciel de gestion des stocks avec prédiction des ventes.
Dans tous ces cas, le secteur d'activité n'a aucune importance. Ce qui compte, c'est l'utilisation d'un système d'IA et son niveau de risque.
Quelles sont les sanctions pour non-conformité à l'AI Act ?
Les sanctions pour non-conformité à l'AI Act peuvent être très lourdes : jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires mondial, selon l'Article 71 du Règlement. Ces sanctions s'appliquent en cas de non-respect des obligations liées aux systèmes d'IA, notamment les systèmes « haut risque ».
Comment vérifier si mon entreprise est conforme à l'AI Act ?
Pour vérifier si votre entreprise est conforme à l'AI Act, commencez par classer votre système d'IA en fonction de son niveau de risque. Pour cela, vous pouvez utiliser le diagnostic gratuit AiActo, qui vous guide pas à pas. Ensuite, identifiez vos obligations en fonction du niveau de risque de votre système, et mettez en place les mesures nécessaires pour vous mettre en conformité (documentation technique, évaluation des risques, gouvernance IA, etc.).
Est-ce que l'AI Act s'applique aux outils que j'achète (et non que je développe) ?
Oui, l'AI Act s'applique à tous les systèmes d'IA utilisés, qu'ils soient développés en interne ou achetés auprès d'un fournisseur. Par exemple, si vous utilisez un CRM avec un module de scoring des prospects, ou un logiciel de recrutement avec tri automatique des CV, vous êtes concerné par l'AI Act, même si vous n'avez pas développé ces outils vous-même. Dans ce cas, c'est à vous de vérifier que les outils que vous utilisez sont conformes à la réglementation.
Quelles sont les prochaines échéances de l'AI Act à connaître ?
Les prochaines échéances clés de l'AI Act sont :
- 2 novembre 2026 : obligations de transparence et de watermarking pour les systèmes d'IA générative (Article 50).
- 2 décembre 2027 : obligations pour les systèmes d'IA « haut risque » listés à l'Annexe III (par exemple, les systèmes de recrutement, de scoring crédit, ou de surveillance biométrique).
- 2 août 2028 : obligations pour les systèmes d'IA intégrés dans des produits réglementés (par exemple, les dispositifs médicaux ou les véhicules autonomes).
Pour vous préparer à ces échéances, commencez dès maintenant à classer vos systèmes d'IA et à identifier vos obligations. Le diagnostic gratuit AiActo peut vous aider à y voir plus clair.
Comment AiActo peut m'aider à me mettre en conformité avec l'AI Act ?
AiActo propose une plateforme complète pour vous aider à vous mettre en conformité avec l'AI Act. Avec AiActo, vous pouvez :
- Classer votre système d'IA en quelques clics grâce à un diagnostic gratuit.
- Générer automatiquement votre documentation technique, conforme à l'Annexe IV du Règlement.
- Bénéficier d'un accompagnement personnalisé pour mettre en place une gouvernance IA adaptée à votre entreprise.
- Exporter votre documentation en PDF professionnel, prêt à être présenté en cas de contrôle.
AiActo est conçu pour être simple et accessible, même pour les PME qui n'ont pas d'expertise en conformité réglementaire. Pour commencer, faites le diagnostic gratuit.