usage malveillant ia ai actrisques ia malveillantedeepfakes ai act

Usage malveillant de l'IA : ce que l'AI Act couvre et ce qu'il ne couvre pas

23 février 202612 min7
Usage malveillant de l'IA : ce que l'AI Act couvre et ce qu'il ne couvre pas

En bref

  • 9 sous-risques identifiés : de la désinformation aux armes biologiques, les usages malveillants de l'IA couvrent un spectre large que l'AI Act traite de manière très inégale
  • 1 seul risque couvert extensivement : la surveillance étatique et l'oppression font l'objet d'interdictions directes (scoring social, police prédictive, identification biométrique)
  • 4 risques partiellement couverts : désinformation, contenus abusifs, fraude et cyberattaques sont adressés indirectement — via des obligations de transparence ou d'autres législations UE
  • 4 risques non couverts : armes biologiques, IA malveillantes autonomes, armes autonomes et concentration du pouvoir restent hors du périmètre direct de l'AI Act
  • Impact pour les entreprises : les fournisseurs et déployeurs doivent aller au-delà du seul AI Act et intégrer les risques d'usage malveillant dans leur gestion des risques globale

Une analyse publiée en février 2026 par le Real Instituto Elcano pose une question dérangeante : l'AI Act, présenté comme le modèle mondial de régulation de l'IA, couvre-t-il réellement les risques les plus critiques ? L'étude de Paula Oliver Llorente passe le règlement au crible de 9 sous-risques d'usage malveillant — l'utilisation intentionnelle de capacités IA pour causer des dommages. Le constat est sans appel : la couverture est profondément déséquilibrée. Pour les entreprises soumises au Règlement (UE) 2024/1689, cette réalité a des implications directes sur leur stratégie de gestion des risques.

Usage malveillant de l'IA : de quoi parle-t-on ?

L'usage malveillant de l'IA désigne les pratiques intentionnelles qui exploitent les capacités de systèmes d'intelligence artificielle pour compromettre la sécurité d'individus, de groupes ou de la société. L'élément déterminant est l'intention de nuire, ce qui distingue l'usage malveillant du mésusage accidentel ou des conséquences involontaires.

Cette catégorie se distingue également de l'abus malveillant (malicious abuse), qui exploite les vulnérabilités internes des systèmes IA eux-mêmes — par exemple les attaques adversariales — plutôt que d'instrumentaliser leurs capacités à des fins de nuisance.

En s'appuyant sur les travaux d'organisations internationales de sûreté de l'IA, de rapports institutionnels et d'incidents documentés, l'analyse identifie 9 sous-risques d'usage malveillant :

  1. Armes biologiques et menaces chimiques — Utilisation de l'IA pour concevoir des pathogènes, conduire des attaques biologiques ou fournir des instructions de reproduction d'armes existantes
  2. IA malveillantes autonomes — Création et déploiement de systèmes autonomes poursuivant des objectifs destructeurs (ex. ChaosGPT), capables de s'adapter sans supervision humaine
  3. Désinformation et IA persuasives — Génération de contenus faux ou trompeurs à grande échelle, persuasion personnalisée exploitant des vulnérabilités cognitives, opérations d'influence étrangère
  4. Contenus falsifiés et abusifs — Images intimes non consenties (NCII), matériel d'abus sexuel d'enfants généré par IA (CSAM), usurpation vocale, chantage, atteinte à la réputation
  5. Fraude, arnaques et ingénierie sociale — Systèmes IA (WormGPT, FraudGPT) produisant du phishing convaincant, des usurpations d'identité et des chatbots frauduleux
  6. Cyberattaques offensives — Automatisation de la génération de malwares, découverte de vulnérabilités, phishing multilingue, abaissement des barrières d'entrée pour les attaquants
  7. Armes autonomes et usage militaire — Déploiement de drones et systèmes d'armes IA capables de cibler et attaquer sans supervision humaine
  8. Concentration du pouvoir — Gouvernements ou entreprises utilisant l'IA pour consolider leur autorité, supprimer la dissidence ou monopoliser les capacités IA
  9. Surveillance étatique et oppression — Surveillance de masse, police prédictive, censure et répression de minorités via l'IA

Ce que l'AI Act couvre : une cartographie déséquilibrée

L'analyse du Real Instituto Elcano confronte les dispositions de l'AI Act à ces 9 sous-risques. Le résultat est résumé dans le tableau ci-dessous, reconstituant la Figure 1 de l'étude originale.

Tableau — Sous-risques d'usage malveillant et obligations de l'AI Act

Légende : 🔴 Aucune couverture directe — 🟡 Couverture partielle ou indirecte — 🟢 Couverture extensive

  • Armes biologiques et chimiques 🔴 — Seules les dispositions génériques de gestion des risques et de signalement d'incidents pour les modèles GPAI à risque systémique s'appliquent. La protection principale repose sur les conventions internationales (armes biologiques et chimiques)
  • IA malveillantes autonomes 🔴 — Même vide réglementaire. La mitigation se limite à la gestion des risques GPAI systémique et aux obligations de surveillance humaine des systèmes à haut risque. Aucune disposition spécifique ciblant la création d'agents IA autonomes destructeurs
  • Désinformation et IA persuasives 🟡 — L'AI Act interdit les techniques manipulatoires et trompeuses (Art. 5), exige l'étiquetage des deepfakes et contenus synthétiques (Art. 50). Mais la persuasion personnalisée via chatbots IA n'est pas couverte. Complément partiel via le Digital Services Act (DSA)
  • Contenus falsifiés et abusifs 🟡 — Interdictions indirectes (exploitation des vulnérabilités, Art. 5). Mais les formes les plus graves — images intimes non consenties (NCII), CSAM généré par IA — sont absentes de l'AI Act. L'étiquetage des deepfakes offre une protection faible. Complément via la directive sur les images intimes non consenties
  • Fraude et ingénierie sociale 🟡 — Les exigences de transparence et de divulgation peuvent réduire l'efficacité du phishing et de l'usurpation, mais n'interdisent pas ces pratiques. Pas de réglementation explicite des outils IA de fraude
  • Cyberattaques offensives 🟡 — Couvertes principalement par la législation UE préexistante criminalisant les cyberattaques (quel que soit le moyen). L'AI Act se concentre sur la protection des systèmes à haut risque contre les attaques adversariales (abus malveillant) plutôt que sur l'usage offensif de l'IA. Complément via le Cyber Resilience Act
  • Armes autonomes et usage militaire 🔴 — Explicitement exclus du périmètre de l'AI Act (défense et sécurité nationale = compétences des États membres). Seuls les systèmes IA à double usage (militaire et civil) sont couverts. Lacune majeure dans un domaine à risque catastrophique
  • Concentration du pouvoir 🔴 — L'usage étatique de l'IA est partiellement limité via les restrictions sur la police prédictive. Mais la concentration corporate du pouvoir IA (avantages en données, infrastructure cloud, puissance de calcul) n'est pas traitée. Le Digital Markets Act ne couvre pas les dynamiques de concentration spécifiques à l'IA
  • Surveillance étatique et oppression 🟢 — Couverture la plus étendue. L'AI Act interdit le scoring social (Art. 5), la police prédictive, certains types d'identification biométrique et de catégorisation biométrique. Reflète la saillance politique du sujet dans les débats européens, notamment face aux précédents autoritaires

Pourquoi ces lacunes sont intentionnelles

La couverture déséquilibrée de l'AI Act n'est pas un oubli. Elle résulte d'un choix de conception délibéré visant à éviter la redondance réglementaire.

L'AI Act s'inscrit dans un corpus législatif européen plus large. Le développement d'armes biologiques, la conduite de fraudes et les cyberattaques étaient déjà criminalisés avant l'émergence de l'IA. Les législateurs européens ont estimé que les crimes facilités par l'IA ne devaient pas être traités différemment de leurs équivalents traditionnels, et que les protections ne devaient pas être redondantes avec la législation existante.

Concrètement, de nombreux sous-risques sont complétés par d'autres textes européens :

  • Désinformation → Digital Services Act (DSA)
  • Contenus abusifs → Directive sur les images intimes non consenties
  • Cyberattaques → Cyber Resilience Act
  • Concentration du pouvoir → Digital Markets Act (DMA)
  • Armes biologiques → Conventions internationales
  • Armes autonomes → Initiatives internationales (ONU)

Cette approche est cohérente du point de vue interne : elle évite la surréglementation et simplifie la conformité. Mais elle crée un problème d'exportabilité : les pays tiers n'importeront pas l'ensemble de l'écosystème réglementaire européen.

Les limites transversales qui affaiblissent la protection

Au-delà de la couverture par sous-risque, deux limitations transversales fragilisent l'AI Act face aux usages malveillants.

L'usage personnel dans une zone grise

Les usages personnels et non professionnels des systèmes IA ne sont pas couverts par l'AI Act. Le texte s'appuie sur les obligations des développeurs et fournisseurs pour limiter les risques en aval. Les individus malveillants passent donc entre les mailles du filet, sauf intervention du droit pénal. Or, l'IA amplifie à la fois les incitations et la facilité de l'activité malveillante, rendant la perspective de poursuites pénales un dissuasif faible.

Le « mésusage raisonnablement prévisible » : une notion floue

L'AI Act établit des obligations de gestion des risques fondées sur l'usage prévu et le « mésusage raisonnablement prévisible » des systèmes IA, tant pour les systèmes à haut risque que pour les modèles GPAI à risque systémique. Le problème est que cette notion peut avoir de nombreuses interprétations, affaiblissant la cohérence de l'application. Certaines entreprises s'appuient déjà sur ce flou — comme OpenAI, qui a argumenté en justice que l'utilisation de ChatGPT pour l'automutilation relève d'un « mésusage, usage non autorisé, usage involontaire, usage imprévisible et/ou usage impropre » de son produit.

Ce que cela signifie pour les entreprises

Pour les fournisseurs et déployeurs de systèmes IA, cette analyse a des implications concrètes.

La gestion des risques ne peut pas se limiter à l'AI Act

Un système de gestion des risques conforme à l'Article 9 doit identifier les risques « connus et raisonnablement prévisibles ». Les usages malveillants entrent dans cette catégorie — même si l'AI Act ne les traite pas tous directement. Les fournisseurs doivent donc intégrer les risques d'usage malveillant dans leur documentation technique (Annexe IV, Section 5), y compris ceux couverts par d'autres législations.

L'obligation de transparence comme premier rempart

Pour les 4 sous-risques partiellement couverts, les obligations de transparence de l'AI Act (étiquetage des deepfakes, divulgation des interactions homme-machine, information des déployeurs) constituent la première ligne de défense. Leur mise en œuvre effective est essentielle, même si elles restent insuffisantes face à des acteurs malveillants déterminés.

Les modèles GPAI à risque systémique en première ligne

Les fournisseurs de modèles GPAI à risque systémique (Article 51-56) portent une responsabilité particulière. Leurs obligations de gestion des risques, de tests adversariaux et de signalement d'incidents sont le seul filet de sécurité de l'AI Act pour 4 des 9 sous-risques identifiés. La qualité de leur mise en œuvre a un impact direct sur la sûreté de l'ensemble de l'écosystème.

Vous développez ou déployez un système IA et souhaitez évaluer votre exposition aux risques d'usage malveillant ? Le diagnostic gratuit AiActo identifie votre niveau de risque et vos obligations en moins de 3 minutes.

L'effet Bruxelles en question

L'AI Act a été conçu avec l'ambition de devenir le modèle mondial de gouvernance de l'IA — le fameux « effet Bruxelles ». Le Conseil de l'UE l'a présenté comme pouvant établir une norme mondiale pour la réglementation de l'IA.

Or, l'analyse montre que cette ambition est fragilisée par les lacunes de couverture des risques. Un cadre réglementaire qui laisse hors de son périmètre direct les armes biologiques assistées par IA, les systèmes autonomes destructeurs et la concentration du pouvoir technologique perd de sa crédibilité comme modèle global.

Le Digital Omnibus, proposé par la Commission en novembre 2025, aggrave le problème : il retarde l'entrée en vigueur de certaines obligations pour les systèmes à haut risque, introduit des périodes transitoires pour le watermarking GPAI et élargit les données utilisables pour l'entraînement — augmentant potentiellement l'efficacité des systèmes de désinformation et d'ingénierie sociale.

Pour les entreprises européennes engagées dans la conformité, le signal est ambigu : d'un côté, les échéances d'août 2026 approchent ; de l'autre, le cadre réglementaire lui-même est en mouvement.

Recommandations pratiques

Face à cette situation, trois axes d'action se dégagent pour les organisations.

  1. Intégrer les risques d'usage malveillant dans l'analyse de risques Article 9 — Ne pas se limiter aux usages prévus. Documenter explicitement les scénarios d'usage malveillant et les mesures de mitigation, même pour les risques couverts par d'autres législations
  2. Surveiller l'écosystème réglementaire complet — L'AI Act ne fonctionne pas en isolation. Identifier les textes complémentaires applicables (DSA, Cyber Resilience Act, directive NCII, DMA) et intégrer leurs exigences dans la stratégie de conformité globale
  3. Anticiper les révisions de l'AI Act — L'Article 112 prévoit des révisions périodiques. La liste des systèmes à haut risque (Annexe III) peut être modifiée par actes délégués. Les entreprises doivent suivre l'évolution du cadre, notamment sur la persuasion personnalisée et les contenus générés par IA

La conformité à l'AI Act est une étape nécessaire, mais pas suffisante. Les organisations qui intègrent une vision large des risques — incluant les usages malveillants au-delà du seul périmètre du règlement — seront mieux préparées, tant face aux régulateurs qu'aux menaces réelles que l'IA amplifie.

Questions fréquentes

L'AI Act interdit-il les deepfakes ?

L'AI Act n'interdit pas les deepfakes en tant que tels. L'Article 50 impose des obligations de transparence : les contenus synthétiques (images, audio, vidéo) doivent être étiquetés de manière lisible par machine. Les interactions humain-machine doivent être signalées. Mais ces obligations ne s'appliquent qu'aux fournisseurs et déployeurs, pas aux individus à titre personnel.

Les cyberattaques assistées par IA sont-elles couvertes par l'AI Act ?

Indirectement. L'AI Act protège les systèmes à haut risque contre les attaques adversariales (Art. 15 — cybersécurité). Mais l'utilisation offensive de l'IA pour mener des cyberattaques est couverte par le droit pénal existant et le Cyber Resilience Act, pas par l'AI Act lui-même.

Pourquoi les armes autonomes sont-elles exclues de l'AI Act ?

La défense et la sécurité nationale sont des compétences des États membres de l'UE, et non de l'Union. L'AI Act exclut explicitement les systèmes IA développés ou utilisés exclusivement à des fins militaires. Seuls les systèmes à double usage (civil et militaire) sont couverts.

Qu'est-ce que le « mésusage raisonnablement prévisible » dans l'AI Act ?

C'est une notion centrale de l'Article 9 sur la gestion des risques. Le fournisseur doit identifier et atténuer les risques liés non seulement à l'usage prévu de son système, mais aussi à tout mésusage qu'il peut raisonnablement anticiper. Le flou de cette notion crée des incertitudes d'interprétation et d'application.

Le Digital Omnibus affaiblit-il la couverture des risques malveillants ?

Oui, selon plusieurs analyses. Le Digital Omnibus, proposé en novembre 2025, retarde certaines obligations applicables aux systèmes à haut risque (jusqu'à 16 mois supplémentaires), introduit des périodes transitoires pour le watermarking GPAI et élargit les données utilisables pour l'entraînement. Ces mesures pourraient augmenter l'incidence des systèmes de désinformation et d'ingénierie sociale.

Comment intégrer les risques d'usage malveillant dans ma documentation technique ?

La Section 5 de l'Annexe IV (système de gestion des risques) exige l'identification des risques « connus et raisonnablement prévisibles ». Documentez les scénarios d'usage malveillant pertinents pour votre système, les mesures de mitigation adoptées et les risques résiduels acceptés. Des plateformes comme AiActo structurent cette démarche section par section.

L'AI Act constitue une avancée majeure pour la gouvernance de l'IA, mais sa couverture des risques d'usage malveillant reste incomplète. Les entreprises ne peuvent pas se contenter de cocher les cases du règlement : elles doivent adopter une vision plus large des risques, intégrant l'ensemble de l'écosystème réglementaire européen et les menaces spécifiques que l'IA amplifie. C'est à cette condition que la conformité se traduira en protection réelle.

Partager cet article