Zum Hauptinhalt springen
article 50 ai acttransparence ia générativedeepfakes ai actétiquetage contenu iawatermarking intelligence artificielle

Artikel 50 AI Act: Alles über die Transparenzpflichten für KI-generierte Inhalte

9. März 202613 min50
Artikel 50 AI Act: Alles über die Transparenzpflichten für KI-generierte Inhalte

Auf einen Blick

Artikel 50 des AI Act gilt für ALLE generativen KI-Systeme — nicht nur für Hochrisiko-Systeme. Chatbots, Deepfakes, Bilder, Texte: Hier sind die 4 Transparenzpflichten, der Zeitplan und die konkreten Maßnahmen, die vor August 2026 umzusetzen sind.

Im AI Act erhalten Hochrisiko-Systeme und verbotene Praktiken die meiste Aufmerksamkeit. Dabei ist es Artikel 50, der die größte Zahl von Organisationen betreffen wird. Sein Anwendungsbereich ist weitaus breiter: Er gilt für alle generativen KI-Systeme, von Chatbots über Bildgeneratoren bis hin zu Sprachsynthese-Tools und Schreibassistenten. Jedes Unternehmen, das ein System nutzt oder anbietet, das synthetischen Text, Bilder, Audio oder Video erzeugen kann, ist betroffen — und die Frist ist der 2. August 2026.

Was Artikel 50 vorschreibt

Artikel 50 der Verordnung (EU) 2024/1689 legt Transparenzpflichten für vier verschiedene Situationen mit KI-Systemen fest. Anders als die Pflichten für Hochrisiko-Systeme (Kapitel III) hängen diese Pflichten nicht von der Risikoklassifizierung ab: Sie gelten, sobald ein KI-System in einen der folgenden vier Fälle fällt.

Pflicht 1 — KI-Interaktionen offenlegen (Art. 50 Abs. 1)

Anbieter müssen ihre KI-Systeme so gestalten, dass Personen darüber informiert werden, dass sie mit einem KI-System interagieren und nicht mit einem Menschen. Diese Pflicht betrifft Chatbots, virtuelle Assistenten und jedes KI-System im direkten Kontakt mit natürlichen Personen.

Ausnahme: wenn der Nutzungskontext offensichtlich macht, dass es sich um eine KI handelt. In der Praxis wird diese Ausnahme allerdings eng ausgelegt.

Pflicht 2 — Synthetische Inhalte markieren (Art. 50 Abs. 2)

Anbieter generativer KI-Systeme — einschließlich GPAI-Modelle — müssen sicherstellen, dass erzeugte Inhalte (Audio, Bild, Video, Text):

  • In einem maschinenlesbaren Format markiert sind — mittels Watermarking, Metadaten oder anderer Provenance-Techniken
  • Als künstlich erzeugt oder manipuliert erkennbar sind — die technischen Lösungen müssen wirksam, interoperabel, robust und zuverlässig sein

Markierungslösungen müssen gängigen Veränderungen standhalten: Zuschnitt, Komprimierung, Auflösungs- oder Formatänderungen. Anbieter müssen auch kostenlose Erkennungstools mit Konfidenzwerten bereitstellen.

Ausnahmen: KI-Systeme, die eine unterstützende Funktion bei der Standardbearbeitung ausüben oder die vom Betreiber bereitgestellten Daten nicht wesentlich verändern. Systeme, die gesetzlich zur Aufdeckung oder Verfolgung von Straftaten zugelassen sind, sind ebenfalls befreit.

Pflicht 3 — Über Emotionserkennung informieren (Art. 50 Abs. 3)

Betreiber von Systemen zur Emotionserkennung oder biometrischen Kategorisierung müssen die exponierten natürlichen Personen über den Betrieb des Systems informieren. Diese Information muss vor der Exposition erfolgen.

Pflicht 4 — Deepfakes und KI-Texte kennzeichnen (Art. 50 Abs. 4)

Dies ist die am meisten beachtete Pflicht. Betreiber von KI-Systemen, die Inhalte erzeugen oder manipulieren, die einen Deepfake darstellen, müssen offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Diese Pflicht gilt auch für KI-generierte Texte, die mit dem Ziel veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren.

Ein Deepfake im Sinne des AI Act (Art. 3 Nr. 60) ist ein Bild-, Audio- oder Videoinhalt, der durch KI erzeugt oder manipuliert wurde und echten Personen, Objekten, Orten oder Ereignissen ähnelt und eine Person dazu verleiten könnte, ihn für authentisch zu halten.

Ausnahmen:

  • Inhalte, die Teil eines offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Werks sind — minimale und nicht aufdringliche Offenlegung genügt
  • Inhalte, die gesetzlich zur Aufdeckung oder Verfolgung von Straftaten zugelassen sind
  • KI-Texte, die einer menschlichen Überprüfung unterzogen wurden und für die eine natürliche oder juristische Person die redaktionelle Verantwortung übernommen hat

Wer ist betroffen: Anbieter vs. Betreiber

Artikel 50 verteilt die Verantwortlichkeiten auf zwei Akteure der Wertschöpfungskette mit ergänzenden Pflichten.

Anbieter: vorgelagerte technische Markierung

Anbieter (die KI-Systeme entwickeln und in Verkehr bringen) sind für die technische Markierung verantwortlich: nicht wahrnehmbare Wasserzeichen, Provenance-Metadaten, integrierte Erkennungsmechanismen. Sie müssen auch Werkzeuge bereitstellen, die den Betreibern die Erfüllung ihrer eigenen Pflichten ermöglichen.

Der erste Entwurf des Verhaltenskodex konkretisiert, dass vorgelagerte Anbieter (Basismodelle) die Markierung „by design" vor dem Inverkehrbringen integrieren müssen, damit nachgelagerte Systemanbieter ihre Pflichten erfüllen können.

Betreiber: nachgelagerte sichtbare Kennzeichnung

Betreiber (die KI-Systeme in eigener Verantwortung nutzen) müssen die sichtbare Kennzeichnung für Endnutzer sicherstellen. Der Betreiber muss das gemeinsame Symbol anbringen, Hinweise einfügen und sicherstellen, dass Personen über den künstlichen Ursprung der Inhalte informiert werden.

Die persönliche, nicht-berufliche Nutzung eines KI-Systems macht den Nutzer nicht zum Betreiber. Allerdings kann die Veröffentlichung von Inhalten an ein breites Publikum auch bei Einzelpersonen als Betrieb eingestuft werden.

Der Verhaltenskodex zur Transparenz von KI-Inhalten

Zur Unterstützung der Umsetzung von Artikel 50 hat das AI Office Ende 2025 die Erarbeitung eines Verhaltenskodex zur Markierung und Kennzeichnung KI-generierter Inhalte gestartet. Obwohl freiwillig, wird dieser Kodex voraussichtlich zum Konformitätsmaßstab — Aufsichtsbehörden und Gerichte werden ihn zur Bewertung der Unternehmenspraxis heranziehen.

Zwei spezialisierte Arbeitsgruppen

Der Kodex wird von unabhängigen Experten verfasst, mit Beiträgen von Akteuren der KI-Wertschöpfungskette in zwei Arbeitsgruppen:

  • AG1 — Markierungs- und Erkennungstechniken: Watermarking, Metadaten, Provenance-Lösungen, Interoperabilität, Robustheit gegen Entfernung, technische Governance
  • AG2 — Offenlegung von Deepfakes und KI-Texten: sichtbare Kennzeichnung, Inhalts-Taxonomie, Unterscheidung zwischen „vollständig KI-generiert" und „KI-unterstützt", Plattformverantwortlichkeiten

In der zweiten Sitzungsrunde im Januar 2026 konzentrierten sich die Diskussionen auf das Zusammenspiel zwischen technischer Markierung und sichtbarer Kennzeichnung, die Vermeidung von Informationsmüdigkeit bei Nutzern und die Kohärenz mit anderen EU-Rechtsvorschriften (insbesondere dem Digital Services Act).

Das gemeinsame „KI"-Symbol

Der Kodex-Entwurf schlägt ein EU-weit harmonisiertes gemeinsames Symbol zur Kennzeichnung KI-generierter Inhalte vor. Bis zur Fertigstellung eines EU-weiten interaktiven Symbols ist die Übergangslösung ein visuelles Label mit der Abkürzung „AI" (oder dem lokalen Äquivalent: „KI" auf Deutsch, „IA" auf Französisch).

Die Taxonomie „vollständig KI-generiert" vs. „KI-unterstützt"

Der Kodex führt eine Unterscheidung zwischen zwei Inhaltskategorien ein:

  • Vollständig KI-generiert — Inhalt, der autonom vom System erstellt wurde, ohne von Menschen verfassten authentischen Inhalt
  • KI-unterstützt — Inhalt mit bedeutendem menschlichen Beitrag, wobei die KI eine unterstützende Rolle einnimmt

Diese Unterscheidung hat wichtige rechtliche und kommerzielle Auswirkungen. Als „vollständig KI-generiert" gekennzeichnete Inhalte könnten als ohne ausreichenden menschlichen kreativen Beitrag betrachtet werden, um europäischen Urheberrechtsschutz zu genießen — was sie potenziell frei zur Weiterverwendung durch Dritte macht.

Zeitplan des Verhaltenskodex

  • Dezember 2025 — Erster Entwurf veröffentlicht
  • März 2026 — Zweiter Entwurf veröffentlicht (mit Stakeholder-Feedback)
  • Juni 2026 — Endfassung erwartet
  • August 2026 — Inkrafttreten der Artikel-50-Pflichten

Konkrete Maßnahmen nach Inhaltstyp

Der Kodex-Entwurf beschreibt modalitätsspezifische Offenlegungsmaßnahmen.

Echtzeit-Deepfake-Video

Das KI-Symbol muss nicht aufdringlich, aber dauerhaft während der gesamten Exposition angezeigt werden. Ein Hinweis muss zu Beginn der Übertragung eingefügt werden.

Aufgezeichnetes Deepfake-Video

Ein Hinweis zu Beginn des Videos oder das KI-Symbol dauerhaft an einer festen Position. Bei künstlerischen oder fiktionalen Werken muss das Symbol mindestens 5 Sekunden erscheinen.

Deepfake-Bilder

Das gemeinsame Symbol muss konsequent bei jeder Exposition an einer festen Position im Bild platziert werden.

Deepfake-Audio

Ein kurzer hörbarer Hinweis in klarer Sprache muss zu Beginn eingefügt werden. Bei Inhalten über 30 Sekunden muss der Hinweis wiederholt werden. Bei künstlerischen Werken genügt ein nicht aufdringlicher Hinweis zu Beginn.

KI-Texte von öffentlichem Interesse

Das Symbol muss an einer festen, klaren und unterscheidbaren Position angezeigt werden — oben im Text, neben dem Text, im Kolophon oder nach dem Schlusssatz.

Zusammenspiel mit anderen EU-Rechtsvorschriften

Artikel 50 steht nicht isoliert. Er interagiert mit mehreren europäischen Texten:

  • Digital Services Act (DSA) — Plattformen, die sowohl Betreiber als auch Online-Vermittler sind, müssen Artikel-50-Pflichten mit DSA-Anforderungen kombinieren (Inhaltsmoderation, Transparenz, Risikobewertungen)
  • DSGVO — Systeme zur Emotionserkennung und biometrischen Kategorisierung (Art. 50 Abs. 3) werfen Datenschutzfragen auf
  • GPAI-Pflichten — Für GPAI-Modelle (Art. 51-56) kommen die Transparenzpflichten des Artikels 50 zu den modellspezifischen Anbieterpflichten hinzu
  • Hochrisiko-Systeme — KI-Systeme, die sowohl generativ als auch hochriskant sind, müssen sowohl Artikel-50-Transparenzpflichten als auch Kapitel-III-Anforderungen erfüllen

Was Unternehmen jetzt tun sollten

Mit der Frist August 2026 haben Organisationen weniger als 6 Monate zur Vorbereitung. Hier sind die vorrangigen Schritte.

1. Betroffene KI-Systeme kartieren

Identifizieren Sie alle KI-Systeme in Ihrer Organisation, die Inhalte erzeugen oder manipulieren (Text, Bild, Audio, Video) oder direkt mit Personen interagieren. Beziehen Sie von Ihren Teams genutzte Drittanbieter-Tools ein (Schreibassistenten, Bildgeneratoren, Chatbots).

2. Ihre Rolle in der Wertschöpfungskette bestimmen

Sind Sie Anbieter (Sie entwickeln das KI-System) oder Betreiber (Sie nutzen ein bestehendes KI-System)? Die Pflichten unterscheiden sich. Viele Unternehmen sind für verschiedene Systeme beides.

3. Bestehende Markierungsfähigkeiten bewerten

Für Anbieter: Integrieren Ihre Systeme Watermarking, Provenance-Metadaten und Erkennungslösungen? Sind sie robust gegen gängige Veränderungen? Sind sie interoperabel mit aufkommenden Standards?

4. Veröffentlichungsabläufe überprüfen

Für Betreiber: Wie werden KI-generierte Inhalte in Ihrer Organisation veröffentlicht? Sind Kennzeichnungsprozesse vorhanden? Sind Marketing-, Kommunikations- und Redaktionsteams geschult?

5. Urheberrechtliche Auswirkungen antizipieren

Die Klassifizierung „vollständig KI-generiert" vs. „KI-unterstützt" kann den Urheberrechtsschutz Ihrer Inhalte beeinflussen. Bewerten Sie die Auswirkungen auf Ihr geistiges Eigentum.

Sie nutzen generative KI-Systeme und möchten Ihre Transparenzpflichten bewerten? Die kostenlose AiActo-Diagnose ermittelt Ihre Rolle (Anbieter oder Betreiber) und Ihre spezifischen Pflichten nach dem AI Act.

Häufig gestellte Fragen

Gilt Artikel 50 für KI-Systeme, die kein Hochrisiko sind?

Ja. Genau das macht Artikel 50 so bedeutsam. Die Transparenzpflichten gelten für alle generativen KI-Systeme, unabhängig von der Risikoklassifizierung. Ein einfacher Chatbot oder Bildgenerator ist ebenso betroffen wie ein Hochrisiko-KI-System.

Wann treten die Artikel-50-Pflichten in Kraft?

Am 2. August 2026. Dies ist dieselbe Frist wie für Hochrisiko-KI-Systeme des Anhangs III. Der Digital Omnibus könnte bestimmte Aspekte des Zeitplans ändern, aber Artikel 50 ist von den vorgeschlagenen Verschiebungen nicht direkt betroffen.

Ist der Transparenz-Verhaltenskodex verpflichtend?

Nein, der Verhaltenskodex ist freiwillig. Er wird jedoch sehr wahrscheinlich als Konformitätsmaßstab von Aufsichtsbehörden und Gerichten herangezogen, um zu bewerten, ob eine Organisation ihre Artikel-50-Pflichten erfüllt. Eine Nichteinhaltung kann eine genauere Prüfung durch die Behörden nach sich ziehen.

Muss ich einen mit KI-Hilfe verfassten Text kennzeichnen?

Die KI-Text-Kennzeichnungspflicht (Art. 50 Abs. 4) gilt für Texte, die mit dem Ziel veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren. Texte, die einer menschlichen Überprüfung unterzogen wurden und für die eine Person die redaktionelle Verantwortung übernommen hat, sind befreit. Eine interne E-Mail oder ein Arbeitsentwurf ist nicht betroffen.

Wie markiere ich ein KI-generiertes Bild?

Zwei Markierungsebenen sind erforderlich. Der Anbieter integriert eine nicht wahrnehmbare technische Markierung (Watermarking, C2PA/IPTC-Metadaten). Der Betreiber bringt die sichtbare Kennzeichnung an — das gemeinsame „KI"-Symbol an einer festen Position. Beide Ebenen ergänzen sich.

Sind künstlerische oder satirische Werke befreit?

Teilweise. Deepfakes, die Teil eines offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Werks sind, profitieren von einem erleichterten Regime: minimale und nicht aufdringliche Offenlegung genügt (z.B. Symbol 5 Sekunden bei Video). Eine vollständige Befreiung gibt es jedoch nicht — ein Mindestmaß an Transparenz bleibt Pflicht.

Artikel 50 ist die AI-Act-Pflicht, die die meisten Organisationen betreffen wird — weit über den Kreis der Anbieter von Hochrisiko-Systemen hinaus. Mit dem Inkrafttreten im August 2026 und einem sich konkretisierenden Verhaltenskodex gewinnen Unternehmen, die jetzt mit der Markierung und Kennzeichnung ihrer KI-Inhalte beginnen, einen entscheidenden Vorsprung — sowohl bei der Konformität als auch beim Nutzervertrauen.

Diesen Artikel teilen

Ähnliche Artikel