Kaum ein Feld ist durch generative KI so stark verändert worden wie die Medien. Bilder, Stimmen, ganze Videosequenzen lassen sich erzeugen, verändern, rekombinieren — in einer Qualität, die für das Publikum nicht mehr als synthetisch erkennbar ist.
Das verschiebt nicht nur Produktionsprozesse, sondern auch die Grundlage dessen, was Öffentlichkeit als wahr akzeptiert. Der EU AI Act reagiert darauf mit spezifischen Transparenzpflichten. Das ist ein Anfang. Es ist aber nicht das Ende der Diskussion.
Diese Seite verbindet den rechtlichen Rahmen mit der publizistischen Frage dahinter: Was schulden Medien ihrem Publikum, wenn KI zum Autor, Regisseur oder Cutter wird?
Wo KI in Medien wirkt
KI ist in Medien heute kein Zukunftsthema, sondern Alltag. Vier Anwendungsfelder sind besonders weit entwickelt:
- Textproduktion: Entwürfe, Übersetzungen, Zusammenfassungen, automatisierte Agenturmeldungen, SEO-Texte.
- Bild und Video: Synthetische Bilder, Bildbearbeitung, Stil-Transfer, automatisches Tagging, Schnitt-Assistenten, Upscaling.
- Audio: Stimmenklone, automatische Nachvertonung, Übersetzung mit Lippensynchronisation, generierte Musik.
- Redaktionelle Prozesse: Themenrecherche, Monitoring, Empfehlungssysteme, Personalisierung, Moderation.
Jedes dieser Felder wirft eigene Fragen auf. Gemeinsam haben sie, dass sie die Grenze zwischen menschlich produziertem und synthetisch erzeugtem Inhalt verwischen — und genau deshalb reguliert der AI Act an dieser Stelle.
Art. 50 AI Act: Transparenz
Der Grundgedanke: Menschen sollen wissen, wenn sie es mit KI zu tun haben.
Artikel 50 EU AI Act definiert spezifische Transparenzpflichten für bestimmte KI-Systeme — unabhängig davon, ob das System als hochriskant eingestuft ist. Drei Kernpflichten sind für den Medienbereich zentral:
- Interaktion mit KI-Systemen — Nutzer müssen informiert werden, wenn sie direkt mit einem KI-System kommunizieren (typischer Fall: Chatbot auf einer Medien-Website). Ausnahme: wenn es offensichtlich ist.
- Synthetische Inhalte — KI-generierte oder -manipulierte Bild-, Audio- oder Videoinhalte müssen in maschinenlesbarer Form als synthetisch gekennzeichnet werden.
- Deepfakes und Texte zu Fragen öffentlichen Interesses — Deepfakes (real wirkende Darstellungen existierender Personen) und KI-generierte Texte zu Themen öffentlichen Interesses müssen offengelegt werden. Ausnahmen für Kunst, Satire, Fiktion sind vorgesehen.
Diese Pflichten werden mit den übrigen Bestimmungen des AI Act ab 2. August 2026 anwendbar. Wer jetzt an redaktionellen Prozessen arbeitet, muss sie also einplanen — nicht erst, wenn sie scharf geschaltet sind.
Deepfakes und die Frage nach Realität
Deepfakes sind der sichtbarste Fall dessen, was synthetische Medien können — und worüber gesellschaftlich am härtesten gestritten wird. Technisch ist ein Deepfake jedes Video oder Bild, in dem eine reale Person in einer Situation gezeigt wird, in der sie nicht tatsächlich war. Rechtlich relevant ist das aus drei Gründen:
- Persönlichkeitsrecht: Die betroffene Person hat grundsätzlich das Recht, über die Verwendung ihrer Darstellung zu entscheiden.
- Strafrecht: Deepfakes mit pornografischen, ehrverletzenden oder betrügerischen Inhalten sind auch ohne AI Act bereits strafbar.
- Demokratische Integrität: Im politischen Kontext gefährden Deepfakes die Grundlage informierter Öffentlichkeit.
Die Kennzeichnungspflicht aus Art. 50 ist hier notwendig, aber nicht hinreichend. Ein korrekt beschrifteter Deepfake eines Politikers bleibt ein ethisches Problem — weil der Großteil des Publikums die Kennzeichnung nicht prüft, weil die Wirkung viral geht, bevor sie eingeholt werden kann, und weil das Publikum lernt, echten Aufnahmen nicht mehr zu trauen. Dieser Liar's Dividend — das Argument: "Das war bestimmt auch ein Deepfake" — ist für die öffentliche Debatte langfristig gefährlicher als jede einzelne Fälschung.
Urheberrecht und Trainingsdaten
Wer schreibt, fotografiert, komponiert, ist Urheber. Wer große KI-Modelle trainiert, braucht dafür enorme Textmengen, Bilder, Musik — und steht damit im Konflikt mit bestehenden Urheberrechten. Die EU hat zwei Rechtsgrundlagen dafür:
DSM-Richtlinie 2019/790
Art. 4 erlaubt Text- und Data-Mining grundsätzlich — auch kommerziell, auch für
KI-Training. Rechteinhaber können aber einen Nutzungsvorbehalt
("Opt-out") erklären. Der Vorbehalt muss maschinenlesbar sein — etwa per
robots.txt oder über Metadaten.
Art. 53 EU AI Act
Anbieter von General-Purpose-KI-Modellen müssen eine hinreichend detaillierte Zusammenfassung der Trainingsdaten veröffentlichen — und eine Urheberrechts-Policy vorhalten, die die Einhaltung von Opt-outs sicherstellt. Gilt seit 2. August 2025.
Die Praxis steht damit nicht still. Verlage, Bildagenturen, Musikindustrie und einzelne Kreative streiten aktiv darum, wie Opt-outs tatsächlich durchgesetzt werden, welche Transparenz-Standards "hinreichend detailliert" bedeutet und ob historische Trainingsdaten nachträglich lizenziert werden müssen. Für Medienhäuser ist das keine akademische Frage — es entscheidet über Geschäftsmodelle.
KI in Redaktionen
Generative KI hat in Redaktionen mehrere Rollen angenommen: Recherche-Assistenz, Textentwurf, Übersetzung, Zusammenfassung, automatisierte Routineberichte (Sport, Börse, Wetter). Das ist effizient — und wirft eine Reihe von Fragen auf, die mit Art. 50 noch nicht beantwortet sind:
- Macht eine Redaktion Leser darauf aufmerksam, wenn ein Artikel KI-gestützt entstanden ist?
- Wie werden KI-Fehler redaktionell aufgefangen, bevor sie gedruckt oder gesendet werden?
- Welche Verantwortung trägt die Chefredaktion für die Tool-Wahl der Mitarbeitenden?
- Was passiert mit redaktionellen Quellen, die in Prompts geflossen sind?
Mehrere europäische Qualitätsmedien haben dazu eigene Leitlinien veröffentlicht. Gemeinsamer Nenner: KI ist ein Werkzeug, nicht ein Verfasser. Verantwortung bleibt bei Menschen. Transparenz gegenüber dem Publikum ist keine gesetzliche Kür, sondern publizistisches Grundvertrauen.
KI im Film und in der Produktion
Filmproduktion ist einer der dynamischsten KI-Anwendungsfelder: synthetische Hintergründe, Rejuvenation von Schauspielern, Stimm-Dubbing in beliebigen Sprachen, prozedurale Set-Extensions, KI-gestütztes Editing und Color Grading. Teile der Wertschöpfungskette werden damit schneller, andere potenziell überflüssig.
Die ethische Debatte läuft parallel zur wirtschaftlichen. Drei Felder stechen heraus:
- Rechte von Darstellenden: Darf eine Stimme, ein Gesicht, eine Darstellungsweise nachgebildet werden, auch nach Vertragsende oder nach dem Tod? Die Streiks in Hollywood 2023 haben dieses Thema ins Zentrum gerückt; europäische Regelungen ziehen langsam nach.
- Produktionstransparenz: Wenn wesentliche Teile eines Films KI-generiert sind — muss das offengelegt werden? Im Abspann? In der Bewerbung? Gegenüber Förderungen?
- Kulturelle Repräsentation: KI-Modelle, deren Trainingsdaten überwiegend westlich sind, produzieren Bilder, die Minderheiten systematisch unterrepräsentieren oder verzerren. Das ist kein technisches Problem, sondern ein kulturelles.
Wie CAIE das einordnet
KI in Medien ist kein Nebenfeld im Portfolio des Vereins, sondern eines seiner Kernthemen. Frederik Füssel MA arbeitet seit rund 30 Jahren an der Schnittstelle von Medien, Film und sicherheitsrelevanten Entwicklungen — als Gründer der Filmstadt Baden und als Berater für Institutionen im Verteidigungs- und Medienumfeld. Diese Praxisperspektive fließt in CAIE ein.
CAIE tritt in diesem Feld nicht als Rechtsdienstleister auf. Unsere Arbeit liegt dort, wo Medienhäuser, Filmproduktionen oder öffentlich-rechtliche Einrichtungen Orientierung suchen — beim Aufbau redaktioneller Leitlinien, bei der Diskussion interner Standards, bei der Vorbereitung auf Art. 50, bei ethischer Einordnung konkreter Produktionen.
Dabei gilt derselbe Grundsatz wie überall: Compliance allein reicht nicht. Wer KI in Medien verantwortungsvoll einsetzen will, braucht eine Haltung gegenüber dem Publikum — und die lässt sich nicht zertifizieren.
Häufige Fragen
01 Müssen KI-generierte Inhalte gekennzeichnet werden?
Ja. Artikel 50 EU AI Act verpflichtet Anbieter und Betreiber bestimmter KI-Systeme zur Transparenz: Nutzer müssen erkennen können, dass sie mit einer KI interagieren (Chatbots), synthetisch erzeugte oder manipulierte Bild-, Audio- und Videoinhalte müssen als solche gekennzeichnet sein, und Deepfakes, die realen Personen ähneln, müssen in der Regel offengelegt werden. Ausnahmen bestehen für künstlerische, satirische oder fiktionale Werke, sofern die Kennzeichnung die Darstellung nicht beeinträchtigt.
02 Wer haftet für einen journalistisch genutzten KI-Text?
Die Redaktion bzw. der verantwortliche Herausgeber haftet — nicht der KI-Anbieter. Presse-, Medien- und Persönlichkeitsrecht gelten unabhängig davon, ob ein Text von einem Menschen oder einem Sprachmodell entworfen wurde. Eine KI kann kein Presseprodukt verantworten. Aus Art. 50 AI Act ergibt sich zusätzlich eine Kennzeichnungspflicht für bestimmte synthetische Medieninhalte.
03 Dürfen urheberrechtlich geschützte Werke als Trainingsdaten genutzt werden?
In der EU regelt das die DSM-Richtlinie 2019/790: Text- und Data-Mining ist grundsätzlich erlaubt, Rechteinhaber können aber einen Nutzungsvorbehalt erklären ("Opt-out"), der maschinenlesbar sein muss. Art. 53 EU AI Act verpflichtet Anbieter großer KI-Modelle zusätzlich, eine hinreichend detaillierte Zusammenfassung der Trainingsdaten zu veröffentlichen. Die Durchsetzung dieser Rechte ist derzeit einer der aktivsten Streitpunkte europäischer Medien- und Rechteverwertungsindustrie.
04 Was unterscheidet einen ethischen Umgang mit KI in Medien von reiner Compliance?
Compliance fragt, ob etwas erlaubt ist. Ethik fragt, ob es verantwortbar ist. Ein Deepfake eines Politikers kann rechtlich gekennzeichnet und damit formal zulässig sein — und publizistisch trotzdem eine Grenze überschreiten. Redaktionen, Filmproduktionen und Medienhäuser, die KI verantwortungsvoll einsetzen wollen, brauchen Leitlinien über das Gesetz hinaus: Transparenz gegenüber dem Publikum, Schutz von Persönlichkeitsrechten, Wahrung journalistischer Sorgfalt.