Am 1. August 2024 ist die Verordnung (EU) 2024/1689 in Kraft getreten — der EU AI Act. Die weltweit erste EU-weit einheitliche Regulierung für Künstliche Intelligenz. Seitdem schreiben Kanzleien Leitfäden, Beratungen verkaufen Compliance-Pakete, Presse und LinkedIn sind voll von Checklisten.
Diese Seite versucht etwas anderes. Sie erklärt den AI Act so, dass man versteht, was im Gesetzestext steht — und geht dann einen Schritt weiter: Was will diese Verordnung eigentlich? Welche ethische Haltung liegt ihr zugrunde? Und was leistet Compliance allein nicht?
Wir sind das Center for AI and Ethics (Europe), ein gemeinnütziger Verein mit Sitz in Wien. Unsere Arbeit liegt dort, wo Regulierung auf Praxis trifft — in Schulung, Begleitung, Einordnung. Diese Seite ist kein Beratungsangebot, sondern öffentliche Aufklärung.
Was der AI Act ist
Der EU AI Act ist kein Verbot von KI. Er ist ein Rahmen dafür, wie KI in der EU eingesetzt werden darf — abhängig davon, wie hoch das Risiko ist, das ein System für Menschen, Grundrechte und Sicherheit bedeutet.
Die Logik: Ein Spam-Filter braucht keine tiefgreifende Regulierung. Ein System, das entscheidet, wer einen Kredit bekommt oder wer zur Strafverfolgung vorgeladen wird, sehr wohl. Der AI Act unterscheidet nicht nach Technologie, sondern nach Wirkung.
Gebunden sind nicht nur Entwickler von KI, sondern alle Rollen entlang der Kette: Anbieter (wer ein System auf den Markt bringt), Betreiber (wer es einsetzt), Einführer und Händler (wer es in die EU bringt oder vertreibt) sowie Bevollmächtigte. Wer KI nutzt, ohne sie selbst entwickelt zu haben, hat also ebenfalls Pflichten.
Wichtig: Der AI Act ersetzt keine bestehenden Gesetze. DSGVO, Produktsicherheits-, Arbeits-, Antidiskriminierungs- und sektorspezifisches Recht gelten weiterhin parallel. Der AI Act kommt als eigene Ebene dazu.
Der Zeitplan
Der AI Act ist nicht auf einmal scharf geschaltet worden. Die Pflichten greifen gestaffelt:
- 1. August 2024
- Inkrafttreten der Verordnung.
- 2. Februar 2025
- Verbote unzulässiger KI-Praktiken gelten (z.B. Social Scoring durch Behörden, bestimmte biometrische Kategorisierung).
- 2. August 2025
- Pflichten für Anbieter von General-Purpose-KI-Modellen (GPAI) — betrifft große Sprachmodelle wie GPT, Claude, Gemini.
- 2. August 2026
- Kerndatum: Die meisten Pflichten für Hochrisiko-KI-Systeme werden anwendbar. Hier wird der AI Act für die meisten Organisationen konkret.
- 2. August 2027
- Letzte Übergangsfristen für bestimmte Altsysteme und Hochrisiko-KI in regulierten Produkten.
Wer jetzt erst anfängt, sich mit dem AI Act zu beschäftigen, hat noch Zeit — aber nicht beliebig viel. Der Aufbau belastbarer Governance-Strukturen, Dokumentation und menschlicher Aufsicht braucht Monate, nicht Wochen.
Die vier Risikoklassen
Der AI Act ordnet jedes KI-System einer von vier Kategorien zu. Die Einordnung entscheidet über den gesamten Umfang der Pflichten.
- Unzulässige Praktiken (verboten). Dazu zählen Social Scoring durch Behörden, bestimmte Formen biometrischer Echtzeit-Identifikation im öffentlichen Raum, Manipulation durch unterbewusste Techniken, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (mit engen Ausnahmen).
- Hochrisiko-Systeme. KI in sicherheitskritischen Produkten oder in sensiblen Anwendungsbereichen — siehe Abschnitt 4.
- Systeme mit Transparenzpflichten. Chatbots müssen sich als KI zu erkennen geben, Deepfakes müssen gekennzeichnet werden, synthetische Inhalte müssen erkennbar sein.
- Minimales Risiko. Die große Mehrheit aller KI-Anwendungen — z.B. Spam-Filter, Empfehlungssysteme im Online-Shop. Hier greifen nur allgemeine Vorgaben, keine spezifischen Pflichten.
Zusätzlich gelten für General-Purpose-KI-Modelle (Foundation Models) eigene, gestaffelte Pflichten — abhängig davon, ob das Modell als systemisches Risiko eingestuft wird.
Hochrisiko-KI
Als hochriskant gelten KI-Systeme, die in regulierten sicherheitskritischen Produkten verbaut sind (etwa Medizinprodukten, Fahrzeugen, Aufzügen) — und KI-Systeme in acht sensiblen Anwendungsbereichen:
- Biometrische Identifikation und Kategorisierung
- Kritische Infrastruktur (Strom, Wasser, Verkehr)
- Bildung und Berufsausbildung
- Beschäftigung, Personalmanagement, Zugang zur Selbstständigkeit
- Zugang zu wesentlichen privaten und öffentlichen Diensten (Kredit, Sozialleistungen)
- Strafverfolgung
- Migration, Asyl, Grenzkontrolle
- Rechtspflege und demokratische Prozesse
Anbieter solcher Systeme tragen den größten Teil der Pflichten: Risikomanagement über den gesamten Lebenszyklus, Datenqualitäts-Sicherung, technische Dokumentation, Transparenz gegenüber Betreibern, Protokollierung, menschliche Aufsicht und Qualitätsmanagement. Vor dem Inverkehrbringen muss eine Konformitätsbewertung durchlaufen werden.
Nicht jede KI in diesen Bereichen ist automatisch hochriskant: Art. 6 Abs. 3 sieht enge Ausnahmen vor — etwa für Systeme, die nur eine rein verfahrenstechnische Aufgabe erfüllen, das Ergebnis menschlicher Arbeit lediglich verbessern, Entscheidungsmuster erkennen ohne menschliche Bewertung zu ersetzen, oder nur vorbereitende Tätigkeiten übernehmen.
FRIA — der ethische Kern
Wenn man den AI Act auf einen einzigen Begriff reduzieren müsste, wäre es FRIA.
FRIA (Fundamental Rights Impact Assessment, deutsch Grundrechte-Folgenabschätzung) ist eine Pflicht-Prüfung nach Artikel 27 EU AI Act. Sie muss vor der Inbetriebnahme bestimmter Hochrisiko-KI-Systeme durchgeführt werden — und zwar nicht vom Anbieter, sondern vom Betreiber: von der Organisation, die die KI tatsächlich einsetzt.
Die FRIA dokumentiert:
- In welchem Prozess und für welchen Zweck die KI eingesetzt wird
- Wie lange, wie häufig, für welche Personengruppen
- Welche konkreten Schadensrisiken für Grundrechte bestehen (Diskriminierung, Privatsphäre, Meinungsfreiheit, Menschenwürde)
- Welche Maßnahmen das Risiko mindern
- Welche menschliche Aufsicht eingerichtet ist, inklusive Einspruchs- und Korrekturmöglichkeiten
Verpflichtet sind — stand heute — vier Gruppen:
- Einrichtungen des öffentlichen Rechts (Behörden, Ministerien, Schulen, Universitäten, öffentliche Krankenhäuser).
- Private Betreiber, die öffentliche Dienstleistungen erbringen (z.B. private Bildungseinrichtungen mit öffentlichem Auftrag, private Sozialdienste).
- Banken und Kreditinstitute bei Kreditwürdigkeitsprüfungen und Scoring.
- Versicherungen bei Risiko- und Preisbewertung in Lebens- und Krankenversicherung.
Warum FRIA der ethische Kern ist: Die Datenschutz-Folgenabschätzung nach DSGVO (DSFA, Art. 35) fragt, ob Datenverarbeitung zulässig ist. Die FRIA geht weiter — sie fragt, was passiert, wenn das System falsch liegt. Wer trägt die Konsequenzen? Welche Gruppen werden möglicherweise systematisch benachteiligt? Wie wird das bemerkt — und wie korrigiert?
Genau hier hört Compliance auf und beginnt Ethik. Man kann die FRIA als Checkliste abhaken. Oder man kann sie als das nehmen, was sie eigentlich ist: eine Gelegenheit, vor der Entscheidung nachzudenken, nicht erst danach.
Anbieter und Betreiber
Der AI Act teilt Verantwortung zwischen zwei Hauptrollen auf:
Anbieter
Verantworten das System, wie es auf den Markt kommt:
- Konformitätsbewertung vor Markteinführung
- Technische Dokumentation
- Risiko- und Qualitätsmanagement über den Lebenszyklus
- Transparenz gegenüber Betreibern (Gebrauchsanweisung, Grenzen)
- Laufende Marktbeobachtung nach Einführung
- Meldung schwerwiegender Vorfälle
Betreiber
Verantworten das System im tatsächlichen Einsatz:
- Bestimmungsgemäße Verwendung
- Menschliche Aufsicht sicherstellen
- Eingabedaten angemessen wählen (Qualität, Relevanz)
- Vorfälle melden
- In bestimmten Fällen: FRIA durchführen (Art. 27)
- Betroffene informieren, wo vorgeschrieben
Die saubere Trennung ist wichtig: Wer eine KI nur einsetzt (Betreiber), übernimmt nicht automatisch die Anbieter-Pflichten. Aber Betreiber sind auch nicht pflichtfrei — und in bestimmten Konstellationen (z.B. erhebliche Modifikation eines Systems) können sie selbst zum Anbieter werden.
Sanktionen
Der Sanktionsrahmen orientiert sich an der DSGVO und ist empfindlich:
- Verbotene KI-Praktiken: bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes — je nachdem, welcher Betrag höher ist.
- Andere Verstöße (Hochrisiko-Pflichten, Transparenz etc.): bis zu 15 Mio. Euro oder 3 %.
- Falsche Angaben gegenüber Behörden: bis zu 7,5 Mio. Euro oder 1 %.
Für KMU und Start-ups können niedrigere Beträge greifen. Die nationale Aufsicht liegt je nach Mitgliedstaat bei unterschiedlichen Behörden — in Österreich wird sie in der KI-Servicestelle der RTR koordiniert.
Jenseits der Compliance
Der AI Act verlangt Compliance. Er fordert aber eigentlich mehr — und genau hier setzt unsere Arbeit als Ethik-Verein an.
Man kann den AI Act als Pflichtübung lesen: Checklisten abhaken, Dokumentation abheften, Prüfbehörde zufriedenstellen. Das ist legitim und für viele Organisationen der erste Schritt. Aber es ist nicht das, worum es dem Gesetzgeber eigentlich geht.
Die Verordnung nennt ihren eigenen Zweck im ersten Erwägungsgrund: vertrauenswürdige KI — mit dem Schutz von Grundrechten, Gesundheit, Sicherheit und Demokratie als Leitplanke. Das ist keine juristische Formel, sondern eine Haltung. Und Haltung lässt sich nicht durch Compliance allein herstellen.
Drei Fragen, die eine gute FRIA stellt — und die keine Checkliste von selbst beantwortet:
- Wen trifft diese KI, wenn sie falsch liegt — und haben diese Menschen eine Stimme in der Entwicklung?
- Was ist der Zweck dieses Systems — und ist er es wert, die möglichen Nebenwirkungen in Kauf zu nehmen?
- Wer kann widersprechen, wenn das System eine Entscheidung trifft, die für jemanden Konsequenzen hat?
Das sind Fragen an die Organisation, nicht an die Technik. Sie lassen sich mit keinem Audit-Tool beantworten. Aber wer sie ernst nimmt, erfüllt den AI Act nicht nur formal — sondern inhaltlich.
Genau dort arbeitet CAIE. Nicht als Ersatz für Rechtsberatung oder technische Implementierung, sondern als Raum, in dem diese Fragen gestellt werden können, bevor die KI läuft. Begleitung statt Abnahme. Klarheit statt Paragrafen-Jargon.
Verwandte Themen
Der AI Act steht nicht allein. Drei Themen verzahnen sich unmittelbar mit ihm:
Häufige Fragen
01 Was ist der EU AI Act?
Der EU AI Act (Verordnung (EU) 2024/1689) ist die erste EU-weit einheitliche Regulierung für Künstliche Intelligenz. Er verfolgt einen risikobasierten Ansatz: Je nach möglicher Auswirkung eines KI-Systems auf Grundrechte, Sicherheit und Gesundheit gelten unterschiedliche Pflichten — von vollständigem Verbot bestimmter Praktiken bis zu reinen Transparenzvorgaben. Die Verordnung gilt unmittelbar in allen Mitgliedstaaten und bindet Anbieter, Betreiber, Einführer, Händler und Bevollmächtigte von KI-Systemen.
02 Ab wann gilt der EU AI Act?
Die Verordnung ist am 1. August 2024 in Kraft getreten und wird gestaffelt anwendbar. Verbote unzulässiger Praktiken gelten seit 2. Februar 2025, Pflichten für General-Purpose-KI-Modelle seit 2. August 2025. Die Anforderungen an Hochrisiko-KI-Systeme greifen im Wesentlichen ab 2. August 2026. Einzelne Übergangsfristen reichen bis 2027.
03 Welche Risikoklassen kennt der EU AI Act?
Die Verordnung unterscheidet vier Kategorien: unzulässige Praktiken (verboten), Hochrisiko-Systeme (umfangreiche Pflichten), Systeme mit spezifischen Transparenzpflichten (z.B. Chatbots, Deepfakes) sowie KI-Anwendungen mit minimalem Risiko. Für General-Purpose-KI-Modelle gelten eigene, gestaffelte Pflichten.
04 Was ist ein Hochrisiko-KI-System?
Als hochriskant gelten KI-Systeme, die in sicherheitskritischen Produkten verbaut sind oder in sensiblen Anwendungsbereichen wirken — etwa Beschäftigung, Bildung, Zugang zu wesentlichen Diensten, Strafverfolgung, Migration oder Justiz. Anbieter müssen Risikomanagement etablieren, Datenqualität sichern, technische Dokumentation vorhalten, menschliche Aufsicht gewährleisten und ein Qualitätsmanagement betreiben.
05 Was ist FRIA (Grundrechte-Folgenabschätzung)?
FRIA (Fundamental Rights Impact Assessment) ist eine Pflicht-Prüfung nach Art. 27 des EU AI Act. Sie muss vor der Inbetriebnahme bestimmter Hochrisiko-KI-Systeme durchgeführt werden und dokumentiert: in welchem Prozess die KI eingesetzt wird, welche Personengruppen betroffen sind, welche Risiken für Grundrechte bestehen, welche Maßnahmen das Risiko mindern und wie menschliche Aufsicht eingerichtet ist. Verpflichtet sind: Einrichtungen des öffentlichen Rechts, private Betreiber, die öffentliche Dienstleistungen erbringen, sowie Banken (Kreditwürdigkeitsprüfung) und Versicherungen (Risiko- und Preisbewertung in Leben/Kranken).
06 Welche Pflichten haben Anbieter und Betreiber?
Anbieter verantworten Konformität, technische Dokumentation, Risiko- und Qualitätsmanagement, Transparenz gegenüber Betreibern und laufende Marktbeobachtung. Betreiber sind verpflichtet, Systeme bestimmungsgemäß zu verwenden, menschliche Aufsicht sicherzustellen, Eingabedaten angemessen zu wählen und Vorfälle zu melden. In bestimmten Fällen kommt die FRIA-Pflicht dazu (Art. 27).
07 Was kosten Verstöße gegen den EU AI Act?
Für verbotene KI-Praktiken: bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes — je nachdem, welcher Betrag höher ist. Andere Verstöße: bis zu 15 Mio. Euro oder 3 % des Jahresumsatzes. Falsche Angaben gegenüber Behörden: bis zu 7,5 Mio. Euro oder 1 %. Für KMU und Start-ups können niedrigere Beträge greifen.