AI Act / Digitale RegulierungStufe BFortgeschritten

KI-Risikoklassen

Aktualisiert: Mai 2026 · Lesezeit: 1 Min.

Der EU AI Act stuft KI-Systeme in vier Risikoklassen ein: unannehmbares Risiko (verboten), hohes Risiko (streng reguliert), begrenztes Risiko (Transparenzpflichten) und minimales Risiko (keine Auflagen). Die Einstufung bestimmt, welche Pflichten für Anbieter und Nutzer gelten.

Einschätzung der ComplianceWerkstatt

Die Risikoklassen sind der Schlüssel zum AI Act und gleichzeitig die größte Unsicherheit in der Praxis. Viele Unternehmen wissen schlicht nicht, in welche Klasse ihre KI-Systeme fallen. Verständlich, denn die Abgrenzung ist nicht immer eindeutig (und die offiziellen Leitlinien lassen an einigen Stellen Interpretationsspielraum). Aber genau deshalb ist Abwarten die schlechteste Strategie. Der erste Schritt ist immer eine Bestandsaufnahme: Welche KI-Systeme setzen wir ein? Dazu gehören auch Tools, die nicht offensichtlich als KI wahrgenommen werden, etwa Chatbots, automatisierte Scoring-Modelle oder KI-gestützte Vorauswahl im Recruiting. Meine Empfehlung: Erstellen Sie ein KI-Inventar und ordnen Sie jedes System einer Risikoklasse zu. Das dauert wenige Tage und schafft die Grundlage für alles Weitere. Und ja, bei manchen Systemen werden Sie unsicher sein. Das ist normal. Dokumentieren Sie die Einschätzung mit Begründung, dann haben Sie im Zweifelsfall eine nachvollziehbare Entscheidungsgrundlage.

Was sind die KI-Risikoklassen?

Der EU AI Act klassifiziert KI-Systeme in vier Risikoklassen. Die Einstufung bestimmt, welche Pflichten ein Unternehmen erfüllen muss: von keinerlei Anforderungen bei minimalem Risiko bis zum vollständigen Verbot bei unannehmbarem Risiko. Entscheidend ist dabei nicht die Technologie selbst, sondern der Einsatzzweck. Dasselbe KI-Modell kann je nach Anwendungskontext in unterschiedliche Risikoklassen fallen.

Die Klassifizierung betrifft Entwickler (Provider) und Betreiber (Deployer) gleichermaßen. Für Unternehmen, die KI-Systeme einsetzen, ohne sie selbst zu entwickeln, liegt die zentrale Aufgabe in der korrekten Einordnung ihrer eingesetzten Systeme.

Die vier Risikoklassen

Risikoklasse

Beschreibung

Beispiele

Pflichten

Unannehmbares Risiko

Verbotene KI-Praktiken

Social Scoring, unterschwellige Manipulation, Echtzeit-Biometrie (mit Ausnahmen)

Vollständiges Verbot

Hohes Risiko

KI in sensiblen Bereichen

Personalauswahl, Kreditscoring, kritische Infrastruktur, Strafverfolgung

Risikomanagementsystem, Daten-Governance, Dokumentation, menschliche Aufsicht

Begrenztes Risiko

KI mit Interaktionsbezug

Chatbots, Deepfake-Generierung, Emotionserkennung

Transparenz: Nutzer muss wissen, dass KI im Einsatz ist

Minimales Risiko

Alle sonstigen KI-Systeme

Spam-Filter, KI-gestützte Suche, Empfehlungsalgorithmen

Keine spezifischen Pflichten

Hochrisiko-KI: Die wichtigsten Pflichten

Der Großteil der regulatorischen Anforderungen konzentriert sich auf Hochrisiko-Systeme. Unternehmen, die solche Systeme einsetzen, müssen unter anderem sicherstellen, dass ein Risikomanagementsystem für das jeweilige KI-System existiert, die verwendeten Trainings- und Eingabedaten dokumentiert und qualitätsgesichert sind, eine technische Dokumentation vorliegt, menschliche Aufsicht gewährleistet ist und das System auf Genauigkeit, Robustheit und Cybersicherheit geprüft wurde.

Für Betreiber (Deployer) gilt zusätzlich: Sie müssen die KI-Systeme bestimmungsgemäß einsetzen, die vom Provider bereitgestellten Gebrauchsanweisungen befolgen und bei Auffälligkeiten den Anbieter sowie die zuständige Behörde informieren.

Quellen

Stand: Mai 2026. Dieser Glossar-Eintrag dient der Wissensvermittlung und stellt keine Rechtsberatung dar. Regulatorische Änderungen vorbehalten.

Warenkorb (0)

Ihr Warenkorb ist leer

Zum Shop →