Risikoklassen im AI Act: Wie Sie Ihre KI-Systeme richtig einstufen
Der AI Act teilt KI-Systeme in vier Risikoklassen ein – von verboten bis minimal. Die Einstufung entscheidet über Ihre Pflichten als Unternehmen. Dieser Artikel zeigt, wie Sie Ihre Systeme in vier Schritten korrekt einordnen, welche Anhang-III-Bereiche KMU betreffen und wann die Ausnahme-Klausel greift.
Inhaltsverzeichnis
Sie wissen, dass der AI Act existiert. Vielleicht haben Sie sogar schon ein KI-Inventar erstellt. Aber jetzt kommt die entscheidende Frage: In welche Risikoklasse fällt jedes einzelne System?
Die Antwort bestimmt alles Weitere – Dokumentationspflichten, Schulungsaufwand, Behördenmeldungen, Bußgeldrisiko. Wer hier falsch einstuft, riskiert entweder unnötigen Aufwand oder empfindliche Strafen.
Das Problem: Die meisten Leitfäden erklären die vier Risikoklassen abstrakt. Was fehlt, ist die Brücke zur Praxis. Dieser Artikel liefert sie – mit einem Entscheidungsbaum, konkreten KMU-Beispielen und einer Zuordnungstabelle für gängige Tools.
Warum ist das so dringend? Die Fristen laufen. Seit Februar 2025 gelten die Verbote nach Art. 5 und die AI-Literacy-Pflicht nach Art. 4. Ab August 2026 greifen die Pflichten für Hochrisiko-KI-Systeme nach Anhang III. Wer bis dahin nicht eingestuft hat, operiert im regulatorischen Blindflug.
Der risikobasierte Ansatz des AI Act – warum die Einstufung alles entscheidet
Der AI Act reguliert nicht KI-Technologie an sich, sondern deren konkreten Einsatzzweck. Derselbe Algorithmus kann je nach Anwendung in unterschiedliche Risikoklassen fallen.
Ein Bilderkennungsalgorithmus in einer Qualitätskontrolle? Minimales Risiko. Derselbe Algorithmus zur biometrischen Identifizierung von Mitarbeitenden? Hochrisiko. Zur verdeckten Verhaltensmanipulation? Verboten.
Dieses Prinzip ist die wichtigste Erkenntnis für die Praxis: Nicht die Technologie bestimmt die Risikoklasse, sondern der Use Case. Deshalb reicht es nicht, im KI-Inventar nur das Tool zu erfassen – Sie müssen für jedes System den konkreten Einsatzzweck dokumentieren.
Das bedeutet auch: Die Risikoklasse ist nicht statisch. Sie kann sich ändern, wenn sich der Einsatzzweck ändert, der Anbieter neue Funktionen ausrollt oder Ihr Unternehmen das System anders nutzt als ursprünglich vorgesehen. Diese Dynamik macht eine regelmäßige Überprüfung im Rahmen des KI-Compliance Monitorings unabdingbar.
Der AI Act definiert Risiko als die Kombination aus Eintrittswahrscheinlichkeit und Schwere eines Schadens – an Gesundheit, Sicherheit, Grundrechten oder demokratischen Werten (Art. 3 Nr. 2 AI Act).
Die 4 Risikoklassen im Detail
Der AI Act unterscheidet vier Stufen. Je höher das Risiko, desto strenger die Anforderungen:
Risikoklasse | Beispiele | Pflichten | Bußgeld bei Verstoß |
|---|---|---|---|
Verboten (Art. 5) | Social Scoring, unterschwellige Manipulation, biometrische Echtzeit-Fernüberwachung im öffentlichen Raum | Vollständiges Verbot – kein Einsatz erlaubt | Bis 35 Mio. € oder 7 % Jahresumsatz |
Hochrisiko (Art. 6, Anhang I + III) | KI-gestützte Personalauswahl, Kreditwürdigkeitsprüfung, biometrische Kategorisierung | Risikomanagementsystem, technische Dokumentation, menschliche Aufsicht, Konformitätsbewertung, Registrierung in EU-Datenbank | Bis 15 Mio. € oder 3 % Jahresumsatz |
Begrenztes Risiko (Art. 50) | Chatbots, Deepfake-Generatoren, Textgeneratoren | Transparenzpflichten: Nutzer müssen wissen, dass sie mit KI interagieren oder KI-generierte Inhalte sehen | Bis 7,5 Mio. € oder 1,5 % Jahresumsatz |
Minimales Risiko | Spamfilter, Rechtschreibkorrektur, Predictive Maintenance, Videospiele | Keine spezifischen Pflichten – freiwillige Verhaltenskodizes empfohlen | – |
Für die meisten KMU ist die entscheidende Frage: Nutzen wir ein Hochrisiko-System? Denn hier entstehen die umfangreichsten Pflichten. Die gute Nachricht: Die Mehrheit der KI-Anwendungen im Unternehmensalltag fällt in die Klassen „begrenztes“ oder „minimales Risiko“.
Hochrisiko-KI nach Anhang III: Die 8 Bereiche, die KMU betreffen
Neben Sicherheitskomponenten in regulierten Produkten (Anhang I) definiert der AI Act in Anhang III acht Anwendungsbereiche, in denen KI-Systeme automatisch als hochriskant gelten. Für KMU sind vor allem drei davon praxisrelevant:
1. Personalmanagement und Beschäftigung (Anhang III Nr. 4)
Das ist der Bereich, der die meisten KMU trifft. KI-Systeme gelten hier als hochriskant, wenn sie:
Stellenanzeigen gezielt ausspielen oder filtern
Bewerbungen automatisiert vorsortieren oder bewerten
Entscheidungen über Einstellung, Beförderung oder Kündigung beeinflussen
Leistung oder Verhalten von Mitarbeitenden bewerten
Praxis-Beispiel: Wenn Ihr HR-Tool Personio oder Workday KI-gestützte Funktionen zur Bewerbervorauswahl nutzt, fallen diese Funktionen unter Anhang III Nr. 4 – und damit in die Hochrisiko-Klasse. Das gilt auch, wenn die KI-Funktion nur optional ist – sobald Sie sie aktivieren und sie Einstellungsentscheidungen beeinflusst, greift die Einstufung.
Viele KMU unterschiätzen diesen Bereich, weil sie KI nicht bewusst im HR einsetzen. Aber: Moderne HR-Plattformen integrieren zunehmend KI-Funktionen im Hintergrund – vom automatischen Matching über Score-basierte Kandidatenlisten bis hin zu KI-gestützten Empfehlungen für Leistungsbeurteilungen. Prüfen Sie bei jedem HR-Tool die Feature-Dokumentation des Anbieters.
2. Zugang zu wesentlichen Diensten (Anhang III Nr. 5)
KI-Systeme, die über den Zugang zu Versicherungen, Krediten, öffentlichen Leistungen oder Notdiensten mitentscheiden. Relevant für KMU im Finanz- und Versicherungssektor.
3. Kritische Infrastruktur (Anhang III Nr. 2)
KI im Betrieb von Strom-, Gas-, Wasser- oder digitaler Infrastruktur. Betrifft KMU als Betreiber solcher Anlagen oder als Zulieferer.
Die weiteren 5 Bereiche – Biometrie (Nr. 1), Bildung (Nr. 3), Strafverfolgung (Nr. 6), Migration (Nr. 7) und Justiz/Demokratie (Nr. 8) – betreffen KMU in der Regel nicht direkt. Sie sollten diese Bereiche dennoch kennen, falls Ihre KI-Systeme indirekt in solche Kontexte einfließen.
Entscheidungsbaum: In 4 Schritten zur richtigen Risikoklasse
Statt abstrakter Rechtstexte brauchen Sie eine klare Entscheidungslogik. Dieser Entscheidungsbaum bildet die Art. 5 und Art. 6 AI Act-Logik für die Praxis ab:
Schritt 1: Ist die Anwendung verboten?
Prüfen Sie gegen die Verbotsliste in Art. 5: Social Scoring, unterschwellige Manipulation, Ausnutzung von Schwachstellen, biometrische Echtzeit-Fernüberwachung im öffentlichen Raum, Emotionserkennung am Arbeitsplatz (ohne medizinischen oder sicherheitsrelevanten Grund). Wenn ja: Einsatz sofort einstellen. Wenn nein: weiter zu Schritt 2.
Schritt 2: Ist das KI-System eine Sicherheitskomponente eines regulierten Produkts?
Prüfen Sie gegen Anhang I: Fällt das Produkt unter EU-Harmonisierungsvorschriften (Maschinenverordnung, Medizinprodukte, Spielzeugsicherheit etc.)? Wenn ja und eine Drittkonformitätsbewertung erforderlich ist: Hochrisiko. Wenn nein: weiter zu Schritt 3.
Schritt 3: Fällt der Einsatzzweck unter Anhang III?
Prüfen Sie die 8 Bereiche: Biometrie, kritische Infrastruktur, Bildung, Personalmanagement, wesentliche Dienste, Strafverfolgung, Migration, Justiz. Wenn ja: grundsätzlich Hochrisiko – aber prüfen Sie die Ausnahme-Klausel (Schritt 4). Wenn nein: weiter zur Transparenzprüfung.
Schritt 4: Greift die Ausnahme-Klausel nach Art. 6 Abs. 3?
Auch wenn ein System unter Anhang III fällt, gilt es nicht als hochriskant, wenn es kein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte birgt. Das ist der Fall, wenn das System:
nur eingeschränkte, prozedurale Aufgaben erledigt
das Ergebnis einer bereits abgeschlossenen menschlichen Tätigkeit verbessert
Entscheidungsmuster oder Abweichungen erkennt, ohne die menschliche Beurteilung zu ersetzen
nur vorbereitende Aufgaben für eine Anhang-III-relevante Bewertung durchführt
Achtung: Wenn das System ein Profiling natürlicher Personen vornimmt, greift die Ausnahme niemals – unabhängig davon, wie eingeschränkt die Aufgabe ist.
Dokumentationspflicht bei Ausnahme: Wenn Sie als Anbieter oder Deployer die Auffassung vertreten, dass ein Anhang-III-System nicht hochriskant ist, müssen Sie diese Bewertung vor dem Einsatz dokumentieren und auf Anfrage der Behörde vorlegen (Art. 6 Abs. 4).
Kein Anhang-III-Treffer? Dann prüfen Sie, ob Transparenzpflichten nach Art. 50 greifen (Chatbot, Deepfake, KI-generierte Inhalte). Wenn ja: Begrenztes Risiko. Wenn nein: Minimales Risiko.
Praxis-Zuordnung: 8 gängige KMU-Tools und ihre Risikoklasse
Theorie ist das eine – aber wie sieht die Einstufung für Tools aus, die in fast jedem KMU laufen? Diese Tabelle zeigt die Zuordnung für typische Anwendungen:
Tool / System | Typischer Einsatz im KMU | Risikoklasse | Begründung |
|---|---|---|---|
Personio (KI-Recruiting) | Bewerbervorauswahl, Ranking | Hochrisiko | Anhang III Nr. 4 – KI beeinflusst Personalentscheidung |
ChatGPT / Copilot | Texterstellung, Recherche, Coding | Begrenztes Risiko | Art. 50 – Interaktion mit natürlichen Personen, KI-generierte Inhalte |
HubSpot (Lead Scoring) | Automatisierte Lead-Bewertung | Minimales Risiko | Marketing-Scoring ohne Grundrechts-Relevanz |
DeepL | Übersetzung von Dokumenten | Minimales Risiko | Kein Anhang-III-Bereich, keine Interaktion mit Personen |
Microsoft 365 Copilot | E-Mail-Zusammenfassungen, Präsentationen | Begrenztes Risiko | Art. 50 – KI-generierte Inhalte |
Spamfilter (z. B. Microsoft Defender) | E-Mail-Filterung | Minimales Risiko | Kein sensibler Anwendungsbereich |
Kreditscoring-Tool | Kreditwürdigkeitsbewertung von Kunden | Hochrisiko | Anhang III Nr. 5 – Zugang zu wesentlichen Diensten |
Eigenentwicklung (z. B. Produktions-KI) | Qualitätskontrolle, Predictive Maintenance | Minimales Risiko* | *Sofern kein Sicherheitsbauteil nach Anhang I – dann Hochrisiko |
Wichtig: Diese Zuordnung gilt für den jeweils beschriebenen Einsatzzweck. Ändert sich der Use Case, kann sich die Risikoklasse verschieben. Deshalb gehört die Risikoklasse als Pflichtfeld in Ihr KI-Inventar.
Achtung Rollenwechsel: Wann der Deployer zum Provider wird
Die meisten KMU sind Deployer – sie setzen KI ein, entwickeln sie aber nicht selbst. Die Pflichten als Deployer sind überschaubar (dazu mehr im Artikel Deployer-Pflichten nach dem AI Act).
Aber Vorsicht: In drei Szenarien werden Sie vom Deployer zum Provider – mit deutlich umfangreicheren Pflichten:
Sie verändern den Verwendungszweck eines Hochrisiko-Systems wesentlich (Art. 25 Abs. 1 lit. c)
Sie setzen Ihren Namen oder Ihre Marke auf ein bestehendes Hochrisiko-System
Sie modifizieren das System wesentlich – etwa durch Finetuning oder eigene Trainingsdaten
Ein Beispiel: Sie kaufen ein Standard-Recruiting-Tool, trainieren es aber mit eigenen Daten nach und verändern die Bewertungskriterien. Damit werden Sie zum Provider – und müssen die vollen Konformitätsanforderungen erfüllen.
Ein weiteres Szenario, das KMU häufig betrifft: Sie nutzen eine KI-Plattform wie Azure OpenAI Service, bauen darauf eine eigene Anwendung auf und bieten diese Ihren Kunden an – unter Ihrem eigenen Firmennamen. Auch hier findet ein Rollenwechsel statt. Sie nutzen die KI nicht mehr nur als Deployer, sondern bringen ein eigenes KI-gestütztes Produkt in Verkehr.
Die Abgrenzung zwischen Deployer und Provider ist einer der komplexesten Aspekte des AI Act. Im Zweifel gilt: Wenn Sie unsicher sind, dokumentieren Sie Ihre Einschätzung und holen Sie eine Rechtsberatung ein. Die Bußgelder für eine falsche Rollenzuordnung können erheblich sein.
Die Ausnahme-Klausel: Wann ein Anhang-III-System doch nicht hochriskant ist
Art. 6 Abs. 3 ist die Klausel, die viele übersehen – obwohl sie für KMU erhebliche praktische Bedeutung hat.
Sie besagt: Ein Anhang-III-System gilt nicht als hochriskant, wenn es kein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte birgt. Konkret muss mindestens eine dieser Bedingungen erfüllt sein:
Das System erledigt nur eingeschränkte, prozedurale Aufgaben
Es verbessert das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit
Es erkennt Muster oder Abweichungen, ohne die menschliche Beurteilung zu ersetzen
Es führt nur vorbereitende Aufgaben für eine Anhang-III-relevante Bewertung durch
Praxis-Beispiel: Ihr HR-Tool schlagt auf Basis von Stichworten passende interne Stellenausschreibungen vor, aber ein Recruiter trifft die Auswahl. Das System erkennt Muster, ersetzt aber nicht die menschliche Entscheidung – die Ausnahme könnte greifen.
Gegenbeispiel: Dasselbe Tool sortiert Bewerbungen automatisiert in A/B/C-Kategorien und leitet nur A-Kandidaten weiter. Hier beeinflusst die KI das Ergebnis wesentlich – die Ausnahme greift nicht.
Die Ausnahme-Klausel ist kein Freibrief. Sie erfordert eine sorgfältige Dokumentation, warum das System kein erhebliches Risiko darstellt. Wenn die Behörde diese Dokumentation anfordert und sie fehlt oder unzureichend ist, drohen Bußgelder von bis zu 7,5 Millionen Euro. Die EU-Kommission wird zudem Leitlinien mit Beispielen für hochriskante und nicht hochriskante Anhang-III-Systeme veröffentlichen – bis diese vorliegen, empfiehlt sich eine konservative Einstufung.
Profiling-Ausnahme: Unabhängig von den vier Bedingungen gilt ein Anhang-III-System immer als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt. Diese Regel kennt keine Ausnahme.
Was nach der Einstufung kommt – Pflichten je Risikoklasse
Die Einstufung ist nicht das Ziel – sie ist der Ausgangspunkt. Je nach Risikoklasse ergeben sich unterschiedliche Handlungsfelder:
Risikoklasse | Nächste Schritte | Weiterführend |
|---|---|---|
Hochrisiko | Risikomanagementsystem einrichten, technische Dokumentation erstellen, menschliche Aufsicht sicherstellen, Registrierung in EU-Datenbank, Konformitätsbewertung | |
Begrenztes Risiko | Transparenzhinweise implementieren: Nutzer informieren, dass KI im Einsatz ist; KI-generierte Inhalte kennzeichnen | |
Minimales Risiko | Keine regulatorischen Pflichten – aber interne KI-Richtlinie und Dokumentation im KI-Inventar empfohlen |
Unabhängig von der Risikoklasse gilt seit Februar 2025 die Schulungspflicht nach Art. 4: Alle Personen, die mit KI-Systemen arbeiten, müssen über ausreichende KI-Kompetenz verfügen.
Die Risikoklassifizierung ist auch kein einmaliges Projekt. Wenn sich der Einsatzzweck eines Systems ändert, der Anbieter ein Update ausliefert oder Sie das System modifizieren, kann sich die Risikoklasse verschieben. Deshalb gehört die regelmäßige Überprüfung in Ihr KI-Compliance Monitoring.
Ein häufig übersehener Punkt: Auch die Kombination mehrerer Systeme kann eine neue Risikoklasse begründen. Wenn Sie ein Chatbot-System (begrenztes Risiko) mit einem Kunden-Scoring-Tool verknüpfen und daraus automatisierte Kreditentscheidungen ableiten, entsteht ein Hochrisiko-System – obwohl keines der Einzelsysteme allein als hochriskant einzustufen wäre.
Dokumentieren Sie daher nicht nur die Einstufung jedes Einzelsystems, sondern auch die Datenflüsse zwischen Systemen. Genau dafür ist die Spalte „Datenflüsse“ im KI-Inventar vorgesehen.
Ihre nächsten 3 Schritte
KI-Inventar prüfen: Haben Sie für jedes System den konkreten Einsatzzweck dokumentiert? Falls nicht: Anleitung zum KI-Inventar
Entscheidungsbaum durchlaufen: Nehmen Sie jedes System aus Ihrem Inventar und durchlaufen Sie die 4 Schritte. Dokumentieren Sie die Einstufung und die Begründung.
Hochrisiko-Systeme priorisieren: Für jedes Hochrisiko-System müssen Sie die Deployer-Pflichten umsetzen – beginnen Sie mit dem System, das die größte Grundrechts-Relevanz hat.
Sie möchten die Risikoklassifizierung nicht auf einem Blatt Papier machen? Das KI-Inventar & Risikoklassifizierungs-Template der ComplianceWerkstatt enthält die Einstufungslogik als vorausgefülltes Excel-Tool – inklusive Entscheidungsbaum, Anhang-III-Prüfung und Dokumentation der Ausnahme-Klausel. Für die vollständige Umsetzung aller AI-Act-Anforderungen: AI Act Aufbau-Bundle.
Noch mehr zum Gesamtbild der AI-Act-Umsetzung für KMU finden Sie im Pillar-Artikel: EU AI Act für KMU – Der vollständige Umsetzungsleitfaden 2026.
Passende Produkte zum Thema

EU AI Act Aufbau-Bundle
Komplettpaket zur Umsetzung des EU AI Act – von der KI-Inventarisierung bis zum Management Report. 9 aufeinander abgestimmte Dokumente in 5 Phasen. Stichtag 2. August 2026.

EU AI Act: KI-Inventar & Risikoklassifizierung
Excel-Tool zur Erfassung aller KI-Systeme im Unternehmen mit automatischer Risikoklassen-Zuordnung, Fristen-Tracker und Dashboard-Übersicht. Der erste Schritt zur AI-Act-Compliance.

EU AI Act: KI-Compliance Monitoring & Reporting Kit
Laufende KI-Compliance überwachen und berichten: Excel-Dashboard mit Ampelsystem, Vorfälle-Log, Änderungs-Tracking. Plus fertige Management-Report-Präsentation für den Vorstand.
Marvin Zimbelmann
Head of Governance, Risk & Compliance · MBA-Dozent · Podcast-Host
Auf LinkedIn vernetzen →