Regulatorik & Recht

FRIA nach Art. 27 AI Act: Grundrechte-Folgenabschätzung Schritt für Schritt

Die meisten KMU brauchen keine FRIA – aber manche schon, ohne es zu wissen. Dieser Artikel klärt den Adressatenkreis nach Art. 27, liefert die 6 Pflichtinhalte als Schritt-für-Schritt-Anleitung mit durchgängigem Beispiel, eine FRIA-vs.-DSFA-Vergleichstabelle mit 6 Dimensionen, den kombinierten FRIA+DSFA-Ablauf in 5 Schritten und das Omnibus-Fristen-Update.

Inhaltsverzeichnis

Brauchen Sie als KMU wirklich eine FRIA?

Die kurze Antwort: Wahrscheinlich nicht – zumindest nicht formal. Die längere Antwort: Es kommt darauf an, was Sie mit KI machen – und für wen.

Die Grundrechte-Folgenabschätzung (Fundamental Rights Impact Assessment, kurz FRIA) nach Art. 27 der KI-Verordnung gehört zu den am häufigsten missverstandenen Pflichten des EU AI Act. Viele Unternehmen glauben, sie müssten für jedes KI-System eine FRIA durchführen. Andere verwechseln sie mit der Datenschutz-Folgenabschätzung (DSFA) nach DSGVO. Beides ist falsch.

Dieser Artikel klärt drei Fragen: Wer muss eine FRIA durchführen? Was muss drin stehen? Und warum kann eine freiwillige FRIA auch ohne Pflicht sinnvoll sein?

Einordnung: Dieser Artikel ist Teil unseres AI-Act-Umsetzungsleitfadens. Er gehört zu Phase 3 (Dokumentation und Nachweise) und baut auf der Deployer-Dokumentation und der Risikoklassifizierung auf.

Was ist eine FRIA – und warum ist sie mehr als eine DSFA?

Die FRIA ist eine strukturierte Bewertung der Auswirkungen eines Hochrisiko-KI-Systems auf die Grundrechte der betroffenen Personen. Sie muss vor der Inbetriebnahme durchgeführt werden – nicht danach.

Der entscheidende Unterschied zur DSFA: Die DSFA nach Art. 35 DSGVO schützt personenbezogene Daten. Die FRIA schützt Grundrechte im weiteren Sinne – einschließlich Nichtdiskriminierung, Meinungsfreiheit, Menschenwürde, Recht auf ein faires Verfahren und Zugang zur Justiz.

Art. 27 Abs. 4 der KI-Verordnung stellt klar: Eine DSFA kann die FRIA nicht ersetzen. Die FRIA ergänzt die DSFA. Beide Instrumente überschneiden sich, decken aber unterschiedliche Risikodimensionen ab.

Konkret prüft die FRIA die Auswirkungen auf Rechte der EU-Grundrechtecharta: Menschenwürde (Art. 1), Nichtdiskriminierung (Art. 21), Gleichheit von Frauen und Männern (Art. 23), Recht auf Bildung (Art. 14), Berufsfreiheit (Art. 15), Verbraucherschutz (Art. 38) und das Recht auf einen wirksamen Rechtsbehelf (Art. 47). Die DSFA deckt davon nur den Datenschutzaspekt (Art. 8 GRCh) ab – die FRIA geht deutlich weiter.

Dimension

DSFA (Art. 35 DSGVO)

FRIA (Art. 27 AI Act)

Rechtsgrundlage

DSGVO

KI-Verordnung (EU) 2024/1689

Schutzgegenstand

Personenbezogene Daten

Alle EU-Grundrechte (Charta)

Auslöser

Hohes Risiko bei Datenverarbeitung

Einsatz eines Hochrisiko-KI-Systems durch bestimmte Betreiber

Zeitpunkt

Vor Beginn der Verarbeitung

Vor Inbetriebnahme des KI-Systems

Meldepflicht

Nur bei verbleibendem hohem Risiko (Art. 36 DSGVO)

Ergebnisse an Marktüberwachungsbehörde (Art. 27 Abs. 3)

Kombination

Ausdrücklich möglich – die Verordnung fördert die gemeinsame Durchführung (Art. 27 Abs. 4)

Die DSFA schützt den Menschen hinter den Daten. FRIA schützt den Menschen vor der KI-Entscheidung. Zusammen bilden sie den doppelten Schutzschirm.

Wer muss eine FRIA durchführen?

Die FRIA-Pflicht nach Art. 27 gilt nicht für alle Deployer. Der Adressatenkreis ist eng begrenzt. Drei Gruppen sind betroffen:

Betreibergruppe

Beispiele

FRIA-Pflicht?

Einrichtungen des öffentlichen Rechts

Behörden, Kommunen, Sozialämter, Jobcenter

Ja

Private Stellen, die öffentliche Dienste erbringen

Private Kliniken, Bildungsträger, Sozialdienste, Wohnungsbaugesellschaften

Ja

Betreiber von Anhang-III-Systemen Nr. 5 (b) und (c)

Kreditwürdigkeitsprüfung, Risikobewertung in Lebens-/Krankenversicherung

Ja

Private KMU ohne öffentliche Dienste

Standardunternehmen mit ChatGPT, Personio, HubSpot

Nein (aber empfohlen)

Wichtig für KMU: Ein mittelständisches Unternehmen, das Personio für Bewerber-Screening nutzt, muss die Deployer-Pflichten nach Art. 26 erfüllen – aber keine formale FRIA, solange es keine öffentlichen Dienste erbringt und nicht unter Anhang III Nr. 5 (b)/(c) fällt. Anders sieht es aus, wenn ein privater Bildungsträger KI im Zulassungsverfahren einsetzt – hier greift Art. 27.

Ausnahme: Hochrisiko-KI-Systeme im Bereich kritische Infrastruktur (Anhang III Nr. 2) sind von der FRIA-Pflicht ausgenommen. Der Gesetzgeber geht davon aus, dass die Risiken hier nicht primär grundrechtlicher, sondern sicherheitstechnischer Natur sind.

Sonderfall Anhang III Nr. 5 (b) und (c): Diese Kategorie verdient besondere Aufmerksamkeit, weil sie auch rein private Unternehmen betrifft. Konkret sind gemeint:

  • Nr. 5 (b): KI-Systeme zur Bewertung der Kreditwürdigkeit natürlicher Personen – also automatisierte Bonitätsprüfungen, Scoring-Modelle oder KI-gestützte Kreditentscheidungen.

  • Nr. 5 (c): KI-Systeme zur Risikobewertung und Preisfestsetzung bei Lebens- und Krankenversicherungen – etwa wenn ein Algorithmus Prämien anpasst oder Versicherungsanträge bewertet.

Wenn Ihr Unternehmen solche Systeme betreibt, greift die FRIA-Pflicht – unabhängig davon, ob Sie öffentliche Dienste erbringen oder nicht. Das betrifft Banken, Finanzdienstleister und Versicherungen unmittelbar, aber auch FinTech-Startups und KMU mit KI-gestütztem Kreditmanagement.

Die 6 Pflichtinhalte nach Art. 27 – Schritt für Schritt

Art. 27 Abs. 1 definiert sechs Elemente, die jede FRIA enthalten muss. Wir gehen sie nacheinander durch – mit einem durchgängigen Beispiel: Ein privater Bildungsträger setzt ein KI-System zur automatisierten Vorauswahl von Kursteilnehmern ein.

Schritt 1: Verfahrensbeschreibung (Art. 27 Abs. 1 lit. a)

Beschreiben Sie, in welchen Prozessen das KI-System eingesetzt wird – im Einklang mit seinem vorgesehenen Zweck. Nicht abstrakt, sondern konkret: Welcher Geschäftsprozess? Welche Entscheidung unterstützt oder trifft die KI?

Beispiel: Das KI-System wertet Anmeldeformulare aus, bewertet Qualifikationsprofile und erstellt eine Rangliste. Die finale Zulassungsentscheidung trifft eine Mitarbeiterin.

Schritt 2: Zeitraum und Häufigkeit (Art. 27 Abs. 1 lit. b)

Dokumentieren Sie, wie lange und wie oft das System eingesetzt wird. Einmaliger Pilotbetrieb oder Dauereinsatz? Saisonale Nutzung oder ganzjährig?

Beispiel: Einsatz dreimal jährlich zu den Anmeldefristen (Januar, Mai, September), jeweils über einen Zeitraum von 4 Wochen.

Schritt 3: Betroffene Personengruppen (Art. 27 Abs. 1 lit. c)

Identifizieren Sie, welche Kategorien natürlicher Personen betroffen sein könnten. Denken Sie über die offensichtlichen Nutzer hinaus: Wer wird indirekt beeinflusst?

Beispiel: Direkt betroffen – Bewerberinnen und Bewerber (darunter potenziell vulnerable Gruppen: Personen mit Behinderung, Migrationshintergrund, ältere Umschulungsteilnehmer). Indirekt betroffen – Mitarbeitende, die auf Basis der KI-Empfehlung entscheiden.

Schritt 4: Spezifische Schadensrisiken (Art. 27 Abs. 1 lit. d)

Bewerten Sie die konkreten Risiken für die Grundrechte der identifizierten Personengruppen. Berücksichtigen Sie dabei die vom Anbieter bereitgestellten Informationen (Art. 13).

Grundrecht

Risiko im Beispiel

Einstufung

Nichtdiskriminierung (Art. 21 GRCh)

Systematische Benachteiligung bestimmter Altersgruppen oder Herkunft

Hoch

Recht auf Bildung (Art. 14 GRCh)

Ausschluss qualifizierter Personen durch fehlerhafte Bewertung

Mittel

Menschenwürde (Art. 1 GRCh)

Reduktion auf Datenpunkte ohne Berücksichtigung individueller Umstände

Mittel

Datenschutz (Art. 8 GRCh)

Verarbeitung sensibler Daten (Qualifikation, Herkunft) durch KI

Hoch

Schritt 5: Maßnahmen der menschlichen Aufsicht (Art. 27 Abs. 1 lit. e)

Beschreiben Sie, wie Human Oversight konkret umgesetzt wird – entsprechend den Betriebsanleitungen des Anbieters.

Beispiel: Jede KI-Empfehlung wird von einer geschulten Mitarbeiterin geprüft, bevor eine Ablehnung ausgesprochen wird. Bei Grenzfällen (KI-Score 40–60 %) erfolgt eine manuelle Vollprüfung. Jede Entscheidung wird mit Begründung dokumentiert.

Schritt 6: Risikominderungsmaßnahmen (Art. 27 Abs. 1 lit. f)

Definieren Sie Maßnahmen für den Fall, dass Risiken eintreten. Art. 27 verlangt ausdrücklich: Regelungen zur internen Unternehmensführung und Beschwerdemechanismen.

Beispiel: Abgelehnte Bewerber erhalten eine schriftliche Begründung und können innerhalb von 14 Tagen Einspruch einlegen. Einspruchsverfahren: manuelle Prüfung durch eine zweite Person. Vierteljährliche Bias-Analyse der Ablehnungsquoten nach Altersgruppe und Herkunft.

Vorlage für Ihre FRIA: Das FRIA Template der ComplianceWerkstatt enthält alle 6 Pflichtinhalte als vorstrukturiertes Dokument mit Ausfüllhilfen, Beispielformulierungen und einem vorausgefüllten Muster. Auch als Teil des AI Act Aufbau-Bundles.

FRIA als freiwillige Maßnahme – auch wenn Sie nicht müssen

Die formale FRIA-Pflicht betrifft nur die drei oben genannten Betreibergruppen. Trotzdem gibt es gute Gründe, eine freiwillige FRIA durchzuführen – gerade für KMU, die Hochrisiko-KI-Systeme im HR-Bereich oder im Kundenmanagement einsetzen:

  • Rechenschaftspflicht dokumentieren: Wenn eine Aufsichtsbehörde fragt, wie Sie Grundrechtsrisiken bewertet haben, stehen Sie mit einer FRIA besser da als ohne.

  • DSFA ergänzen: Wer ohnehin eine DSFA für sein KI-System durchführt, kann mit geringem Mehraufwand die grundrechtliche Dimension abdecken.

  • Lieferketten-Anforderungen: Großkunden und öffentliche Auftraggeber werden zunehmend Nachweise über verantwortungsvollen KI-Einsatz verlangen.

  • Omnibus-Unsicherheit: Das Digital-Omnibus-Paket verschiebt Fristen, ändert aber nicht die grundlegenden Anforderungen. Wer heute vorbereitet ist, muss später nicht nachrüsten.

  • Rollenwechsel-Risiko: Wer sein KI-System wesentlich verändert oder umwidmet, kann vom Deployer zum Provider werden – und dann gelten ohnehin strengere Pflichten.

Praxis-Tipp: Eine freiwillige FRIA für ein Nicht-Hochrisiko-System muss nicht alle 6 Pflichtinhalte in voller Tiefe abdecken. Es reicht eine FRIA Light: Einsatzzweck, betroffene Personen, wesentliche Grundrechtsrisiken, Maßnahmen. Zwei bis drei Seiten genügen.

Meldepflicht an die Marktüberwachungsbehörde

Art. 27 Abs. 3 schreibt vor: Nach Durchführung der FRIA müssen die Betreiber die Ergebnisse der zuständigen Marktüberwachungsbehörde mitteilen. Dies ist eine aktive Meldepflicht – nicht nur eine Aufbewahrungspflicht.

Konkret bedeutet das:

  • Die Meldung erfolgt über ein standardisiertes Formular, das vom EU AI Office entwickelt wird (Art. 27 Abs. 5).

  • Die FRIA-Ergebnisse werden in der EU-Datenbank für Hochrisiko-KI-Systeme registriert.

  • Die Meldepflicht gilt für die erste Inbetriebnahme. Bei wesentlichen Änderungen muss die FRIA aktualisiert und erneut gemeldet werden (Art. 27 Abs. 2).

Aktueller Stand: Das EU AI Office arbeitet an der Fragebogen-Vorlage. Bis diese veröffentlicht ist, orientieren Sie sich an den 6 Pflichtinhalten. Das standardisierte Formular wird die Meldung vereinfachen, nicht die inhaltlichen Anforderungen ersetzen.

Die Marktüberwachungsbehörde ist die auf nationaler Ebene zuständige Stelle. In Deutschland benennen die Länder oder der Bund die Behörde – die konkrete Zuordnung ist Stand April 2026 noch nicht abschließend geklärt. Die Bundesnetzagentur wird als wahrscheinliche Aufsichtsbehörde gehandelt.

FRIA und DSFA gemeinsam durchführen – so funktioniert es

Art. 27 Abs. 4 fördert ausdrücklich die Kombination von FRIA und DSFA. In der Praxis verarbeiten die meisten Hochrisiko-KI-Systeme personenbezogene Daten – Sie brauchen also ohnehin beides. Ein integrierter Ansatz spart Zeit und vermeidet Doppelarbeit.

Kombinierter Ablauf in 5 Schritten

Schritt

DSFA-Anteil

FRIA-Anteil

1. Systembeschreibung

Datenverarbeitungszweck, Rechtsgrundlage, Datenflüsse

Einsatzzweck, Risikoklasse, vorgesehene Nutzung

2. Betroffene identifizieren

Kategorien betroffener Personen (DSGVO)

Personengruppen + vulnerable Gruppen (Grundrechte)

3. Risikobewertung

Datenschutzrisiken (Vertraulichkeit, Integrität)

Grundrechtsrisiken (Diskriminierung, Würde, Fairness)

4. Maßnahmen

Technische und organisatorische Maßnahmen (TOMs)

Human Oversight, Beschwerdemechanismen, Governance

5. Monitoring

Regelmäßige Überprüfung der Datenverarbeitung

Aktualisierung bei Änderungen (Art. 27 Abs. 2)

Ergebnis: Ein Dokument, zwei Anforderungen erfüllt. Kennzeichnen Sie in Ihrem Bericht klar, welche Abschnitte die DSFA-Pflicht und welche die FRIA-Pflicht erfüllen. Das erleichtert die Prüfung durch Aufsichtsbehörden und vermeidet Rückfragen. Wichtig: Die DSFA-Anteile unterliegen der Aufsicht des Datenschutzbeauftragten, die FRIA-Anteile der Marktüberwachungsbehörde. Beide Perspektiven sollten im Dokument sichtbar getrennt sein.

Vertiefung: Die Schnittstellen zwischen AI Act und DSGVO gehen über die FRIA hinaus – Transparenzpflichten, automatisierte Entscheidungen und die Rolle des Datenschutzbeauftragten. Mehr dazu im Artikel AI Act und DSGVO: Was Compliance Officer wissen müssen.

Fristen und Omnibus-Update

Die FRIA-Pflicht hängt an den Fristen für Hochrisiko-KI-Systeme. Hier der aktuelle Stand nach dem Digital-Omnibus-Paket (Plenar-Abstimmung 26. März 2026, 569 Ja-Stimmen):

Pflicht

Frist

Status

Verbotene KI-Praktiken (Art. 5)

02.02.2025

In Kraft

AI Literacy (Art. 4)

02.02.2025

In Kraft

Transparenzpflichten (Art. 50)

02.08.2026

Gilt

Hochrisiko nach Anhang III (inkl. FRIA)

02.12.2027

Omnibus-Verschiebung

Hochrisiko nach Anhang I

02.08.2028

Omnibus-Verschiebung

Was bedeutet das für die FRIA? Die formale FRIA-Pflicht für Anhang-III-Systeme greift erst ab 2. Dezember 2027. Das heißt aber nicht, dass Sie bis dahin warten sollten. Die Grundrechtsrisiken bestehen ab dem ersten Einsatztag. Und wer eine DSFA durchführt, kann die FRIA-Erweiterung jetzt schon einbauen – bevor es Pflicht wird.

Verbreitung: Wo die FRIA in Ihre AI-Act-Dokumentation passt

Die FRIA ist kein isoliertes Dokument. Sie steht im Zusammenspiel mit der gesamten AI-Act-Compliance-Dokumentation. Wer sein KI-Inventar sauber pflegt und die Deployer-Dokumentation aufgebaut hat, kann die FRIA als logische Erweiterung nahtlos integrieren:

Dokument

Beziehung zur FRIA

KI-Inventar

Identifiziert, welche Systeme Hochrisiko sind → Auslöser für FRIA

Risikoklassifizierung

Bestimmt Risikoklasse → FRIA nur bei Hochrisiko nach Art. 6 Abs. 2

Deployer-Dokumentation

FRIA ergänzt die Deployer-Pflichten aus Art. 26 um die Grundrechtsdimension

KI-Richtlinie

Regelt den Genehmigungsprozess – FRIA als Voraussetzung für Freigabe von Hochrisiko-Systemen

Monitoring

FRIA wird bei wesentlichen Änderungen aktualisiert (Art. 27 Abs. 2)

Audit-Katalog

FRIA-Vorhandensein und -Aktualität als Prüfpunkt

Bußgelder bei Verstößen

Eine fehlende oder mangelhafte FRIA fällt unter die allgemeinen Deployer-Pflichten. Die Bußgeldrahmen:

  • 15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes für Verstöße gegen Betreiberpflichten (Art. 99 Abs. 4)

  • Für KMU gilt der jeweils niedrigere Betrag

  • Zusätzlich: Bei gleichzeitigem DSGVO-Verstoß (fehlende DSFA) können beide Aufsichtsbehörden separat ahnden

Neben den Geldbußen kommt die private Durchsetzung hinzu: Betroffene Personen können Schadensersatz geltend machen, wenn ein KI-System ihre Grundrechte verletzt und keine angemessene Folgenabschätzung vorlag. Art. 85 der KI-Verordnung gewährt natürlichen Personen ein Recht auf Erklärung bei Entscheidungen, die auf Hochrisiko-KI basieren. Eine dokumentierte FRIA zeigt, dass Sie Ihre Sorgfaltspflichten ernst nehmen – und kann im Streitfall den Unterschied zwischen Fahrlässigkeit und Compliance machen.

Zusätzlich: Wer gegen die Meldepflicht (Art. 27 Abs. 3) verstößt – also die FRIA durchführt, aber die Ergebnisse nicht an die Marktüberwachungsbehörde übermittelt – riskiert ebenfalls Bußgelder. Die Meldepflicht ist eine eigenständige Verpflichtung, nicht nur ein Formalismus.


Was jetzt zu tun ist – Ihre nächsten 3 Schritte

  1. FRIA-Pflicht prüfen: Gehören Sie zu den drei verpflichteten Betreibergruppen? Betreiben Sie Hochrisiko-KI nach Anhang III Nr. 5 (b)/(c)? Wenn ja: FRIA planen. Wenn nein: Freiwillige FRIA Light erwägen.

  2. Bestehende DSFA erweitern: Wenn Sie bereits DSFAs für KI-Systeme durchführen, ergänzen Sie die 6 FRIA-Elemente. Ein Dokument, zwei Anforderungen.

  3. Dokumentation verknüpfen: FRIA in das KI-Inventar einbinden, im Monitoring-Zyklus verankern und im Audit-Katalog als Prüfpunkt aufnehmen.

Fertige Vorlage statt leeres Blatt: Das FRIA Template der ComplianceWerkstatt liefert alle 6 Pflichtinhalte als vorstrukturiertes Word-Dokument – mit Ausfüllhilfen, Beispielformulierungen und gelb markierten Platzhaltern. Auch enthalten im AI Act Aufbau-Bundle mit 9 Dokumenten für Ihre gesamte AI-Act-Compliance.

Stand: Februar 2026. Dieser Artikel dient der fachlichen Orientierung und ersetzt keine individuelle Beratung. Regulatorische Änderungen vorbehalten.
MZ

Marvin Zimbelmann

Head of Governance, Risk & Compliance · MBA-Dozent · Podcast-Host

Auf LinkedIn vernetzen →

Warenkorb (0)

Ihr Warenkorb ist leer

Zum Shop →