AI Act / Digitale RegulierungStufe BFortgeschritten

KI im Recruiting

Aktualisiert: Mai 2026 · Lesezeit: 1 Min.

KI-Systeme im Recruiting (z. B. automatisierte Bewerbervorauswahl, CV-Screening, Video-Interview-Analyse) gelten nach dem EU AI Act als Hochrisiko-KI. Unternehmen, die solche Systeme einsetzen, müssen umfangreiche Anforderungen an Risikomanagement, Transparenz und menschliche Aufsicht erfüllen.

Einschätzung der ComplianceWerkstatt

KI im Recruiting ist der Anwendungsfall, bei dem die meisten Unternehmen zum ersten Mal mit Hochrisiko-Pflichten in Berührung kommen. Und viele wissen es nicht einmal. Wenn Ihr Applicant Tracking System eine KI-gestützte Vorauswahl trifft (und das tun die meisten modernen ATS), dann setzen Sie ein Hochrisiko-KI-System im Sinne des AI Act ein. Die Konsequenz: Sie brauchen ein Risikomanagementsystem für dieses System, eine Folgenabschätzung, Dokumentation und vor allem menschliche Aufsicht. Das heißt nicht, dass Sie die KI abschalten müssen. Es heißt, dass ein Mensch die finale Entscheidung treffen und die KI-Empfehlung nachvollziehen können muss. Meine Empfehlung: Sprechen Sie jetzt mit Ihrem ATS-Anbieter. Fragen Sie nach der AI-Act-Dokumentation und prüfen Sie, ob Ihr interner Prozess die Anforderung der menschlichen Aufsicht tatsächlich erfüllt.

Warum ist KI im Recruiting Hochrisiko?

Der EU AI Act stuft KI-Systeme, die in den Bereichen Beschäftigung, Personalverwaltung und Zugang zu selbstständiger Erwerbstätigkeit eingesetzt werden, als Hochrisiko ein (Anhang III Nr. 4). Das umfasst KI für die Ausschreibung von Stellen, Sichtung und Filterung von Bewerbungen, Bewertung von Kandidaten in Vorstellungsgesprächen und Beurteilungen sowie Entscheidungen über Beförderung, Kündigung und Aufgabenzuweisung.

Die Einstufung als Hochrisiko greift unabhängig davon, ob das Unternehmen die KI selbst entwickelt hat oder als Betreiber (Deployer) ein Produkt eines Drittanbieters einsetzt.

Pflichten für Betreiber

PflichtWas konkret zu tun ist
Menschliche AufsichtFinale Einstellungsentscheidungen dürfen nicht vollständig automatisiert erfolgen. Ein qualifizierter Mensch muss KI-Empfehlungen überprüfen können.
Folgenabschätzung (FRIA)Vor Einsatz des KI-Systems: Bewertung der Auswirkungen auf Gleichbehandlung und Nichtdiskriminierung
TransparenzBewerber müssen informiert werden, dass KI im Auswahlprozess eingesetzt wird
MonitoringLaufende Überwachung der KI-Ergebnisse auf systematische Verzerrungen (Bias)
Log-AufbewahrungAutomatisch generierte Protokolle des KI-Systems mind. 6 Monate aufbewahren

Quellen

  • EU AI Act Anhang III Nr. 4 – Beschäftigung und Personalverwaltung(2024)
  • EU AI Act Art. 26 – Pflichten der Betreiber(2024)

Stand: Mai 2026. Dieser Glossar-Eintrag dient der Wissensvermittlung und stellt keine Rechtsberatung dar. Regulatorische Änderungen vorbehalten.

Warenkorb (0)

Ihr Warenkorb ist leer

Zum Shop →