Der EU AI Act ist kein Zukunftsthema mehr. Er ist geltendes Recht. Seit August 2024 in Kraft, gelten die ersten Pflichten bereits seit Februar 2025. Am 2. August 2026 wird es für die meisten Unternehmen ernst: Ab dann greifen die vollständigen Anforderungen für Hochrisiko-KI-Systeme.
Und trotzdem haben laut einer Erhebung des Center for Data Innovation weniger als 30 % der europäischen KMU überhaupt begonnen, sich vorzubereiten. Viele denken immer noch, die Verordnung betreffe nur Tech-Konzerne. Das ist ein teurer Irrtum.
Dieser Leitfaden zeigt Ihnen in fünf Phasen, was Sie als KMU konkret tun müssen – von der Bestandsaufnahme bis zum laufenden Monitoring. Keine juristische Abhandlung, sondern ein Umsetzungsfahrplan aus der Compliance-Praxis. Mit konkreten Checklisten, Praxisbeispielen und Verweisen auf weiterführende Spezialartikel zu jedem Themenblock.
Fristen-Überblick: Der AI Act im Zeitstrahl
Datum | Was passiert | Wen betrifft es |
|---|---|---|
01.08.2024 | AI Act tritt in Kraft | Alle |
02.02.2025 | Verbotene KI-Praktiken untersagt + AI Literacy Pflicht (Art. 4) | Alle Unternehmen, die KI nutzen |
02.08.2025 | Pflichten für General Purpose AI (GPAI) gelten | Anbieter von GPAI-Modellen |
02.08.2026 | Vollständige Pflichten für Hochrisiko-KI + Transparenzpflichten (Art. 50) | Alle Anbieter, Deployer, Importeure |
02.08.2027 | Pflichten für KI in regulierten Produkten (Anhang I, Art. 6 Abs. 1) | Anbieter regulierter Produkte |
Der AI Act ist kein Zukunftsprojekt – er gilt bereits
Wenn Sie als Geschäftsführer oder Compliance-Verantwortlicher den EU AI Act noch als „kommt irgendwann“ einordnen, ist diese Einschätzung seit mindestens einem Jahr überholt. Die EU-Verordnung 2024/1689 – besser bekannt als AI Act – ist am 1. August 2024 in Kraft getreten. Seitdem entfaltet sie schrittweise ihre Wirkung.
Seit Februar 2025 sind bestimmte KI-Praktiken komplett verboten: Social Scoring, unterschwellige Manipulation, Ausnutzung von Schwächen vulnerabler Gruppen, biometrische Echtzeit-Fernüberwachung im öffentlichen Raum und Emotionserkennung am Arbeitsplatz. Wer solche Systeme immer noch betreibt, verstößt bereits heute gegen geltendes EU-Recht.
Ebenfalls seit Februar 2025 gilt die AI-Literacy-Pflicht nach Artikel 4. Jedes Unternehmen, das KI-Systeme einsetzt, muss sicherstellen, dass seine Mitarbeitenden über ausreichende KI-Kompetenz verfügen. Das betrifft nicht nur die IT-Abteilung, sondern jeden, der mit KI arbeitet – vom Vertrieb bis zur Geschäftsführung. Wer hier noch keine Maßnahmen ergriffen hat, ist jetzt schon nicht compliant.
Der nächste große Stichtag: 2. August 2026. Ab dann gelten die vollständigen Pflichten für Hochrisiko-KI-Systeme, die Transparenzanforderungen nach Artikel 50 und die Registrierungspflicht in der EU-Datenbank. Für die überwiegende Mehrheit der KMU ist das der entscheidende Termin.
In Deutschland wird die Aufsicht voraussichtlich bei der Bundesnetzagentur liegen. Das KI-Maßnahmen- und Innovationsförderungsgesetz (KI-MIG), das im Februar 2026 vom Bundeskabinett beschlossen wurde, regelt die nationale Durchsetzung und konkretisiert Sanktionen.
Betrifft der AI Act Ihr Unternehmen?
Die kurze Antwort: Wenn Sie KI-Systeme im beruflichen Kontext einsetzen, ja. Die längere Antwort hängt von Ihrer Rolle ab.
Der AI Act unterscheidet drei zentrale Akteure:
Rolle | Definition | Typisches KMU-Szenario |
|---|---|---|
Anbieter (Provider) | Entwickelt oder trainiert ein KI-System und bringt es in der EU in Verkehr | Sie entwickeln eigene KI-Software für Kunden |
Betreiber (Deployer) | Setzt ein KI-System im beruflichen Kontext ein | Sie nutzen ChatGPT, Personio, HubSpot AI, Copilot etc. |
Importeur/Händler | Bringt KI-Systeme aus Drittstaaten in die EU | Sie vertreiben KI-Software eines US-Anbieters |
Die Realität für 95 % der KMU: Sie sind Deployer. Sie haben kein KI-System selbst entwickelt, aber Sie nutzen täglich KI-gestützte Tools – von der automatisierten Rechnungsverarbeitung über den Kundenservice-Chatbot bis zum KI-gestützten Recruiting.
Der AI Act erfasst Sie auch dann, wenn Sie nur Standard-SaaS-Produkte nutzen. Denn als Deployer haben Sie eigene Pflichten: Einsatz gemäß Gebrauchsanweisung, menschliche Aufsicht, Transparenz gegenüber Betroffenen und bei Hochrisiko-Systemen eine Grundrechte-Folgenabschätzung.
Achtung Rollenwechsel: Wenn Sie ein KI-System wesentlich verändern – z. B. durch Fine-Tuning mit eigenen Daten oder Änderung des Einsatzzwecks – werden Sie zum Anbieter. Damit gelten deutlich umfangreichere Pflichten. Das ist eine häufige Falle für KMU, die Open-Source-KI-Modelle anpassen.
Die 4 Risikoklassen im Überblick
Der AI Act verfolgt einen risikobasierten Ansatz. Je höher das Risiko eines KI-Systems, desto strenger die Pflichten. Vier Stufen bestimmen, was auf Sie zukommt:
Risikoklasse | Beispiele | Pflichten | Sanktionen |
|---|---|---|---|
Verboten | Social Scoring, unterschwellige Manipulation, Emotionserkennung am Arbeitsplatz | Komplettes Verbot | Bis 35 Mio. € / 7 % Umsatz |
Hochrisiko | KI-gestütztes Recruiting (Personio), Kreditscoring, Bildung, kritische Infrastruktur | Risikomanagement, Dokumentation, Konformitätsbewertung, menschliche Aufsicht, EU-Datenbank-Registrierung | Bis 15 Mio. € / 3 % Umsatz |
Begrenztes Risiko | Chatbots, Deepfake-Generatoren, KI-generierte Texte/Bilder | Transparenzpflichten (Kennzeichnung als KI) | Bis 7,5 Mio. € / 1 % Umsatz |
Minimales Risiko | Spamfilter, KI-gestützte Spiele, Textvorschläge | Keine spezifischen Pflichten | – |
Die Hochrisiko-Kategorie ist für KMU besonders relevant. Anhang III des AI Act listet acht Bereiche auf, in denen KI automatisch als hochriskant gilt. Dazu gehören unter anderem: Beschäftigung und Personalmanagement (KI-gestützte Bewerbungsauswahl, Leistungsbewertung), Zugang zu wesentlichen Diensten (Kreditscoring, Versicherungsprämien), Bildung und Berufsausbildung (Prüfungsbewertung, Zugangsentscheidungen) sowie Strafverfolgung und Migration. In der Praxis betrifft das mehr KMU als gedacht – jedes Unternehmen, das ein KI-gestütztes Recruiting-Tool einsetzt, operiert potenziell im Hochrisiko-Bereich.
Für die Einstufung Ihrer Systeme ist die Selbstklassifizierung entscheidend. Es gibt keine Behörde, die vorab prüft, in welche Kategorie Ihr System fällt. Sie müssen das selbst beurteilen – und dokumentieren. Die Kontrolle erfolgt stichprobenartig oder bei Beschwerden. Das bedeutet: Im Ernstfall müssen Sie nachweisen können, warum Sie ein System so und nicht anders eingestuft haben.
Wie Sie die Einstufung Schritt für Schritt vornehmen, erfahren Sie im Detail in unserem Artikel Risikoklassen im AI Act: Wie Sie Ihre KI-Systeme richtig einstufen.
Phase 1: Bestandsaufnahme – KI-Inventar erstellen
Sie können nicht compliant werden, was Sie nicht kennen. Der erste operative Schritt ist deshalb eine vollständige Bestandsaufnahme aller KI-Systeme in Ihrem Unternehmen.
Das klingt trivial, ist es aber nicht. Die meisten KMU unterschätzen dramatisch, wie viele KI-Systeme sie bereits einsetzen. KI steckt heute in CRM-Systemen, HR-Plattformen, Buchhaltungssoftware, E-Mail-Tools und Kundenservice-Lösungen – oft als eingebettete Funktion, ohne dass „KI“ auf der Verpackung steht.
Wo KI-Systeme im Unternehmen versteckt sind
Ein typisches KMU mit 200 Mitarbeitenden nutzt heute leicht 10 bis 15 KI-gestützte Systeme – oft ohne es zu wissen. Ein Praxisbeispiel: ChatGPT oder Microsoft Copilot für Textarbeit und Recherche. Personio oder Workday mit KI-gestützter Bewerbervorauswahl. HubSpot oder Salesforce mit prädiktivem Lead-Scoring. DeepL für Übersetzungen. Grammarly für Textprüfung. SAP Business AI für Prognosen. Ein Kundenservice-Chatbot auf der Website. GitHub Copilot in der Softwareentwicklung. Dazu kommen eingebettete KI-Funktionen in Microsoft 365, Google Workspace und zahllosen weiteren SaaS-Produkten.
Die Herausforderung: Viele dieser Systeme werden von Fachabteilungen eigenständig eingeführt, ohne dass IT oder Compliance davon erfahren. Diese Schatten-IT ist eines der größten Risiken bei der AI-Act-Umsetzung – denn Sie können kein System klassifizieren, das Sie nicht kennen.
Was gehört ins KI-Inventar?
Erfassen Sie für jedes identifizierte System mindestens diese Kerninformationen:
Name und Version des KI-Systems
Anbieter und Herkunftsland
Einsatzzweck und Fachabteilung
Ihre Rolle (Provider, Deployer, Importeur)
Risikoklasse nach AI Act
Verarbeitete Daten und betroffene Personen
Verantwortlicher im Unternehmen
Vertragliche Vereinbarungen mit dem Anbieter
Gehen Sie systematisch vor: Beginnen Sie bei der IT-Abteilung, dann Fachabteilungen einzeln befragen. Prüfen Sie jeden SaaS-Vertrag auf Begriffe wie „KI“, „Machine Learning“, „prädiktiv“ oder „automatisiert“. Vergessen Sie nicht die Schatten-IT – KI-Tools, die Mitarbeitende eigenständig nutzen, ohne dass die IT davon weiß.
Die vollständige Anleitung mit Praxisbeispielen finden Sie in unserem Artikel KI-Inventar erstellen: So erfassen und klassifizieren Sie alle KI-Systeme.
Phase 2: Governance aufbauen – Handbuch und Richtlinie
Wenn Sie wissen, welche KI-Systeme im Einsatz sind und wie sie eingestuft werden, brauchen Sie Strukturen. Phase 2 dreht sich um die organisatorische Verankerung der KI-Governance.
Zwei Dokumente stehen im Zentrum:
Das KI-Compliance-Handbuch
Das Handbuch ist Ihr internes Steuerungsdokument. Es definiert Verantwortlichkeiten, Prozesse und Eskalationswege für den KI-Einsatz im Unternehmen. Vergleichbar mit einem CMS-Handbuch nach IDW PS 980, nur eben für KI-spezifische Themen: Wer entscheidet über die Einführung neuer KI-Tools? Wer führt die Risikoklassifizierung durch? Wie läuft der Genehmigungsprozess? Wer ist der zentrale KI-Verantwortliche?
Die KI-Richtlinie
Die Richtlinie richtet sich an alle Mitarbeitenden. Sie regelt, welche KI-Tools erlaubt, eingeschränkt oder verboten sind. Sie legt fest, wie Mitarbeitende KI einsetzen dürfen und welche Sicherheitsvorkehrungen gelten – etwa das Verbot, personenbezogene Daten in frei zugängliche KI-Tools einzugeben.
Der häufigste Fehler: KI-Richtlinien, die nur ChatGPT regeln, aber die eingebettete KI in Personio, HubSpot oder SAP komplett ignorieren. Eine gute Richtlinie deckt alle Formen des KI-Einsatzes ab.
Der Genehmigungsprozess für neue KI-Tools
Ein zentrales Element der KI-Governance ist ein definierter Prozess für die Einführung neuer KI-Tools. Bevor ein Fachbereich ein neues KI-System anschafft oder einen bestehenden Vertrag um KI-Funktionen erweitert, muss eine Prüfung stattfinden: Welche Risikoklasse hat das System? Welche Daten werden verarbeitet? Gibt es eine DSFA-Pflicht? Sind die vertraglichen Vereinbarungen mit dem Anbieter AI-Act-konform? Ohne einen solchen Prozess entstehen unweigerlich Compliance-Lücken durch unkontrollierte Beschaffung.
Wie Sie eine wirksame KI-Richtlinie aufbauen, welche Abschnitte hineingehören und welche Fehler Sie vermeiden sollten, lesen Sie in unserem Artikel KI-Richtlinie für Unternehmen: Aufbau, Inhalte und typische Fehler.
Phase 3: Dokumentation und Nachweise
Phase 3 ist dort, wo es operativ wird. Für jedes KI-System – insbesondere für Hochrisiko-Systeme – müssen Sie dokumentieren, dass Sie Ihre Pflichten als Deployer erfüllen.
Deployer-Dokumentation
Artikel 26 des AI Act definiert die Kernpflichten für Deployer. Dazu gehören: Einsatz gemäß Gebrauchsanweisung des Anbieters, Sicherstellung der menschlichen Aufsicht, Überwachung des Systems im Betrieb, Aufbewahrung von Protokollen und Meldung schwerwiegender Vorfälle. Für jedes Hochrisiko-System brauchen Sie eine strukturierte Dokumentation, die nachweist, dass diese Pflichten erfüllt sind.
Praxis-Tipp: Fragen an Ihre KI-Anbieter
Als Deployer müssen Sie sicherstellen, dass Ihre Anbieter ihren Pflichten nachkommen. Stellen Sie bei der nächsten Vertragserneuerung diese Fragen: Ist Ihr System als hochriskant klassifiziert? Haben Sie eine technische Dokumentation gemäß Anhang IV? Stellen Sie Mechanismen zur menschlichen Aufsicht bereit? Sind Sie für Hochrisikosysteme in der EU-Datenbank registriert? Ein Anbieter, der diese Fragen nicht beantworten kann, ist ein Compliance-Risiko für Ihr Unternehmen.
Die vollständige Übersicht der 7 Kernpflichten mit konkreten Dokumentationsfeldern finden Sie in unserem Artikel Deployer-Pflichten nach dem AI Act: Was Unternehmen dokumentieren müssen.
Grundrechte-Folgenabschätzung (FRIA)
Für bestimmte Deployer von Hochrisiko-KI-Systemen schreibt Artikel 27 eine Grundrechte-Folgenabschätzung (Fundamental Rights Impact Assessment, FRIA) vor. Die FRIA ist vergleichbar mit einer Datenschutz-Folgenabschätzung (DSFA), geht aber über den Datenschutz hinaus: Sie bewertet die Auswirkungen des KI-Systems auf Grundrechte wie Nichtdiskriminierung, Privatsphäre, Meinungsfreiheit und soziale Sicherheit.
Ob Sie als KMU eine FRIA durchführen müssen und wie Sie FRIA und DSFA effizient kombinieren, erfahren Sie in unserem Artikel FRIA nach Art. 27 AI Act: Grundrechte-Folgenabschätzung Schritt für Schritt.
Phase 4: Schulung und AI Literacy
Die AI-Literacy-Pflicht nach Artikel 4 gilt bereits seit dem 2. Februar 2025 – und zwar für alle Unternehmen, die KI einsetzen. Unabhängig von der Risikoklasse des Systems. Trotzdem haben die meisten KMU bis heute keine strukturierten Maßnahmen ergriffen.
„Ausreichende KI-Kompetenz“ bedeutet nach der Guidance des EU AI Office: Mitarbeitende müssen verstehen, wie KI-Systeme funktionieren, welche Grenzen sie haben, wie Ergebnisse zu interpretieren sind und welche Risiken bestehen. Das ist keine einmalige Info-Mail. Es erfordert ein strukturiertes Schulungskonzept, das auf verschiedene Zielgruppen zugeschnitten ist.
Wer muss geschult werden?
Zielgruppe | Schwerpunkte | Empfohlener Umfang |
|---|---|---|
Geschäftsführung | Strategische Implikationen, Haftung, Governance | Halbtags-Workshop |
IT / Technik | Technische Risiken, Systemarchitektur, Monitoring | Ganztags-Schulung |
Fachbereiche (HR, Vertrieb, Einkauf) | Fachspezifische KI-Tools, Datenschutz, Grenzen der Automatisierung | 2–3 Stunden pro Bereich |
Alle Mitarbeitenden | Grundlagen: Was ist KI, was darf ich, was nicht | 1–2 Stunden Basis-Schulung |
Ein häufiger Denkfehler: „Wir nutzen ja nur ChatGPT, das ist doch kein Hochrisiko.“ Stimmt – aber Artikel 4 gilt auch für Systeme mit minimalem Risiko. Die Schulungspflicht ist nicht an die Risikoklasse gebunden.
Wie Sie ein Schulungskonzept aufbauen und die Nachweisdokumentation sicherstellen, lesen Sie in unserem Artikel AI Literacy nach Art. 4: So setzen Sie die Schulungspflicht um.
Phase 5: Monitoring und Audit
KI-Compliance ist kein Projekt mit einem Enddatum. Es ist ein laufender Prozess. Systeme ändern sich, Anbieter liefern Updates, neue Tools kommen dazu, Mitarbeitende wechseln. Was heute compliant ist, kann morgen Lücken haben.
Warum laufendes Monitoring Pflicht ist
Der AI Act verlangt für Hochrisiko-Systeme ein Post-Market-Monitoring. Auch für Deployer bedeutet das: Sie müssen Ihre KI-Systeme laufend überwachen, Vorfälle dokumentieren und regelmäßig prüfen, ob die ursprüngliche Risikoklassifizierung noch stimmt.
Ein funktionierendes KI-Monitoring-System umfasst vier Bausteine: Status-Tracking (Welche Systeme sind im Einsatz, was hat sich geändert?), regelmäßige Prüfzyklen (je nach Risikoklasse jährlich oder halbjährlich), ein KI-Incident-Log für Vorfälle und Auffälligkeiten sowie ein Management Reporting, das KI-Compliance auf die Führungsagenda bringt.
Konkret heißt das: Wenn ein Anbieter wie Microsoft ein Update für Copilot ausrollt, das neue KI-Funktionen enthält, müssen Sie prüfen, ob sich dadurch die Risikoklasse ändert. Wenn ein Mitarbeitender ein neues KI-Tool einführt, muss es ins Inventar aufgenommen und klassifiziert werden. Wenn ein KI-System eine fehlerhafte oder diskriminierende Entscheidung trifft, muss der Vorfall dokumentiert und gemeldet werden. KI-Compliance ist keine einmalige Übung – es ist ein Dauerlauf.
Warum einmalige Inventarisierung nicht reicht und wie Sie ein Monitoring-System aufbauen, erfahren Sie in unserem Artikel KI-Compliance Monitoring: Warum einmalige Inventarisierung nicht reicht.
Internes KI-Audit
Ergänzend zum laufenden Monitoring empfiehlt sich ein jährliches internes KI-Audit. Dabei prüfen Sie systematisch, ob Ihre KI-Governance, Dokumentation, Schulungen und Prozesse den Anforderungen des AI Act entsprechen. Ein strukturierter Prüfkatalog mit Ampelsystem hilft, Lücken zu identifizieren und Maßnahmen abzuleiten.
Wie Sie ein internes KI-Audit durchführen und welche 8 Prüfbereiche Sie abdecken sollten, lesen Sie in unserem Artikel AI Act Audit: So prüfen Sie Ihre KI-Compliance systematisch.
Die Schnittstelle zu DSGVO
Der AI Act regelt KI-Systeme. Die DSGVO regelt personenbezogene Daten. Da die meisten KI-Systeme personenbezogene Daten verarbeiten, überschneiden sich beide Verordnungen erheblich. Für Compliance-Verantwortliche bedeutet das: Sie müssen beide Regelwerke parallel im Blick behalten.
Die wichtigsten Überlappungen:
Transparenzpflichten: Der AI Act (Art. 50) verlangt, dass Nutzer wissen, wenn sie mit KI interagieren. Die DSGVO (Art. 13/14) verlangt Information über die Datenverarbeitung. Beides muss zusammengedacht werden.
FRIA und DSFA: Die Grundrechte-Folgenabschätzung des AI Act und die Datenschutz-Folgenabschätzung der DSGVO ergänzen sich. In der Praxis lassen sich beide Bewertungen effizient kombinieren.
Automatisierte Entscheidungsfindung: Artikel 22 DSGVO reguliert bereits automatisierte Einzelentscheidungen. Der AI Act fügt weitere Anforderungen hinzu, insbesondere für Hochrisiko-Systeme.
Die vollständige Analyse der Schnittstelle finden Sie in unserem Artikel AI Act und DSGVO: Was Compliance Officer über die Schnittstelle wissen müssen.
Bußgelder und Sanktionen – was droht bei Nichteinhaltung
Der AI Act hat ein gestaffeltes Sanktionsregime, das sich an der DSGVO orientiert – allerdings mit teilweise noch höheren Obergrenzen:
Verstoß | Bußgeld |
|---|---|
Verbotene KI-Praktiken | Bis 35 Mio. € oder 7 % des weltweiten Jahresumsatzes |
Hochrisiko-Pflichten und GPAI-Regeln | Bis 15 Mio. € oder 3 % des weltweiten Jahresumsatzes |
Falsche oder irreführende Angaben gegenüber Behörden | Bis 7,5 Mio. € oder 1 % des weltweiten Jahresumsatzes |
Wichtig für KMU: Für kleine und mittlere Unternehmen gelten jeweils die niedrigeren der genannten Obergrenzen. Das mindert die absoluten Beträge, ändert aber nichts am Risiko: Selbst reduzierte Bußgelder können für ein KMU existenzbedrohend sein.
Doch die finanziellen Sanktionen sind nur ein Teil des Risikos. Verstöße gegen den AI Act können zu Reputationsschäden führen, das Vertrauen von Kunden und Geschäftspartnern beschädigen und – in Verbindung mit der Produkthaftungsrichtlinie – zivilrechtliche Haftungsansprüche auslösen.
Omnibus-Paket im Blick behalten: Die EU-Kommission arbeitet an einem Digitalen Omnibus-Paket, das unter anderem Vereinfachungen für KMU und Anpassungen der Hochrisiko-Anforderungen vorsieht. Ob und wann dieses Paket die bestehenden Pflichten ändert, ist Stand März 2026 noch offen. Planen Sie Ihre Compliance auf Basis der aktuellen Rechtslage – Erleichterungen können kommen, müssen aber nicht.
Die Durchsetzung erfolgt in Deutschland voraussichtlich durch die Bundesnetzagentur, die als nationale Marktüberwachungsbehörde nach dem KI-MIG fungiert. Die Kontrolle erfolgt stichprobenartig oder bei Beschwerden – vergleichbar mit dem Modell der DSGVO-Aufsichtsbehörden.
Was jetzt zu tun ist – Ihre nächsten 3 Schritte
Sie haben diesen Leitfaden gelesen. Sie wissen, was kommt. Jetzt geht es darum, ins Handeln zu kommen. Drei Schritte, die Sie diese Woche starten können:
Schritt 1: KI-Inventar starten. Erfassen Sie alle KI-Systeme im Unternehmen. Beginnen Sie mit den offensichtlichen Tools (ChatGPT, Copilot) und arbeiten Sie sich zu den eingebetteten KI-Funktionen in SaaS-Produkten vor. Ohne Inventar keine Klassifizierung, ohne Klassifizierung keine Compliance.
Schritt 2: Verantwortlichkeiten klären. Benennen Sie einen KI-Verantwortlichen oder ein kleines KI-Governance-Team. Die Person muss kein KI-Experte sein – aber sie muss den Prozess steuern, Fristen im Blick behalten und als Ansprechpartner für Fachabteilungen fungieren. In vielen KMU fällt diese Rolle dem Compliance Officer oder dem Datenschutzbeauftragten zu.
Schritt 3: AI-Literacy-Rückstand aufholen. Die Pflicht aus Artikel 4 gilt seit über einem Jahr. Planen Sie mindestens eine Basis-Schulung für alle Mitarbeitenden und eine vertiefte Schulung für Führungskräfte und KI-Verantwortliche. Dokumentieren Sie die Teilnahme – bei einer Behördenanfrage müssen Sie den Nachweis führen können.
Tipp: Sie brauchen kein 100 %-System am ersten Tag. Starten Sie mit den drei Schritten oben und arbeiten Sie sich durch die fünf Phasen. 80 % umgesetzt schlägt 100 % geplant.
AI Act Aufbau-Bundle: Alle Templates für Ihre KI-Compliance
Sie wollen die fünf Phasen nicht mit leeren Word-Dokumenten beginnen? Das AI Act Aufbau-Bundle enthält alle Templates, die Sie für die Umsetzung brauchen: KI-Inventar mit Risikoklassifizierung, KI-Compliance-Handbuch, KI-Richtlinie, Deployer-Dokumentationstemplate, FRIA-Template, Schulungskonzept, Schulungspräsentation, Monitoring-Kit und Prüfkatalog – sofort einsatzbereit, mit vorausgefüllten Inhalten und Platzhaltern für Ihre Unternehmensdaten.


