Feb 2025
Verbotene Praktiken in Kraft (Art. 5)
Regulierung
Die weltweit erste KI-Verordnung ist bereits in Kraft. Das müssen Sie wissen und tun, bevor die Bußgelder kommen
Die Bußgelder des EU AI Act können bis zu 7 % des weltweiten Jahresumsatzes betragen – mehr als das Doppelte der Höchststrafen der GDPR.
Der EU AI Act ist bereits in Kraft und August 2026 ist der tatsächliche Stichtag für den Großteil der Unternehmen. Jedes KI-System, das Beschäftigung, Kreditvergabe, Versicherungen oder Bildung betrifft, ist wahrscheinlich hochriskant. Die Bußgelder übertreffen die der GDPR: bis zu 7 % des weltweiten Umsatzes. Sie haben vier Monate, um eine Bestandsaufnahme zu machen, Risiken zu klassifizieren und zu dokumentieren. Dieser Artikel erklärt Ihnen genau, was zu tun ist.
Feb 2025
Verbotene Praktiken in Kraft (Art. 5)
Aug 2025
GPAI-Pflichten (GPT-4, Claude, Gemini…)
Aug 2026
Hochrisiko — tatsächlicher Stichtag für Unternehmen
Aug 2027
Produkte, die durch andere Richtlinien reguliert werden
35 %
Unternehmen, die KI bei der Einstellung nutzen (Hochrisiko)
7 %
Maximale Geldbuße bezogen auf den weltweiten Umsatz
€ 35 M
Maximale absolute Geldbuße für verbotene Praktiken
Aug 2026
Stichtag für Hochrisiko-Systeme
Die GDPR kam 2018 und die Unternehmen brauchten Jahre, um sie ernst zu nehmen. Die ersten Bußgelder werden als verspätete Warnung in Erinnerung bleiben. Der EU AI Act wird nicht anders sein – mit einem Unterschied: Die Höchststrafen sind fast doppelt so hoch wie bei der GDPR. Wo die GDPR bis zu 4 % des weltweiten Jahresumsatzes vorsah, erreicht der AI Act 7 %. Und die Uhr tickt bereits.
August 2026 ist das Datum, ab dem Hochrisiko-KI-Systeme in allen 27 Ländern der Europäischen Union voll sanktionierbar werden. Es bleiben vier Monate. Dieser Artikel erklärt, was die Verordnung ist, was Sie betrifft und was Sie vor diesem Datum tun müssen.
Die Verordnung (EU) 2024/1689, bekannt als EU AI Act, ist die weltweit erste KI-Verordnung mit Gesetzeskraft. Es ist keine Richtlinie: Es ist eine Verordnung, was im europäischen Recht bedeutet, dass sie direkt in allen 27 Mitgliedstaaten gilt, ohne nationale Umsetzung. Ab dem Moment des Inkrafttretens ist sie Gesetz in Spanien, Frankreich, Deutschland und dem Rest Europas, ohne Zwischenschritte.
Sie wurde am 12. Juni 2024 im Amtsblatt der Europäischen Union veröffentlicht und trat am 1. August 2024 in Kraft. Ihre Architektur ist gestaffelt: verschiedene Blöcke der Verordnung werden zu unterschiedlichen Zeitpunkten zwischen 2025 und 2027 aktiviert.
Das ordnende Prinzip ist der risikobasierte Ansatz: Je mehr ein KI-System Menschen schaden kann, desto strenger sind die Pflichten. Nicht jede KI wird gleich reguliert. Ein Spamfilter und ein System zur Personalauswahl werden nicht gleich behandelt.
Der AI Act teilt KI-Systeme in vier Stufen ein. Zu wissen, in welche Stufe jedes Tool Ihres Unternehmens fällt, ist der erste Pflichtschritt.
| Kategorie | Was dazugehört | Regelung |
|---|---|---|
| Unannehmbares Risiko | Staatliches Social Scoring, unterschwellige Manipulation, Ausnutzung von Schwachstellen, biometrische Echtzeit-Identifizierung im öffentlichen Raum | Verboten — In Kraft seit Feb. 2025 |
| Hohes Risiko | Kritische Infrastruktur, Beschäftigung und HR, Kreditvergabe, Versicherungen, Bildung, Justiz, Migration | Reguliert — Sanktionierbar ab Aug. 2026 |
| Begrenztes Risiko | Chatbots, die menschlich wirken, Deepfakes | Transparenzpflicht |
| Minimales Risiko | Spam, Empfehlungssysteme, KI in Videospielen | Frei — Keine spezifischen Pflichten |
Diese Praktiken sind in der EU seit dem 2. Februar 2025 vollständig untersagt. Wenn Ihr Unternehmen oder ein von Ihnen genutzter Anbieter sie einsetzt, verstoßen Sie jetzt schon gegen die Verordnung:
Anhang III der Verordnung listet die Sektoren auf, in denen KI-Systeme automatisch als Hochrisiko gelten. Dazu gehören:
Chatbots, die mit Personen interagieren, müssen offenlegen, dass sie KI sind, wenn eine vernünftige Möglichkeit besteht, dass der Nutzer glaubt, mit einem Menschen zu sprechen. Dasselbe gilt für Deepfakes: Von KI erzeugte oder manipulierte Inhalte, die reale Personen darstellen, müssen als solche gekennzeichnet werden. Pflicht bereits in Kraft.
Spamfilter, Empfehlungssysteme ohne Auswirkungen auf Rechte, KI in Videospielen, Schreibassistenten ohne Konsequenzen für Entscheidungen: keine spezifischen Pflichten unter dem AI Act. Sie können wie bisher weiterbetrieben werden.
Wenn eines Ihrer Systeme in die Kategorie Hochrisiko fällt, schreibt die Verordnung neun konkrete Pflichten vor, bevor es eingesetzt wird — und während seiner gesamten operativen Lebensdauer:
Die Erfüllung dieser neun Pflichten ist kein Projekt von einer Woche. Für die meisten Unternehmen ist es ein Prozess von drei bis sechs Monaten, wenn bei null begonnen wird.
Der häufigste Fehler ist nicht der Einsatz verbotener KI. Es ist, nicht zu wissen, dass das genutzte System Hochrisiko ist. Dies sind die am häufigsten unterschätzten Fälle:
CV-Screening und KI-gestützte Personalauswahl — Wenn Sie ein Tool nutzen, das Kandidaten automatisch filtert, bewertet oder einordnet, bevor ein Mensch sie sieht, ist es Hochrisiko gemäß Anhang III. LinkedIn Recruiter mit KI-Filtern, Workday mit Kandidaten-Scoring, jedes ATS mit automatischem Screening. 35 % der europäischen Unternehmen nutzen bereits KI an irgendeinem Punkt des Auswahlverfahrens.
Kreditscoring — Jedes Modell, das einen Bonitäts- oder Ausfallwahrscheinlichkeitswert zuweist, fällt unter die Kategorie wesentliche Dienstleistungen des Anhangs III. Es ist Hochrisiko, unabhängig davon, ob Sie es selbst entwickelt haben oder als SaaS von einem Anbieter kaufen.
Versicherungs-Chatbots, die über Deckung entscheiden — Wenn der Chatbot nicht nur informiert, sondern bestimmt, ob eine Deckung gilt oder welche Prämie fällig wird, ist er Hochrisiko. Der entscheidende Punkt ist, ob das System eine Entscheidung beeinflusst, die eine Person materiell betrifft.
KI zur Bewertung von Studierenden — Plagiaterkennungssysteme, die Sanktionen automatisieren, E-Learning-Plattformen, die Lernpfade auf Basis automatischer Bewertung anpassen, Tools, die Noten ohne menschliche Überprüfung vergeben: Hochrisiko im Bildungsblock.
Prädiktive Wartungssysteme in kritischer Infrastruktur — Wenn die KI Ausfälle in Wasser-, Gas-, Strom- oder Verkehrsnetzen vorhersagt und diese Vorhersage operative Entscheidungen beeinflusst, Hochrisiko im Infrastrukturblock.
Die richtige Frage lautet nicht „Nutzen wir Hochrisiko-KI?”, sondern „Welche Entscheidungen, die Menschen betreffen, trifft oder beeinflusst die KI in unserem Unternehmen?”
Allzweck-KI-Modelle — was die Branche Foundation Models nennt — haben unter dem AI Act ein eigenes Regelwerk. GPT-4, Claude, Gemini, Llama, Mistral: alle unterliegen spezifischen Pflichten, die seit August 2025 aktiv sind.
Für alle GPAI-Modelle, unabhängig von ihrer Größe:
Für Modelle mit systemischem Risiko — definiert als solche, die mit mehr als 10²⁵ FLOPs trainiert wurden (derzeit GPT-4 und Äquivalente) — kommen hinzu:
Wenn Ihr Unternehmen Produkte auf APIs dieser Modelle aufbaut, liegt die GPAI-Compliance beim Modellanbieter — aber Sie bleiben verantwortlich dafür, wie Sie dieses Modell in Systemen einsetzen, die Hochrisiko sein könnten.
Die Termine des AI Act sind nicht symbolisch. Jeder einzelne aktiviert ein anderes Regime mit realen rechtlichen Konsequenzen.
Der 2. Februar 2025 aktivierte die absoluten Verbote. Wenn Ihr Unternehmen Social Scoring oder biometrische Echtzeit-Erkennung ohne gesetzliche Grundlage nutzt, verstößt es seit über einem Jahr gegen die Verordnung.
Der 2. August 2025 aktivierte die Pflichten für GPAI-Modelle. Die Anbieter von Foundation Models stehen bereits unter Aufsicht der AI Office.
Der 2. August 2026 ist das Datum, das die meisten Unternehmen ignorieren — und das wichtigste. Ab diesem Tag müssen alle in Anhang III aufgeführten Hochrisiko-KI-Systeme die Artikel 6 bis 49 der Verordnung vollständig einhalten. Die nationalen Behörden können Untersuchungen einleiten und Sanktionen verhängen.
Von heute bis August 2026 bleiben vier Monate. Für ein Unternehmen, das den Prozess bei null beginnt, ist das gerade genug Zeit, wenn es jetzt handelt.
Der 2. August 2027 integriert Hochrisikoprodukte, die durch andere europäische Richtlinien reguliert werden — Medizinsektor, Luftfahrt, Automobilindustrie. Dieser Block hat ein Jahr mehr Spielraum.
Die GDPR hat seit 2018 über 5 Milliarden Euro an Bußgeldern generiert. Der AI Act verdoppelt die Höchstsätze:
| Verstoß | Maximale Geldbuße |
|---|---|
| Verbotene Praktiken (Art. 5) | €35M oder 7 % des weltweiten Umsatzes |
| Nichterfüllung der Anforderungen (Art. 6-49) | €15M oder 3 % des weltweiten Umsatzes |
| Falsche Angaben gegenüber Aufsichtsbehörden | €7,5M oder 1 % des weltweiten Umsatzes |
Direkter Vergleich: Die GDPR hat ein Maximum von 4 % des weltweiten Umsatzes. Der AI Act erreicht 7 % — x1,75 strenger im schlimmsten Fall.
Für KMU legt die Verordnung fest, dass der niedrigere Betrag zwischen dem Umsatzprozentsatz und den absoluten Zahlen angewandt wird. Aber selbst die absoluten Zahlen — 35 Millionen für verbotene Praktiken — sind für jedes mittelständische Unternehmen verheerend.
Es gibt noch einen weiteren wichtigen Aspekt: Die Bußgelder des AI Act können sich mit denen der GDPR kumulieren, wenn ein Verstoß auch personenbezogene Daten betrifft. Ein Personalauswahlsystem, das diskriminiert und die Privatsphäre verletzt, kann unter beiden Verordnungen sanktioniert werden.
Vier Monate sind ausreichend, wenn der Prozess diese Woche beginnt. Dies ist die Reihenfolge:
Schritt 1 — Bestandsaufnahme der genutzten KI-Systeme
Erfassen Sie alle Tools, die in Ihrem Unternehmen KI nutzen: vom ATS im HR-Bereich über das CRM mit prädiktivem Scoring, die Analytics-Dashboards, die Chatbots im Kundenservice bis hin zu jeder SaaS-Lösung, die Personendaten mit KI verarbeitet. Nicht nur die intern entwickelten Systeme — auch die, die Sie als Service einkaufen. Der AI Act gilt für diejenigen, die KI-Systeme einsetzen, nicht nur für diejenigen, die sie entwickeln.
Schritt 2 — Risikoklassifizierung pro System
Bestimmen Sie für jedes identifizierte System seine Kategorie gemäß Anhang III. Die Schlüsselfrage: Beeinflusst dieses System Entscheidungen, die Personen materiell betreffen — ihre Beschäftigung, Kreditwürdigkeit, Zugang zu Dienstleistungen, Ausbildung, Rechte? Wenn die Antwort Ja lautet, ist es wahrscheinlich Hochrisiko. Im Zweifelsfall ist die konservative Auslegung die richtige: Das System als Hochrisiko behandeln.
Schritt 3 — Gap-Analyse vs. Anforderungen der Art. 9-15
Bewerten Sie für jedes Hochrisiko-System den aktuellen Stand gegenüber den neun Pflichten: Existiert eine technische Dokumentation? Gibt es Aktivitäts-Logs? Gibt es eine operative oder nur formale menschliche Aufsicht? Sind die Trainingsdaten dokumentiert und überprüfbar? Die Gap-Analyse bestimmt die tatsächlich noch zu leistende Arbeit.
Schritt 4 — Umsetzung: Dokumentation, Logs, menschliche Aufsicht
Dies ist der Hauptteil der Arbeit. Es geht nicht nur darum, Formulare auszufüllen: Es müssen reale Prozesse implementiert werden. Human-in-the-loop darf keine Checkbox in einem Workflow sein — es muss eine Überprüfung mit tatsächlicher Befugnis sein, die KI-Entscheidung aufzuheben. Die Logs müssen konfiguriert sein. Die technische Dokumentation muss aktuell gehalten werden. In vielen Organisationen erfordert dies Änderungen in den operativen Prozessen, nicht nur in den Systemen.
Schritt 5 — Registrierung bei der zuständigen Behörde
In Spanien ist die für die Aufsicht über den AI Act designierte nationale Behörde die AESIA (Agencia Española de Supervisión de la Inteligencia Artificial). In Deutschland sind die zuständigen Aufsichtsbehörden noch in der finalen Bestimmung. Hochrisiko-Systeme in regulierten Sektoren müssen vor dem Markteintritt in der europäischen Datenbank registriert werden. Der Registrierungsprozess erfordert die vollständige technische Dokumentation — deshalb sind die vorherigen Schritte zuerst notwendig.
Der Unterschied zwischen den Unternehmen, die im August konform sein werden, und denen, die es nicht sein werden, ist ein einziger: Die ersten haben die Bestandsaufnahme im ersten Quartal 2026 begonnen. Die zweiten schieben es weiter auf.
Der EU AI Act hat ein neues europäisches Gremium geschaffen: die AI Office, angegliedert an die Europäische Kommission. Sie ist keine unabhängige Agentur wie die ENISA, sondern eine Einheit innerhalb der Kommission mit direkten Aufsichtsbefugnissen über GPAI-Modelle.
Ihre Hauptaufgaben:
Die AI Office veröffentlichte im Februar 2025 ihre ersten Auslegungsleitlinien. Für Unternehmen, die Modelle Dritter nutzen, klären diese Leitlinien, wo die Verantwortung des Anbieters endet und wo die des Betreibers beginnt.
Wenn Sie CISO oder DPO sind: Der AI Act überlagert sich mit der GDPR bei jedem KI-System, das personenbezogene Daten verarbeitet. Fügen Sie den AI Act als Ebene zur DPIA hinzu, die Sie bereits durchführen. Wenn Ihre Organisation über Reife bei der GDPR-Compliance verfügt, existiert die Infrastruktur für Dokumentation und Logs bereits — sie muss nur angepasst werden.
Wenn Sie ein Unternehmen leiten: Das rechtliche Risiko ab August 2026 liegt bei den Betreibern — den Unternehmen, die KI-Systeme einsetzen, nicht nur bei denen, die sie entwickeln. Ein SaaS mit KI einzukaufen entbindet Sie nicht. Fordern Sie von Ihren Anbietern Vertragsklauseln, die deklarieren, ob ihre Systeme Hochrisiko sind.
Wenn Sie im HR-Bereich arbeiten: Überprüfen Sie Ihren Stack: ATS, Video-Screening-Plattformen, Kompetenzbewertung, jedes Tool, das einen Kandidaten-Score generiert. Wenn ein automatisiertes Ranking existiert, bevor ein Mensch das Profil sieht, haben Sie ein Hochrisiko-System, das die neun Anforderungen des Anhangs III erfüllen muss.
Wenn Sie Systeme mit KI entwickeln: Wenn Sie für Sektoren des Anhangs III bauen, muss die Compliance von Anfang an mitgestaltet werden — technische Dokumentation, Logs und menschliche Aufsicht sind keine Last-Minute-Ergänzungen. Wenn Sie GPAI-Modelle Dritter nutzen, überprüfen Sie deren Nutzungsbedingungen: Alle haben 2025 AI-Act-Klauseln hinzugefügt.
Der EU AI Act ist kein bürokratisches Hindernis für Innovation. Er ist der erste ernsthafte Versuch, globale Spielregeln für eine Technologie aufzustellen, die bereits Millionen alltäglicher Entscheidungen beeinflusst. Unternehmen, die ihn als Differenzierungsmöglichkeit betrachten — „Wir erfüllen den AI Act” als Vertrauenssignal — werden einen Vorteil haben gegenüber denen, die ihn als Compliance-Kosten behandeln.
August 2026 ist nicht das Ende von etwas. Es ist der Beginn des Szenarios, in dem Unternehmen, die ihre Hausaufgaben nicht gemacht haben, die ersten Untersuchungen erhalten. Es bleiben vier Monate. Die Bestandsaufnahme kann heute beginnen.
Verwandte
660.000 millones en infraestructura, solo el 5% de las empresas con ROI real y un historial de expectativas que siempre corren más rápido que la realidad
La brecha entre la inversión en IA y el valor real que genera — y qué pueden hacer las empresas para estar en el 5% que sí funciona
Abonnieren Sie den redaktionellen Newsletter von AISHA, um über neue Beiträge, Berichte und Tools auf dem Laufenden zu bleiben.
Zum Newsletter