AI Act 2026: Was Mittelständler beim Einsatz von KI jetzt wissen müssen
EU AI Act für den Mittelstand: Risikoklassen, Verbote, Hochrisiko-KI, GPAI, Pflichten für Anwender, Kosten — Groenewold IT Solutions.
Was ist der AI Act?
Die Verordnung (EU) 2024/1689 („KI-Verordnung“, „AI Act“) ist das erste umfassende Regelwerk der EU für Künstliche Intelligenz. Es verbindet Produkt- und Grundrechtsperspektive: Hochrisiko-Anwendungen müssen dokumentierte Governance erhalten; verbotene Praktiken sind ausgeschlossen; Transparenzpflichten treffen u. a. General-Purpose-KI und bestimmte Interaktionen mit Menschen [Quelle: EU CELEX 32024R1689].
Für den Mittelstand ist entscheidend, dass der AI Act nicht nur Modellanbieter betrifft, sondern auch Organisationen, die KI in geschützten Kontexten einsetzen — etwa HR, Bildung oder kritische Infrastrukturen, wenn Hochrisiko nach Anhang III vorliegt. Parallel gelten datenschutzrechtliche Pflichten aus der DSGVO; ein „KI-only“-Compliance-Konzept ohne Datenfluss-Analyse reicht selten.
Der AI Act ist damit eng mit Ihrer KI-Strategie verknüpft: Welche Use Cases laufen intern? Wer entscheidet über Trainingsdaten und Prompts? Wo liegt menschliche Kontrolle („Human oversight“)? Diese Fragen sollten Sie vor großen Rollouts klären — nicht erst bei Audit oder Vorfall.
Risikoklassen im Überblick
| Klasse | Beispiele | Typische Pflichten |
|---|---|---|
| Unannehmbares Risiko | Bestimmte manipulative oder überwachungsgestützte Massenbewertung | Verbot — keine Ausnahme im Alltag |
| Hochrisiko | Auswahl in kritischen Bereichen (z. B. HR unter Bedingungen des Anhang III) | Risikomanagement, Daten-Governance, Logging, Aufsicht |
| Begrenztes Risiko | Chatbots ohne Hochrisiko-Kontext, Transparenzpflichten | Transparenz gegenüber Nutzer:innen |
| Minimales Risiko | Spamfilter, einfache Empfehlungen | Keine schweren Pflichten — Basis-TOP bleibt sinnvoll |
Quelle | Stand: Verordnungstext | EUR-Lex
Die Einordnung ist sachlich und dokumentiert vorzunehmen: Produktowner notiert Zweck, betroffene Personengruppen, Datenquellen und Entscheidungspfade. Für verwandte Lesarten siehe unser Thema DSGVO und KI.
In der Praxis vermischen Teams gerne „interne Produktivitäts-KI“ (z. B. Zusammenfassungen) mit entscheidungsnahen Workflows (Bewertung von Bewerbungen). Genau dort liegt das Risiko: ein Tool, das im Meeting nur „Text hilft“, kann in HR plötzlich hochriskant werden, wenn Output ungeprüft in Folgesysteme fließt. Entkoppeln Sie Use Cases strikt (Prompt-Templates, Zugriffsrollen, Speicherverbote für sensible Felder).
Für Compliance-Zyklen empfiehlt sich eine Risiko-Library: einmal definierte Kataloge für Datenklassen, Modell-Familien und Integrationspunkte (ATS, CRM, Ticketsystem). So wiederholen Sie nicht jedes Quartal die gleiche Grundsatzdiskussion — sondern pflegen nur Änderungen an Datenflüssen und Modellversionen [Quelle: interne Best Practices; EU AI Act zu Dokumentation und QM-System].
Was ist verboten?
Art. 5 der Verordnung listet unzulässige Praktiken — etwa bestimmte Formen von Fernidentifikation mittels Massenüberwachung in öffentlichen Räumen oder KI, die Menschen zu manipulieren versucht, ohne dass sie es merken. Für Unternehmen ist wichtig: Marketing- oder HR-Experimente dürfen nicht in Graubereiche rutschen — „wir testen nur mal“ reicht nicht, wenn verbotene Muster berührt werden [Quelle: Art. 5 AI Act].
- Keine Ausnahmen ohne Prüfung: kurze Checkliste mit Legal vor Pilotstart.
- Biometrie und Emotionserkennung am Arbeitsplatz sind besonders sensibel — oft Spezialthema.
- Social-Scoring durch private Akteure ist ebenfalls adressiert — nicht nur staatliche Systeme.
Wenn Sie unsicher sind, ob Ihr Anwendungsfall berührt ist: stoppen Sie den Rollout und holen Sie eine rechtliche Einordnung ein — technisch können wir parallel Architektur und Datenflüsse dokumentieren (Made in Germany).
Was ist Hochrisiko-KI?
Hochrisiko-Systeme unterliegen strengeren Pflichten: Risikomanagement-System, Daten-Governance, technische Dokumentation, Logging, Überwachung nach Inverkehrbringen und mehr — je nach Rolle (Anbieter vs. Anwender) unterschiedlich verteilt [Quelle: AI Act Kapitel zu Hochrisiko und Anhang III].
Typische Mittelstands-Anwendungen, die kritisch sein können: automatisierte Lebensläufe-Screenings, Scoring in der Kreditentscheidung, Auswahlwerkzeuge in HR-Software, die empfehlend eingreifen. Hier hilft eine saubere Grenzziehung: Assistenzmodus (Vorschlag + Mensch entscheidet dokumentiert) vs. automatische Entscheidung ohne Review.
Technisch sollten Sie Erklärbarkeit nicht überinterpretieren — nicht jedes Modell liefert „schöne“ Erklärungen. Aber Sie können dokumentieren: Features, Trainingsdaten-Kategorien, Fairness-Checks, Fallback bei Niedrig-Konfidenz und Eskalationspfad zum Menschen — siehe auch unsere KI-Wissensdatenbank-Projekte mit nachvollziehbaren Quellen.
Verwandte Lesung: KI-Use-Cases Mittelstand.
GPAI / Foundation Models — was Anbieter und Anwender beachten müssen
General-Purpose-AI-Modelle (z. B. große Sprachmodelle) unterliegen bei Anbietern zusätzlichen Transparenz- und Sicherheitsanforderungen; bei Systemischen Risiken gibt es erweiterte Pflichten [Quelle: AI Act GPAI-Kapitel]. Anwender sind nicht automatisch „frei“: Sie müssen Produktkette und Einhaltung dokumentieren — etwa welche Modelle in Produktion sind, mit welchen Datengrenzen und welchen Prompt-/Tool-Policies.
Praktisch: Für ChatGPT, Claude, Gemini oder Mistral pflegen wir intern Modell-Freigaben, Datenklassen und Vaulting von API-Keys. Der Zugriff erfolgt rollenbasiert — nicht jedes Team darf beliebig Dokumente indexieren. Das passt zu Anforderungen aus AI Act und DSGVO gleichermaßen.
Kurz: Anbieter liefern Transparenz und technische Unterlagen — Anwender implementieren Grenzen im Betrieb und dokumentieren sie.
Welche Pflichten treffen Anwender (B2B)?
- Schulung & Awareness: sachliche Nutzungsregeln, Kennzeichnung KI-generierter Inhalte wo erforderlich.
- Daten-Governance: nur erlaubte Datenquellen in Fine-Tuning/RAG; Löschkonzepte und Zugriffsprotokolle.
- Logging: wer hat welches Modell mit welchem Zweck genutzt — revisionssicher für Hochrisiko-Kontexte.
- Mensch-in-der-Schleife: bei sensiblen Entscheidungen dokumentierte Freigaben.
- Vorfälle: Fehler- und Vorfall-Meldungen an Hersteller/Anbieter nach Mitwirkungspflichten.
Für Mittelständler heißt das in der Regel: Governance ist klein aber konsistent — nicht 200-seitige Ordner, sondern klare Regeln in Notion/Intranet plus Nachweise in Tickets.
Ein wiederkehrendes Muster in Projekten: Teams kaufen SaaS-KI (Meeting-Notes, Sales-Mail) ohne Datenklassen — später landen sensible Gesprächsinhalte in Trainingsdaten Dritter. Verhindern Sie das durch technische und organisatorische Schotten: getrennte Tenants, Verbotslisten für Dateitypen und automatische Retention-Limits. Das ist keine „Zusatzlast“, sondern schützt vor den teuersten Vorfallszenarien — gleichzeitig hilft es bei Aufsichtsfragen zur Zweckbindung.
Für Finance und Legal empfiehlt sich eine gemeinsame Risiko-Sprache: nicht „Tool XY“, sondern „Entscheidungsassistenz im Bewerbungsprozess mit Zugriff auf Profildaten“. Je präziser die Beschreibung, desto leichter wird die Risikoklasse — und desto einfacher sind Ableitungen für Datenschutz-Folgenabschätzungen und AI-Act-Dokumentation [Quelle: interne Governance-Muster; EU AI Act zu Dokumentation].
AI Act und DSGVO
| Aspekt | AI Act | DSGVO |
|---|---|---|
| Fokus | Risikoklassen, Marktüberwachung, Produktpflichten | Personenbezogene Daten, Rechtsgrundlagen, Betroffenenrechte |
| Überlappung | Viele Audits verlangen gemeinsame Nachweise — eine Datenfluss-Doku dient beiden Zwecken, wenn personenbezogene Daten verarbeitet werden. | |
Stand Einordnung April 2026 — keine Rechtsberatung.
Was kostet die Compliance?
Typischerweise entstehen Kosten für Governance-Aufbau (40–120 kEUR je nach Größe), Schulungen (intern oder extern), technische Umsetzung (Identity, Logging, RAG-Isolation) und laufende Reviews bei Modell-/Prompt-Änderungen. Große Sprünge vermeiden Sie, wenn Sie auf bestehende Security-Baseline (MFA, MDM, Ticket-System) aufsetzen.
ROI entsteht durch weniger Fehlentscheidungen, schnellere Audits und vermeidbare Stillstände — nicht durch „KI um der KI willen“.
Praxis: KI-Wissensdatenbank und KI-Telefonbot AI-Act-konform betreiben
Bei Groenewold IT Solutions koppeln wir Kundenprojekte an klare Datenherkunft: nur freigegebene Dokumente indexieren, Zugriff über bestehende Identity, nachvollziehbare Quellenangaben in Antworten und technische Logs ohne unnötige Personendaten. Für KI-Telefonbots definieren wir Eskalationspfade zum Menschen und Halteverbote für sensible Themen.
„AI Act-ready“ bedeutet für uns: dokumentierte Architektur, Release-Checkliste bei Modellwechsel und Nachweise für Auftraggeber — nicht nur eine Marketing-Badge.
Vertiefung: KI-Wissensdatenbank, KI-Schulungen.
Wie wir Sie unterstützen
- KI-Schulungen — Rollen, Prompt-Grenzen, Compliance
- Künstliche Intelligenz — Integration & Pilotierung
- IT-Beratung — Roadmap und Daten-Governance
Termin zur AI-Act-Einordnung — Use Cases priorisieren und Risiko klassifizieren.
Blog & Glossar: Blog KI & Chatbots, Glossar KI.
Quellen
- EU-Verordnung 2024/1689 (AI Act)
- EU Digital Strategy — Begleitinformationen
- BMWK — nationale Einordnung KI-Wirtschaft
Literaturdatei: `src/data/references/ai-act-mittelstand.references.md`
Stand und nächste Aktualisierung
Stand: April 2026 · Nächste Revision: Oktober 2026
Häufige Fragen zu AI Act 2026: Was Mittelständler beim Einsatz von KI jetzt wissen müssen
- Brauche ich einen KI-Beauftragten?
- Es gibt keinen universellen Ersatz für klare Rollen: oft genügt eine benannte Verantwortliche Person mit Backup — gekoppelt an Ihre IST-Organisation. Hochrisiko-Kontexte erfordern strukturiertere QM-Nachweise.
- Wie kennzeichne ich KI-generierte Inhalte?
- Wo Transparenzpflichten greifen, sollten Nutzer:innen KI erkennen — Form und Kanal hängen vom Anwendungsfall ab (UI-Hinweis, Footer, Voice-Prompt). Interne Guidelines helfen, Wildwuchs zu vermeiden.
- Sind ChatGPT-Antworten dokumentationspflichtig?
- In Hochrisiko- oder entscheidungsnahen Prozessen sollten Zweck, Eingaben und Review dokumentiert werden — technisch über Tickets oder Governance-Tools; keine unnötige Speicherung personenbezogener Daten.
- Was tun, wenn unsere Software ein Hochrisiko-System ist?
- Rolle klären (Anbieter vs. Betreiber), Risikomanagement aktivieren, Daten und Tests dokumentieren — und rechtliche Beratung einbinden; technisch liefern wir Architektur und Logging-Voraussetzungen.
- Wie verhält sich der AI Act zur DSGVO?
- Parallel: AI Act adressiert Risiko und Marktüberwachung; DSGVO schützt Personenbezug — Datenflüsse und Zweckbindung müssen zusammen gedacht werden.
- Ab wann gelten GPAI-Pflichten für uns?
- Zeitachsen sind gestaffelt — prüfen Sie den Verordnungstext und nationale Begleitregeln zum Stichtag Ihrer Nutzung und Modellgeneration.
- Was ist mit Open-Source-Modellen?
- Je nach Rolle und Risiko können Dokumentations- und Lizenzpflichten gelten — „Open Source“ ist kein Freifahrtschein für Hochrisiko-Einsatz ohne Governance.
- Welche ersten technischen Maßnahmen sind sinnvoll?
- MFA/SSO für KI-Tools, Secrets-Management, Datenklassen für RAG, Logging ohne Übererfassung und Eskalationspfade zum Menschen.