Haben wir die KI unter Kontrolle — oder hat KI uns längst unter ihre Kontrolle? Eine unbequeme Frage, die für viele kleine und mittlere Unternehmen schon Realität geworden ist. Mitarbeitende kopieren Kundendaten in private ChatGPT-Accounts. Microsoft Copilot greift auf E-Mail-Inhalte zu. Automatisierungen verarbeiten personenbezogene Daten, ohne dass jemand weiß, welche genau. Daten verlassen das Unternehmen unbemerkt. Entscheidungen basieren auf Black-Box-Ausgaben. Und mit DSGVO und EU AI Act greifen gleich zwei Regelwerke, die diese Lage nicht mehr ignorieren.
Dieser Artikel zeigt, wo die Risiken im Mittelstand konkret liegen, was DSGVO und EU AI Act tatsächlich verlangen — und wie Sie in den nächsten 30 Tagen eine belastbare Grundlage für DSGVO-konforme KI schaffen.
Schatten-KI — das unsichtbare Risiko im Mittelstand
Als „Schatten-KI” bezeichnen wir den Einsatz von Künstlicher Intelligenz im Unternehmen, der weder dokumentiert noch genehmigt ist. Im Gegensatz zur klassischen Schatten-IT entstehen die Risiken hier nicht primär durch unautorisierte Software, sondern durch Eingaben in autorisierte Tools — Eingaben, die personenbezogene oder vertrauliche Daten enthalten.
Vier Beispiele, denen wir in der Beratungspraxis regelmäßig begegnen:
- Vertriebsmitarbeitende kopieren Kundendaten in private ChatGPT-Accounts, um schneller Angebote zu formulieren. Die Daten landen außerhalb des Unternehmens, oft in Drittländern, ohne Auftragsverarbeitungsvertrag.
- Personalabteilungen lassen sich Bewerbungen zusammenfassen — mitsamt Namen, Geburtsdaten und Anschriften. Damit greift mindestens die Datenschutz-Folgenabschätzung nach Art. 35 DSGVO.
- Microsoft Copilot ist organisationsweit aktiviert, kennt aber keine klaren Daten-Klassifizierungen. Inhalte aus interner Korrespondenz, Verträgen und Personalakten fließen in die Antworten ein.
- Automatisierungs-Workflows mit n8n, Make oder Zapier verarbeiten Mailverkehr und reichern ihn über Drittanbieter-APIs an — ohne dass die Datenschutzbeauftragte je davon erfahren hat.
Mittelständische Unternehmen sind besonders betroffen, weil die Governance-Reife typischerweise hinter der Werkzeug-Verbreitung herhinkt. Es gibt selten eine eigene Datenschutz-Abteilung, häufig keinen IT-Security-Verantwortlichen, und KI-Tools werden kostenlos oder nahezu kostenlos eingeführt — vorbei an klassischen Beschaffungsprozessen.
Welche Daten Ihr Unternehmen unbemerkt verlassen
Der häufigste Irrtum: „Wir geben ja keine sensiblen Daten ein.” Tatsächlich landet bei jeder Prompt-Eingabe potenziell mehr Information beim Anbieter, als bewusst beabsichtigt.
Eingaben in öffentliche Chatbots. Die Standard-Versionen von ChatGPT, Claude und Gemini speichern Eingaben standardmäßig zur Modell-Verbesserung. Selbst wenn die Anbieter Opt-out-Mechanismen anbieten, ist die Default-Einstellung in vielen Plänen: Speicherung erlaubt. Eingaben können personenbezogene Daten enthalten, ohne dass der oder die Mitarbeitende es bemerkt — etwa wenn ein E-Mail-Verlauf zur „Zusammenfassung” eingefügt wird.
Microsoft Copilot und der M365-Tenant. Copilot greift auf den vollständigen Inhalt des Microsoft-365-Tenants zu, auf den die anfragende Person Zugriff hat. Was einerseits ein Produktivitätsversprechen ist, wird ohne Berechtigungsdesign zum Daten-Aggregator: Mitarbeitende sehen Antworten auf Basis von Inhalten, die sie zwar formal lesen dürfen, die sie aber faktisch nie aktiv geöffnet hätten.
Automatisierungen mit Drittanbieter-APIs. Workflows, die Daten aus dem CRM in einen externen KI-Service schicken und das Ergebnis zurück ins ERP schreiben, sind technisch trivial — aber rechtlich anspruchsvoll. Wer ist Auftragsverarbeiter? Wer Verantwortlicher? Welche Daten werden tatsächlich übertragen? Häufig fehlt die Antwort.
DSGVO bei KI-Nutzung — was wirklich gilt
Die Datenschutz-Grundverordnung gilt seit Mai 2018, lange vor dem aktuellen KI-Boom. Sie ist deshalb nicht „KI-spezifisch” — aber genau deswegen für jede KI-Nutzung relevant, sobald personenbezogene Daten im Spiel sind.
Personenbezogene Daten in Prompts (Art. 4 DSGVO). Sobald Sie Namen, E-Mail-Adressen, IP-Adressen, Mitarbeiter- oder Kundennummern in eine KI-Eingabe eintippen, verarbeiten Sie personenbezogene Daten. Damit gelten alle Schutzpflichten: Rechtmäßigkeit (Art. 6), Zweckbindung, Datenminimierung, Speicherbegrenzung.
Auftragsverarbeitungs-Verträge (Art. 28). Wenn ein externer KI-Anbieter Ihre personenbezogenen Daten verarbeitet, brauchen Sie einen Auftragsverarbeitungsvertrag (AVV). Die meisten Anbieter stellen solche Verträge im Rahmen ihrer Geschäftsbedingungen bereit — aber nicht immer in den kostenlosen Tarifen. Bei Schatten-KI fehlt der AVV systematisch.
Datenschutz-Folgenabschätzung (Art. 35). Bei automatisierten Entscheidungen mit erheblicher Auswirkung auf betroffene Personen ist eine DSFA verpflichtend. KI-gestützte Bewerbendenauswahl, Bonitätsprüfungen oder leistungsbezogene Bewertungen fallen typischerweise darunter.
Sanktionsrahmen. Bußgelder können bis zu 4 % des weltweiten Jahresumsatzes oder 20 Mio. EUR betragen — je nachdem, welcher Betrag höher ist. In der Praxis reichen die Aufsichtsbehörden Bußgelder eher gestaffelt aus, häufig im sechsstelligen Bereich. Reputationsschäden sind oft gravierender als die monetäre Strafe selbst.
EU AI Act (Verordnung 2024/1689) — was Mittelstand konkret betrifft
Die EU-Verordnung über künstliche Intelligenz (Verordnung 2024/1689) ist seit dem 2. August 2024 in Kraft. Die Pflichten gelten gestaffelt: Verbote ab Februar 2025, Pflichten für Allzweck-KI-Modelle ab August 2025, Vorgaben für Hochrisiko-Systeme ab August 2026, weitere Übergangsfristen bis 2027.
Risikoklassifizierung in vier Stufen. Der AI Act sortiert KI-Systeme nach ihrem Risiko für Grundrechte und Sicherheit:
- Verboten sind Systeme zur sozialen Bewertung, biometrischen Echtzeit-Identifikation im öffentlichen Raum oder zur emotionalen Manipulation Verwundbarer.
- Hochrisiko sind Systeme in sensiblen Bereichen wie Bildung, Beschäftigung, Strafverfolgung, kritischer Infrastruktur — und ausdrücklich auch in der Personalauswahl, Leistungsbewertung und Beförderungsentscheidung.
- Begrenztes Risiko trifft etwa Chatbots, die als solche gekennzeichnet sein müssen.
- Minimales Risiko umfasst die meisten alltäglichen Anwendungen — Spamfilter, Übersetzungstools, Suche.
Stolperfalle Mittelstand: HR- und Recruiting-KI. Viele KMU experimentieren mit KI-gestützter Bewerbervorauswahl oder automatisierter Lebenslauf-Analyse. Solche Systeme sind nach Anhang III des AI Act Hochrisiko-Systeme — mit erheblichen Pflichten: Risikomanagement, Qualitätssicherung, Transparenz gegenüber Bewerbenden, menschliche Aufsicht, Konformitätsbewertung. Wer das übersieht, riskiert nicht nur Bußgelder, sondern auch arbeitsrechtliche Folgen.
Sanktionsrahmen. Verstöße gegen Verbote: bis 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes. Verstöße gegen Pflichten für Hochrisiko-Systeme: bis 15 Mio. EUR oder 3 %. Falsche Angaben gegenüber Behörden: bis 7,5 Mio. EUR oder 1 %.
Zwei Ebenen der Kontrolle — organisatorisch und technisch
Wer Schatten-KI in den Griff bekommen will, braucht Kontrolle auf zwei Ebenen. Eine ohne die andere reicht nicht.
Organisatorische Kontrolle
KI-Nutzungsrichtlinie. Eine schriftliche Richtlinie, die regelt: welche Tools sind freigegeben, welche Daten dürfen eingegeben werden, welche dürfen es nicht, wer ist im Zweifel anzusprechen. Idealerweise nicht länger als zwei Seiten, mit konkreten Beispielen. Auch die private Nutzung von KI-Tools für dienstliche Aufgaben sollte explizit adressiert werden.
Use-Case-Prüfinstanz. Eine kleine Runde — Geschäftsführung, IT, Datenschutzbeauftragte, ggf. Betriebsrat — die neue KI-Anwendungen vor Einführung prüft. Nicht als Bremse gedacht, sondern als gemeinsame Bewertung von Nutzen, Risiko und nötigen Schutzmaßnahmen.
Datenflussanalyse und Rollenkonzept. Pro KI-Anwendung dokumentieren: welche Daten gehen rein, was passiert damit, wer hat Zugriff, wo werden Ergebnisse gespeichert. Daraus folgt das Rollenkonzept — wer darf welche Funktionen nutzen.
Schulung der Mitarbeitenden. Die wirksamste Maßnahme ist auch die unterschätzteste. Wer versteht, warum eine Eingabe ein Datenschutzproblem sein kann, wird sie eher hinterfragen, als wer nur eine Verbotsliste vor sich hat.
Technische Kontrolle
Die führenden KI-Anbieter haben in den letzten Jahren spürbar in Schutzfunktionen investiert. Diese Funktionen müssen aber aktiv konfiguriert werden — automatisch passiert nichts.
- OpenAI bietet im Enterprise- und Team-Tarif Datenschutz-Garantien, deaktiviertes Modell-Training auf Eingaben, SOC-2-Zertifizierung sowie konfigurierbare Inhaltsfilter.
- Anthropic hat Sicherheitsleitplanken in das Claude-Modell direkt eingebaut, bietet kommerzielle Pläne mit Datenresidenz-Optionen und API-seitig konfigurierbare System-Prompts.
- Google stellt für Gemini in Workspace-Umgebungen Sicherheitsfilter, Verantwortlichkeiten-Frameworks und einen klaren Trennstrich zwischen Geschäfts- und Privatkonten bereit.
- Microsoft Copilot nutzt die bestehenden Microsoft-365-Compliance-Ebenen — mit dem entscheidenden Vorbehalt, dass Sensitivity-Labels und Berechtigungen vorab korrekt gesetzt sein müssen.
Ergänzend braucht jede produktive KI-Nutzung Audit-Logs und Monitoring: wer hat wann welche Eingabe gemacht, welche Antwort erhalten, welche externen Schnittstellen wurden angesprochen. Ohne Logs ist eine spätere Aufklärung im Schadensfall nicht möglich.
5 konkrete Schritte für die nächsten 30 Tage
Wenn Sie Compliance nicht aufschieben wollen, sondern in einem Monat eine belastbare Grundlage haben möchten — hier ein praxistauglicher Fahrplan für KMU:
- KI-Inventar erstellen. Welche KI-Tools sind tatsächlich in Ihrem Unternehmen im Einsatz? Inklusive privater ChatGPT-Accounts der Mitarbeitenden, Browser-Erweiterungen mit KI-Funktionen und in Workflows eingebetteter KI-APIs. Eine kurze, anonyme Mitarbeitendenbefragung bringt erstaunliche Ergebnisse zutage.
- KI-Nutzungsrichtlinie verabschieden. Zwei Seiten, klar formuliert, mit Beispielen. Geschäftsführung, IT, Datenschutzbeauftragte und Betriebsrat (sofern vorhanden) durchziehen lassen, dann verabschieden und kommunizieren.
- Mitarbeitende schulen. Eine 60-Minuten-Schulung für alle, die KI-Tools einsetzen oder einsetzen wollen. Inhalt: was ist erlaubt, was nicht, warum, wer hilft. Die Schulung sollte aufgezeichnet werden — neue Mitarbeitende durchlaufen sie im Onboarding.
- Datenflussanalyse für die Top-3-Use-Cases. Welche drei KI-Anwendungen sind in Ihrem Unternehmen am verbreitetsten? Pro Use Case einmal sauber durchanalysieren: Eingabedaten, Verarbeitung, Speicherung, Empfänger, Löschfristen. Daraus ergeben sich konkrete nächste Schritte.
- Verantwortliche/n für KI-Themen benennen. Eine Person — nicht zwingend eine eigene Stelle, kann eine zusätzliche Aufgabe sein — die als Ansprechpartner für KI-Fragen, AI-Act-Übergangsfristen und neue Use Cases fungiert.
Mehr nicht. Diese fünf Schritte schützen vor 80 % der typischen Schatten-KI-Fallen — und schaffen die Voraussetzung, KI im Unternehmen sinnvoll und kontrolliert einzusetzen.
Häufige Fragen
Müssen wir als KMU den EU AI Act überhaupt umsetzen?
Ja, sofern Sie KI-Systeme entwickeln, einsetzen, importieren oder in Ihre Produkte integrieren. Der AI Act kennt keine generelle Mittelstands-Ausnahme, sondern staffelt nach Risikoklasse. Die meisten KMU-Anwendungen fallen in die Klassen „begrenztes” oder „minimales” Risiko — mit überschaubaren Pflichten. Sobald Sie aber im HR-Bereich KI einsetzen, gelten Hochrisiko-Pflichten in vollem Umfang.
Reicht eine schriftliche Richtlinie als KI-Governance?
Eine Richtlinie ist die Mindestgrundlage, aber sie reicht allein nicht. DSGVO und AI Act verlangen dokumentierte Prozesse: Datenschutz-Folgenabschätzungen, Audit-Logs, technische Schutzmaßnahmen, Schulungen mit Nachweis. Eine Richtlinie ohne gelebte Umsetzung wird im Prüfungsfall als nicht ausreichend bewertet.
Ab wann gelten welche Pflichten des EU AI Act?
Die Verordnung ist seit 2. August 2024 in Kraft. Die Pflichten gelten gestaffelt: Verbotene Praktiken ab 2. Februar 2025. Pflichten für Allzweck-KI-Modelle ab 2. August 2025. Pflichten für Hochrisiko-Systeme nach Anhang III ab 2. August 2026. Pflichten für Hochrisiko-Systeme nach Anhang I (eingebettet in regulierte Produkte) ab 2. August 2027.
Was kostet eine professionelle KI-Compliance-Begleitung?
Das hängt stark von Größe und Reifegrad Ihres Unternehmens ab. Eine erste Einschätzung mit Ist-Analyse, Lückenbericht und Roadmap-Vorschlag liegt typischerweise im niedrigen vierstelligen Bereich. Die anschließende Begleitung — Richtlinien-Erstellung, Schulungen, Datenflussanalysen — wird projektabhängig kalkuliert. Eine kostenfreie Erstberatung gibt Ihnen ein realistisches Bild, bevor Sie sich entscheiden.
Wie hollos solutions Sie dabei unterstützt
Wir begleiten kleine und mittelständische Unternehmen entlang des kompletten Wegs zur DSGVO-konformen KI-Nutzung — von der ersten Use-Case-Identifikation über die Erstellung einer belastbaren KI-Nutzungsrichtlinie bis zur begleiteten Einführung inklusive Schulung der Mitarbeitenden. Unser Vorgehen ist strukturiert in acht Schritten, abrechnungstransparent und bewusst pragmatisch: Wir empfehlen das, was tatsächlich Wirkung zeigt — nicht das, was sich gut auf einer Folie macht.
Wenn Sie eine erste Einschätzung möchten — ob Sie auf der sicheren Seite sind, oder wo der größte Handlungsbedarf liegt — vereinbaren Sie ein 30-minütiges Erstgespräch. Es kostet nichts und gibt Ihnen einen klaren Blick auf die Lage.