
Ob ChatGPT für Kundenanfragen, Microsoft Copilot für Protokolle oder andere KI-Tools im Mittelstandsunternehmen – wer KI einsetzt, bewegt sich in einem komplexen Rechtsrahmen aus DSGVO und EU AI Act und muss beide verstehen.
Die gute Nachricht vorweg: KI rechtssicher einzusetzen, ist möglich. Wir geben eine Übersicht und Klarheit über die wichtigsten Vorschriften und konkrete Umsetzungsschritte.
Seit dem 2. Februar 2025 gelten die ersten Bestimmungen der EU-KI-Verordnung (EU AI Act). Weitere Vorgaben folgen schrittweise bis 2027. Gleichzeitig bleibt die Datenschutz-Grundverordnung (DSGVO) vollumfänglich anwendbar. Beide Regelwerke greifen beim Einsatz von KI-Systemen ineinander.
Der EU AI Act ist das weltweit erste umfassende Regelwerk für künstliche Intelligenz und soll Vertrauen in die Technologie schaffen, während gleichzeitig Innovationen ermöglicht werden. Für Unternehmen bedeutet das konkret: Wer KI nutzt, muss verstehen, welche Gesetze wann und wie greifen. Sonst drohen nicht nur erhebliche Bußgelder, denn auch das Unternehmensimage steht auf dem Spiel, wenn Datenschutzverletzungen oder Rechtsverstöße bekannt werden.
Viele Entscheider:innen verwechseln DSGVO und AI Act oder denken, eines ersetzt das andere. Beide Regelwerke existieren jedoch parallel und haben unterschiedliche Schwerpunkte.
Die Datenschutz-Grundverordnung wurde bereits 2018 eingeführt und gilt für jede Verarbeitung personenbezogener Daten. Diese Daten umfassen alle Informationen, die eine Person identifizierbar machen, wie Namen, E-Mail-Adressen, IP-Adressen, aber auch Daten von Mitarbeitenden oder Kund:inneninformationen.
Wenn du ChatGPT mit Namen fütterst, E-Mails über Microsoft Copilot analysieren lässt oder KI für das Bewerber:innenmanagement einsetzt, werden personenbezogene Daten verarbeitet. Dann greift die DSGVO mit ihren Kernanforderungen:
Es wird eine Rechtsgrundlage benötigt (Einwilligung, Vertragserfüllung oder berechtigtes Interesse). Es dürfen nur so viele Daten gesammelt werden, wie tatsächlich erforderlich sind (Datenminimierung). Transparent muss sein, was mit den Daten passiert (Informationspflicht). Betroffene haben Auskunfts-, Lösch- und Widerspruchsrechte.
Die DSGVO kennt keine Ausnahme für KI-Systeme. Im Gegenteil: Gerade bei KI-Anwendungen ist besondere Vorsicht geboten, da diese oft große Datenmengen verarbeiten und intransparent arbeiten.
Der EU AI Act ist seit August 2024 in Kraft und wird schrittweise umgesetzt. Sein Fokus liegt nicht primär auf Datenschutz, sondern auf der Sicherheit und Vertrauenswürdigkeit von KI-Systemen insgesamt.
Der AI Act verfolgt einen risikobasierten Ansatz und teilt KI-Systeme in Kategorien ein:
Verbotene KI-Systeme: Social Scoring, biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum oder manipulative KI-Praktiken sind seit Februar 2025 verboten. Auch Emotionserkennung am Arbeitsplatz fällt darunter.
Hochrisiko-KI-Systeme: Dazu zählen KI-Anwendungen in kritischen Bereichen wie Bewerber:innenmanagement, Kreditvergabe, kritische Infrastruktur oder Bildung. Hier gelten ab August 2026 strenge Anforderungen an Transparenz, Dokumentation, menschliche Aufsicht und Risikomanagement.
KI-Modelle mit allgemeinem Verwendungszweck (GPAI): Seit August 2025 unterliegen Tools wie ChatGPT, Gemini oder Claude besonderen Transparenz- und Urheberrechtsvorschriften. Anbieter müssen offenlegen, mit welchen Daten ihre Modelle trainiert wurden.
Geringes oder minimales Risiko: Für die meisten anderen KI-Anwendungen gelten nur Transparenzpflichten. Du musst kennzeichnen, wenn Nutzer:innen mit einem Chatbot interagieren oder Inhalte KI-generiert sind.
Der AI Act ersetzt nicht die DSGVO, sondern ergänzt sie. Beide Regelwerke müssen gleichzeitig beachtet werden.
Die kostenlose Version von ChatGPT ist für Unternehmen praktisch nicht DSGVO-konform nutzbar, wenn personenbezogene Daten verarbeitet werden. OpenAI nutzt Eingaben zum Training seiner Modelle, speichert Daten auf Servern außerhalb der EU und bietet keine ausreichenden Datenschutzgarantien für die Gratis-Version.
Anders sieht es bei ChatGPT Enterprise oder ChatGPT Team aus. Hier bietet OpenAI seit 2025 EU Data Residency an – das bedeutet, Daten europäischer Kund:innen bleiben garantiert in der EU. Zudem können Unternehmen vertraglich ausschließen, dass ihre Eingaben für Modelltraining verwendet werden.
Trotzdem gilt: Auch mit Enterprise-Version muss ein Auftragsverarbeitungsvertrag (AVV) abgeschlossen, eine Datenschutz-Folgenabschätzung durchgeführt und die Mitarbeitenden geschult werden. Sensible Daten wie Gesundheitsinformationen, Finanzdaten oder besondere Kategorien personenbezogener Daten sollten grundsätzlich nicht in Cloud-KI-Tools eingegeben werden.
Microsoft Copilot für 365 ist tief in die Microsoft-Infrastruktur integriert und bietet Unternehmen eine vergleichsweise sichere Option. Microsoft hat umfassende Datenschutzverpflichtungen und stellt Standard-Vertragsklauseln für Datenübermittlungen bereit.
Dennoch: Auch hier gilt die volle DSGVO-Compliance-Pflicht. Zudem muss geprüft werden, ob der Betriebsrat bei der Einführung beteiligt werden muss – insbesondere wenn die KI zur Leistungs- oder Verhaltenskontrolle von Mitarbeitenden geeignet ist.
Für Unternehmen mit hohen Datenschutzanforderungen empfehlen sich zunehmend europäische KI-Anbieter. Mistral AI aus Frankreich oder Aleph Alpha aus Deutschland bieten leistungsstarke Sprachmodelle mit garantierter EU-Datenverarbeitung und klaren DSGVO-Garantien.
Diese Tools sind speziell für den europäischen Markt entwickelt und vermeiden viele rechtliche Grauzonen, die bei US-Anbietern bestehen. Der Nachteil: Sie sind oft weniger bekannt und haben kleinere Entwickler-Communities als ChatGPT oder Gemini.
Konkrete Praxisbeispiele helfen mehr als abstrakte Compliance-Checklisten. Auf dem data:unplugged Festival triffst du auf Unternehmen, die diese Herausforderungen bereits gemeistert haben – von der rechtssicheren Implementierung bis zur praktischen Durchführung im Alltag.
Wie wird KI nun rechtssicher im Unternehmen eingesetzt? Diese sieben Schritte geben eine Orientierung:
Erstelle ein KI-Register für dein Unternehmen. Erfasse alle KI-Tools, die bereits im Einsatz sind oder geplant werden. Dokumentiere dabei:
Diese Bestandsaufnahme ist die Grundlage für alle weiteren Schritte und zeigt, wo rechtliche Risiken lauern.
Prüfe für jedes KI-System, in welche Risikogruppe es fällt. Die meisten Unternehmens-KI-Tools werden als geringes oder minimales Risiko eingestuft. Aber Achtung: Sobald KI für Bewerbungsauswahl, die Beurteilung von Mitarbeitenden oder Kreditentscheidungen eingesetzt wird, kann sie als Hochrisiko-System gelten.
Der risikobasierte Ansatz des AI Act bedeutet: Je höher das Risiko, desto strenger die Anforderungen. Hochrisiko-Systeme müssen ab August 2026 umfassend dokumentiert, regelmäßig getestet und von Menschen überwacht werden.
Mitarbeitende brauchen klare Regeln für den KI-Einsatz. Eine interne KI-Richtlinie sollte festlegen:
Wichtig: Mitarbeitende sollten nur Unternehmens-Accounts mit deaktivierten Verlaufspeicherungen nutzen. So wird vermieden, dass sensible Daten unkontrolliert in Cloud-Systeme fließen.
Bei KI-Systemen ist nach Artikel 35 DSGVO in den meisten Fällen eine Datenschutz-Folgenabschätzung (DSFA) erforderlich. Die Aufsichtsbehörden betonen, dass bei KI-Anwendungen häufig von einem hohen Risiko auszugehen ist.
Eine DSFA dokumentiert:
Die DSFA ist kein bürokratisches Hindernis, sondern hilft dir, Risiken frühzeitig zu erkennen und rechtssicher zu handeln.
Wenn externe KI-Anbieter genutzt werden, ist das Unternehmen datenschutzrechtlich Verantwortlicher – der Anbieter ist Auftragsverarbeiter. Dann bedarf es einen Auftragsverarbeitungsvertrag (AVV). Dieser regelt:
Die meisten professionellen KI-Anbieter bieten Standard-AVVs an. Diese sollten sorgfältig geprüft und bei Bedarf angepasst werden. Besonders wichtig ist dabei, auszuschließen, dass Daten für Modelltraining verwendet werden.
Die Mitarbeitenden sind der Schlüssel zur rechtssicheren KI-Nutzung. Artikel 4 der KI-Verordnung verpflichtet Unternehmen ausdrücklich, sicherzustellen, dass Mitarbeitende über die notwendigen KI-Kompetenzen verfügen.
Teams sollten in folgenden Bereichen geschult werden:
Im Austausch mit anderen Unternehmen findest du wertvolle Ansätze, wie Teams erfolgreich für den KI-Einsatz qualifiziert werden. Auf dem data:unplugged Festival wird diese Wissensvermittlung gezielt gefördert – praxisnah und umsetzbar.
KI-Recht entwickelt sich rasant weiter. Was heute rechtssicher ist, kann morgen bereits überholt sein. Ein kontinuierliches Monitoring ist daher nach wie vor von großer Bedeutung:
Die Europäische Kommission veröffentlicht regelmäßig Updates und Leitfäden zur Umsetzung des AI Act. Auch die Datenschutzbehörden geben fortlaufend Orientierungshilfen heraus.
Neben den allgemeinen Anforderungen gibt es einige Herausforderungen, die speziell Mittelständler:innen betreffen:
In Deutschland gilt: Wenn KI-Tools zur Überwachung von Mitarbeitenden geeignet sind oder deren Arbeitsplätze betreffen, hat der Betriebsrat ein Mitbestimmungsrecht. Das betrifft auch Produktivitäts-Tools wie Microsoft Copilot, wenn sie Arbeitsabläufe analysieren können.
Eine Betriebsvereinbarung schafft Klarheit für alle Seiten und verhindert spätere Konflikte.
Noch ist in Deutschland unklar, welche Behörde für die Einhaltung des AI Act zuständig sein wird. Diskutiert werden die Bundesnetzagentur, die Datenschutzkonferenz oder das BSI. Diese Unsicherheit macht es nicht leichter, aber sie entbindet dich nicht von der Pflicht zur Einhaltung von Gesetzen.
Viele mittelständische Unternehmen haben keinen eigenen Datenschutzbeauftragten oder IT-Sicherheitsexpert:innen. Trotzdem musst du die rechtlichen Anforderungen erfüllen. Hier hilft externes Know-how: Spezialisierte Anwaltskanzleien, Datenschutzberater:innen oder KI-Compliance-Dienstleister können dich bei der Umsetzung unterstützen. Auch Kompetenzplattformen bieten kostenfreie Erstberatungen für Unternehmen an.
Die rechtlichen Anforderungen an KI-Tools sind komplex, aber keineswegs unüberwindbar. Entscheidend ist ein strukturiertes Vorgehen, das sowohl die Datenschutz-Grundverordnung (DSGVO) als auch den AI Act berücksichtigt, da beide Regelwerke parallel gelten und beachtet werden müssen. Eine frühzeitige und sorgfältige Planung hilft, teure Nachbesserungen und Bußgelder zu vermeiden. Dabei ist kein tiefgehendes juristisches Fachwissen erforderlich, wohl aber ein solides Grundverständnis sowie klare Prozesse und Verantwortlichkeiten im Unternehmen.
KI bietet gerade für den Mittelstand enorme Chancen, etwa durch Effizienzsteigerungen, Kostenreduktionen und bessere Entscheidungsgrundlagen. Um diese Potenziale sicher und rechtlich konform zu nutzen, ist die Investition in KI-Kompetenz und kontinuierliche Weiterbildung unerlässlich. So kann dein Unternehmen die Vorteile der Technologie voll ausschöpfen und gleichzeitig die Einhaltung der gesetzlichen Vorgaben gewährleisten.
Wie andere Mittelständler:innen KI rechtssicher und erfolgreich einsetzen, erfährst du auf dem data:unplugged Festival 2026 am 26. & 27. März in Münster. Hier teilen Unternehmen aus den Bereichen Logistik, Maschinenbau, Produktion oder Handel ihre umgesetzten Use Cases zu DSGVO-Compliance, AI Act-Implementierung und KI-Governance: von Auftragsverarbeitungsverträgen über Datenschutz-Folgenabschätzungen bis zur Mitarbeitendenschulungen. Auf der Mittelstands-Stage und weiteren vier Bühnen wird Raum für Austausch über fundierte Praxisbeispiele zu KI-Recht und Compliance geschaffen, um die Vorteile der Technologie zu verstehen und rechtssicher zu gestalten.
KI-Compliance betrifft alle Unternehmensbereiche: Für eine effektive Umsetzung ist es entscheidend, Key-Personen deines Unternehmens mitzunehmen, fortzubilden und positiv auf den Einsatz vorzubereiten. data:unplugged steht für eine breite und fundierte Wissensvermittlung - von der das gesamte Business-Team profitiert. Sicher dir jetzt ein Ticket für dich und dein Kernteam!