KI-Tools werden im Arbeitsalltag immer selbstverständlicher. Viele Beschäftigte setzen ChatGPT für Recherchen, Textentwürfe oder strukturelle Unterstützung ein. Doch: Was ist rechtlich erlaubt? Wo liegen Risiken? Dieser Beitrag fasst die wichtigsten Punkte praxisnah zusammen.
Grundsätzlich dürfen Beschäftigte KI nutzen – aber nicht grenzenlos
Beschäftigte dürfen Hilfsmittel einsetzen, die im Betrieb verfügbar sind.
Dazu gehören traditionell:
- Textbausteine,
- Vorlagen,
- Musterschreiben,
- interne Datenquellen.
Diese Grundsätze lassen sich auch auf KI-Tools übertragen.
ABER: Es dürfen keine vertraulichen oder personenbezogenen Informationen in externe Systeme hochgeladen werden.
Arbeitgeber können KI-Nutzung erlauben oder verbieten
Im Rahmen des Direktionsrechts kann der Arbeitgeber:
- Nutzung gestatten,
- Nutzung einschränken,
- Nutzung vollständig verbieten.
Typische Gründe für ein KI-Verbot:
- Datenschutzrisiken,
- Urheberrechtsfragen,
- Sicherheitsbedenken,
- Gefahr von Fehlinhalten („Halluzinationen“).
Haftung bleibt beim Beschäftigten
Wichtig und oft unterschätzt:
Wer KI nutzt, ist für das Ergebnis verantwortlich.
Fehlerhafte Inhalte, unzutreffende Aussagen oder ausgelöste Rechtsverletzungen fallen grundsätzlich in den Verantwortungsbereich der Beschäftigten.
Differenziert wird je nach Fahrlässigkeit:
- einfache Fahrlässigkeit → keine Haftung
- mittlere Fahrlässigkeit → Haftung begrenzt
- grobe Fahrlässigkeit → volle Haftung
Nutzung ohne Wissen des Arbeitgebers kann heikel werden
Rund die Hälfte der Nutzer verwenden ChatGPT beruflich — viele ohne Wissen des Arbeitgebers.
Problematisch ist das insbesondere dann, wenn:
- Verbote existieren,
- technische Sperren umgangen werden,
- private Geräte genutzt werden,
- vertrauliche Daten preisgegeben werden.
Das kann arbeitsrechtliche Konsequenzen haben.
Schulungspflicht nach der KI-Verordnung (AI Act)
Dieser Punkt ist neu und ist seit 2025 besonders wichtig.
Die EU-Verordnung über künstliche Intelligenz (AI Act) sieht in Artikel 4 ausdrücklich vor, dass Unternehmen ihre Mitarbeitenden schulen müssen, wenn im Betrieb KI-Systeme eingesetzt werden. Das umfasst:
- die Funktionsweise der eingesetzten KI,
- Risiken für Datenschutz und Grundrechte,
- mögliche Fehlentscheidungen (Bias, Halluzinationen),
- sicherheitsrelevante Aspekte,
- verantwortungsbewusste Nutzung und Aufsicht.
Seit dem 2. Februar 2025 gilt diese Verpflichtung verbindlich für alle Unternehmen – unabhängig von der Größe.
Das bedeutet:
- Beschäftigte dürfen KI-Tools wie ChatGPT nur dann rechtssicher nutzen, wenn sie zuvor ausreichend geschultwurden.
- Unternehmen müssen interne Vorgaben und Schulungsprogramme erstellen, die KI-Kompetenz vermitteln.
- Die Pflicht betrifft jede Person, die ein KI-System nutzt, einbettet oder mit dessen Ergebnissen arbeitet – also auch typische Büroarbeitsplätze.
Konsequenz:
Unternehmen müssen jetzt nicht nur Regeln schaffen, ob KI genutzt werden darf, sondern auch sicherstellen, wie sie genutzt wird. Ohne Schulung können Fehlentscheidungen, Datenschutzverstöße oder Diskriminierungsrisiken entstehen – die Arbeitgeber rechtlich verantworten müssen.
Bewerbungsphase: KI-Nutzung erlaubt, aber riskant
Bewerberinnen und Bewerber dürfen ChatGPT & Co. für ihre Unterlagen nutzen.
Sie müssen jedoch damit rechnen, dass:
- sprachliche Diskrepanzen auffallen können,
- ein ChatGPT-Stil negativ auffällt.
Offenlegen müssen sie den Einsatz nicht.
Fazit
Der Einsatz von KI-Tools wie ChatGPT kann die Arbeit erheblich erleichtern – setzt aber rechtssichere Rahmenbedingungen voraus. Beschäftigte müssen die Vorgaben des Arbeitgebers beachten und Ergebnisse kritisch prüfen. Unternehmen müssen klare Regeln schaffen und sind inzwischen zusätzlich verpflichtet, ihre Mitarbeitenden im Umgang mit KI zu schulen.