Das Wichtigste auf einen Blick
- KI hält zunehmend Einzug in Recruiting, Arbeitsorganisation und Personalprozesse. Damit steigen die Risiken: Diskriminierung nach AGG, Datenschutzverstöße, Beweislastnachteile, Haftungsthemen sowie Konflikte mit Belegschaft und Betriebsrat.
- Die EU‑KI‑Verordnung verlangt wirksame menschliche Aufsicht bei KI‑gestützten Entscheidungen im Beschäftigungskontext. Rein automatisierte Entscheidungen ohne angemessene Kontrolle sind unzulässig.
- Unternehmen sollten KI‑Tools vor dem Einsatz umfassend prüfen, Dokumentationen und Datenschutzhinweise aktualisieren, interne Richtlinien anpassen, Mitarbeiter schulen und eine robuste KI‑Governance etablieren. So lassen sich Effizienzgewinne nutzen und rechtliche Risiken minimieren.
Künstliche Intelligenz (KI) hält in rasantem Tempo Einzug in Betriebe und Personalabteilungen – von Recruiting-Tools über Tools zur Arbeitszeiterfassung bis hin zu KI-generierten E-Mails und Verträgen. Für Arbeitgeber und HR-Verantwortliche stellen sich damit ganz konkrete arbeitsrechtliche Fragen: Was ist erlaubt, wo lauern Diskriminierungs- und Haftungsrisiken und welche Mitbestimmungsrechte sind zu beachten?
Der folgende Beitrag gibt einen kompakten Überblick über zentrale Handlungsfelder und zeigt auf, wo Unternehmen jetzt aktiv werden sollten.
KI im Recruiting: AGG- und DSGVO-Fallen vermeiden
KI-gestützte Personalentscheidungen und Diskriminierungsrisiken
Im Recruiting werden zunehmend KI-gestützte Verfahren angeboten: automatisierte Screenings von Lebensläufen, Scoring-Modelle, Matching-Tools oder Videointerviews mit algorithmischer Auswertung. Diese Systeme versprechen Effizienzgewinne, bergen aber erhebliche Diskriminierungsrisiken.
Die Ursache liegt häufig in den Trainingsdaten: Sind diese historisch verzerrt (z.B. Bevorzugung einer bestimmten Altersgruppe oder eines Geschlechts), kann der Algorithmus diese Verzerrungen unbemerkt reproduzieren oder verstärken. Eine Benachteiligung aufgrund der in § 1 AGG genannten Merkmale bleibt jedoch unzulässig – unabhängig davon, ob eine menschliche oder eine algorithmische Entscheidung vorliegt. Die Verantwortung verbleibt beim Arbeitgeber; der Hinweis „Die KI war schuld“ wird arbeitsgerichtlich nicht durchgreifen.
Notwendig sind daher insbesondere:
- sorgfältige Auswahl und Prüfung der eingesetzten Tools (Angaben des Anbieters, Auditierbarkeit, Testläufe),
- dokumentierte Entscheidungskriterien und -prozesse,
- ein „human in the loop“-Ansatz: KI liefert lediglich Empfehlungen, die finale Auswahlentscheidung trifft ein Mensch. Dies ist schon vor dem Hintergrund der EU-KI-Verordnung erforderlich, die für Hochrisiko-KI-Systeme im Beschäftigungskontext eine wirksame menschliche Aufsicht („human oversight“) verlangt und vollautomatisierte Entscheidungen ohne angemessene Kontrolle untersagt.
Beweislastverteilung bei algorithmischen Entscheidungen durch KI
Im Streitfall haben Bewerberinnen und Bewerber meist keinen Einblick in die Funktionsweise der verwendeten Systeme. Zeigen sich statistische Muster (z.B. systematische Ablehnung bestimmter Gruppen), können diese als Indizien für eine Diskriminierung genügen. Das AGG sieht in diesem Fall eine Beweislastverschiebung vor: Der Arbeitgeber muss dann nachweisen, dass die getroffene Entscheidung nicht diskriminierend war.
Um hier gewappnet zu sein, sollten Unternehmen:
- nachvollziehbare, sachliche Auswahlkriterien definieren,
- den Einsatz der KI-Systeme und deren Parameter dokumentieren,
- regelmäßig prüfen, ob bestimmte Gruppen faktisch benachteiligt werden (Bias-Tests, Monitoring).
Transparenzpflichten gegenüber Bewerbern (Art. 13, 14 DSGVO)
KI-gestützte Recruiting-Tools verarbeiten regelmäßig personenbezogene Daten, teils mit Profiling-Elementen. Diese lösen spezielle Informationspflichten nach Art. 13, 14 DSGVO aus, sodass Datenschutzhinweise für Bewerbungsverfahren geprüft und ggf. angepasst werden müssen.
KI in der Arbeitsorganisation: Arbeitszeiterfassung, Kontrolle und Gesundheitsschutz
Nach der Rechtsprechung des BAG besteht eine Pflicht zur systematischen Erfassung der Arbeitszeit. Viele Unternehmen setzen hierfür digitale Systeme ein, zunehmend mit KI-Komponenten, etwa zur automatisierten Dienstplanung oder zur Prognose von Personalbedarfen.
Die Chancen liegen auf der Hand:
- effizientere Einsatzplanung und bessere Auslastung,
- automatisierte Kontrolle von Ruhezeiten und Höchstarbeitszeiten,
- flexible Arbeitszeitmodelle.
Gleichzeitig besteht die Gefahr, dass detaillierte Tracking-Daten faktisch zu einem umfassenden Leistungs- und Verhaltensmonitoring genutzt werden können – etwa über Auswertungen von Pausenverhalten, Anwesenheitsmustern oder produktivitätsnahen Kennzahlen.
Wenn ein Betriebsrat besteht, sind KI-gestützte Systeme zur Zeiterfassung und Schichtplanung stets mitbestimmungspflichtig. Dies gilt auch bei einer Anpassung bereits eingesetzter Systeme, bei denen nunmehr KI-Komponenten hinzukommen.
Da KI-gestützte Monitoring-Systeme, Echtzeit-Produktivitätsanzeigen oder Ranking-Mechanismen den Leistungsdruck erheblich erhöhen und psychische Belastungen erzeugen können, müssen Arbeitgeber solche psychischen Gefährdungen im Rahmen der durch das Arbeitsschutzgesetz vorgeschriebenen Gefährdungsbeurteilung berücksichtigen.
Praktische Ansatzpunkte:
- frühzeitige Einbeziehung von Fachkräften für Arbeitssicherheit, Betriebsarzt und ggf. Betriebsrat,
- explizite Bewertung psychischer Belastungen im Rahmen der Gefährdungsbeurteilung bei Einführung oder Änderung entsprechender Systeme,
- Begrenzung von Echtzeit-Rankings und permanenten Vergleichsansichten,
- Schulung von Führungskräften im Umgang mit Kennzahlen und Monitoring-Daten.
KI‑Tools im Unternehmen brauchen einen 360°‑Check:
technisch, datenschutzrechtlich und arbeitsrechtlich
Personalabbau, Haftung und Vertragsgestaltung im KI-Zeitalter
Kündigungsschutz bei KI-bedingtem Arbeitsplatzwegfall
Automatisierung und KI können dazu führen, dass bestimmte Tätigkeiten ganz oder teilweise entfallen. Betriebsbedingte Kündigungen setzen jedoch weiterhin voraus, dass der Beschäftigungsbedarf infolge einer unternehmerischen Entscheidung dauerhaft wegfällt und keine Möglichkeit besteht, den Arbeitnehmer auf einem anderen freien Arbeitsplatz – gegebenenfalls nach zumutbarer Einarbeitung oder Umschulung – weiterzubeschäftigen. Hinzu kommt die Pflicht zur ordnungsgemäßen Sozialauswahl unter den vergleichbaren Arbeitnehmern.
Gerade bei KI-bedingten Transformationen steht die Frage der Umschulung und Qualifizierung im Vordergrund. Unternehmen sollten frühzeitig prüfen,
- ob Arbeitnehmer auf neue, durch KI entstehende Aufgabenfelder umgeschult werden können,
- welche Weiterbildungsmaßnahmen notwendig und sinnvoll erscheinen.
Ein rein technikgetriebener Ansatz („System statt Mensch“) ohne Transformationskonzept wird im Kündigungsschutzverfahren regelmäßig angreifbar sein. Pauschale Schlagworte wie „Automatisierung“ und „KI“ genügen deshalb für die Begründung einer wirksamen Kündigung nicht. Arbeitsgerichte werden weiterhin prüfen, ob die Organisationsentscheidung tatsächlich vorliegt und ob der Arbeitsplatzwegfall schlüssig dargelegt ist. Je näher Organisationsentscheidung und Kündigung zusammenfallen, desto konkreter und genauer muss der Arbeitgeber darlegen, welche Arbeiten künftig wie erledigt werden sollen und in welchem Umfang dadurch Beschäftigungsbedarf entfällt.
Haftung für KI-Fehler: Wer trägt die Verantwortung?
In der Praxis werden KI-Tools zunehmend zur Erstellung von Texten, Auswertungen und Empfehlungen genutzt – etwa für Kundenkommunikation, interne Gutachten oder auch Vertragsentwürfe. Übernimmt ein Mitarbeiter fehlerhafte KI-Ergebnisse ungeprüft, stellt sich die Haftungsfrage.
Gegenüber Dritten haftet grundsätzlich der Arbeitgeber. Innerbetrieblich greifen die bekannten Grundsätze der Arbeitnehmerhaftung (Staffelung nach leichter, mittlerer und grober Fahrlässigkeit). Dass der Fehler auf ein KI-System zurückzuführen ist, ändert daran grundsätzlich nichts, kann aber bei der Bewertung des Verschuldens eine Rolle spielen.
Um Risiken zu minimieren, sollten Unternehmen:
- klare interne Vorgaben zum Einsatz von KI-Tools schaffen.
- die ungeprüfte Übernahme von KI-Inhalten, jedenfalls in rechtlich oder wirtschaftlich besonders sensiblen Bereichen explizit untersagen.
- Verantwortlichkeiten und Prüfschritte dokumentieren.
KI-Klauseln im Arbeitsvertrag und in internen Richtlinien
Die zunehmende Nutzung von KI erfordert auch eine Anpassung der arbeitsrechtlichen „Spielregeln“. Relevante Regelungspunkte sind etwa:
- Zulässige und unzulässige Formen der KI-Nutzung (z.B. Nutzungsverbot für nicht freigegebene Systeme, keine Eingabe von Geschäftsgeheimnissen oder personenbezogenen Daten in externe Systeme),
- Verbot oder Begrenzung der privaten Nutzung von KI-Tools während der Arbeitszeit,
- besondere Geheimhaltungs-, Datenschutz- und Compliance-Verpflichtungen im KI-Kontext.
Ein Teil dieser Vorgaben kann in Arbeitsverträgen verankert werden; vielfach sind aber IT-/Compliance-Richtlinien der geeignetere Ort, um flexibel auf technische Entwicklungen reagieren zu können. Entscheidend ist, dass diese Regelungen verständlich kommuniziert und durch Schulungen begleitet werden.
Fazit: Fünf To-dos für Arbeitgeber
Inventur:
Welche KI-Tools werden im Unternehmen bereits genutzt – insbesondere im Recruiting, bei der Erfassung der Arbeitszeit und Dienstplanung sowie in der Kommunikation (z.B. E-Mail und Dokumentenerstellung), und welche Daten verarbeiten sie zu welchen Zwecken?
Rechts-Check:
Prüfung von AGG-, DSGVO- und BetrVG-Konformität; Anpassung von Datenschutzhinweisen, Prozessen und Dokumentationen.
Regelwerke:
Entwicklung bzw. Aktualisierung von IT-/Compliance-Richtlinien, Betriebsvereinbarungen und – wo sinnvoll – arbeitsvertraglichen KI-Klauseln.
Qualifizierung:
Schulungen für HR, Führungskräfte, Mitarbeiter und ggf. Betriebsrat zu Chancen, Risiken und rechtlichen Vorgaben des KI-Einsatzes.
Governance & Monitoring:
KI-Governance etablieren und Bias-Risiken, Gesundheitsschutz, Rechtskonformität und Mitbestimmungsrechte regelmäßig überprüfen.
Wer diese Punkte systematisch angeht, kann die Vorteile von KI im Unternehmen nutzen und zugleich arbeitsrechtliche Risiken beherrschbar halten. Gern unterstützen wir Sie dabei – von der Bestandsaufnahme bis zur Umsetzung passgenauer Regelwerke.
Häufig gestellte Fragen zum Thema
-
Welche arbeitsrechtlichen Vorgaben gelten beim Einsatz von KI im Recruiting?
Unternehmen dürfen KI‑Tools im Bewerbungsprozess nutzen, müssen jedoch DSGVO‑Transparenzpflichten, AGG‑Vorgaben und Risiken aus verzerrten Trainingsdaten beachten. Entscheidend ist, dass KI‑gestützte Entscheidungen nachvollziehbar bleiben und keine vollautomatisierten Entscheidungen ohne menschliche Kontrolle getroffen werden.
-
Was müssen Unternehmen beim Einsatz von KI im Hinblick auf Datenschutz (DSGVO) beachten?
KI‑Systeme verarbeiten personenbezogene Daten, oft mit Profiling‑Elementen. Deshalb müssen Unternehmen Informationspflichten nach Art. 13 und 14 DSGVO erfüllen und ggf. Datenschutzhinweise anpassen.
-
Wann hat der Betriebsrat beim Einsatz von KI‑Tools Mitbestimmungsrechte?
Bei jeder KI‑gestützten Technologie, die Verhalten oder Leistung von Mitarbeitern überwachen kann – etwa Zeiterfassung, Dienstplanung oder Monitoring‑Systeme. Dann greift das Mitbestimmungsrecht nach dem BetrVG zwingend.
-
Welche Risiken entstehen durch KI‑Überwachung am Arbeitsplatz?
Detaillierte Tracking‑Daten und Echtzeit‑Rankings können zu verdecktem Leistungs‑ und Verhaltensmonitoring führen und psychische Belastungen erhöhen. Diese Risiken müssen in der gesetzlich vorgeschriebenen Gefährdungsbeurteilung berücksichtigt werden.
-
Wer haftet, wenn eine KI falsche Entscheidungen trifft oder fehlerhafte Inhalte erzeugt?
Haftung trifft grundsätzlich das Unternehmen – auch wenn ein Mitarbeiter fehlerhafte KI‑Ergebnisse ungeprüft übernimmt. Arbeitsrechtlich gelten die Grundsätze der Arbeitnehmerhaftung; KI ändert hieran nichts.
Dazu passende Artikel
-
Fristlose Kündigung wegen Datenlöschung ist rechtmäßig
-
Equal Pay und Gender-Pay-Gap
-
Return to Office: Rechtliche Rahmenbedingungen für die Rückkehr vom Homeoffice ins Büro
-
Eigengefährdung und Entgeltfortzahlung – Tätowierung als Ausschlussgrund?