Quelle: HBS
Böckler ImpulsArbeitsrecht: KI in den Dienst des Menschen stellen
Der zunehmende Einsatz künstlicher Intelligenz stellt das Arbeitsrecht vor Herausforderungen, unter anderem beim Daten- und Diskriminierungsschutz. Mitbestimmung wird noch wichtiger.
Schöne neue Arbeitswelt: Was künstliche Intelligenz (KI) möglich macht, dürfte manchem Arbeitgeber traumhaft vorkommen, vielen Beschäftigten eher wie ein Alptraum. Auf dem Markt ist etwa eine Software, die Videointerviews mit Bewerberinnen und Bewerbern im Hinblick auf Wortwahl, Tonfall, Mimik und Körpersprache analysiert und daraus auf Persönlichkeitsmerkmale schließt. In den USA werden Callcenter-Beschäftigte im Homeoffice per Kamera überwacht, Gespräche von einem Programm aufgezeichnet, das die Kundenstimmung und das Verhalten der Mitarbeiterinnen und Mitarbeiter in Echtzeit analysiert und entsprechende Anweisungen erteilt. Im Transportwesen messen Sensoren an LKW nicht nur ununterbrochen den Standort, das Brems- und Beschleunigungsmuster, Fahrspurwechsel, Geschwindigkeit und Anschnallverhalten, es gibt auch Kameras und Mikrofone, die Aktivitäten der Beschäftigten in der Fahrerkabine dokumentieren. Diese und ähnliche Beispiele finden sich in einem Gutachten, das Bernd Waas für das HSI verfasst hat. Darin setzt sich der Rechtswissenschaftler von der Universität Frankfurt mit den arbeitsrechtlichen Implikationen von KI-Anwendungen auseinander.
Unter KI versteht Waas in Anlehnung an eine OECD-Definition „ein maschinengestütztes System, das in der Lage ist, für bestimmte, vom Menschen definierte Ziele Vorhersagen, Empfehlungen oder Entscheidungen zu treffen, die reale oder virtuelle Umgebungen beeinflussen“. KI müsse stets mit „Big Data“ zusammengedacht werden, die Funktionsweise beruhe auf dem Erkennen von Mustern in riesigen Datenmengen.
Die Anwendung entsprechender Technologien werfe eine ganze Reihe rechtlicher Probleme auf, schreibt der Jurist. Sie bleibe etwa nicht ohne Auswirkungen auf die Frage, ob bestimmte Erwerbstätige – wie beispielsweise Clickworker – als selbstständig oder als Arbeitnehmer beziehungsweise Arbeitnehmerinnen zu gelten haben. Denn auf den Grad der „Fremdbestimmung“, der für die Beantwortung dieser Frage rechtlich relevant ist, habe KI erheblichen Einfluss: „Wer weiß (oder zumindest damit rechnen muss), dass er einer umfassenden, ins Einzelne gehenden Überwachung durch ein hochadaptives und ,intelligentes‘ System ausgesetzt ist, hat allen Grund, sein Verhalten von vornherein darauf einzurichten, die Erwartungen seines Gegenübers nach Möglichkeit nicht zu enttäuschen.“ Ein derartiger „vorauseilender Gehorsam“ sei aber nicht grundsätzlich anders zu behandeln als die „Folgsamkeit“, die sich darin zeigt, dass eine Person an Weisungen einer anderen gebunden ist.
Selbst Weisungen erteilen, also als Chef auftreten, dürfen KI-Anwendungen dem Gutachten zufolge nicht. Dazu brauche es „billiges Ermessen“, also das Abwägen von Umständen im Einzelfall, und das sei mit Automatisierung nicht vereinbar, die notwendigerweise auf Schematisierung beruht. KI-Systemen Rechtsfähigkeit zuzuerkennen, um sie für angerichtete Schäden haftbar zu machen, sei nach dem derzeitigen Stand der technischen Entwicklung ebenfalls abzulehnen. Denn es fehle ihnen die Fähigkeit zu autonomer Entscheidungsfindung. Um Haftungslücken zu schließen, solle man sich an die Menschen halten, die hinter der Entwicklung und Nutzung von KI stecken – zumal Haftung ohnehin keine verhaltenssteuernde Wirkung auf Maschinen haben könne.
Enorme Herausforderungen sieht Waas auf das Antidiskriminierungsrecht zukommen. Ein kritischer Punkt von KI-Anwendungen sei ihre Rückwärtsgewandtheit. Wenn ein Betrieb bei Einstellungen jahrelang ethnische Minderheiten oder Frauen benachteiligt hat und ein Programm Bewerbungen aufgrund der früheren Entscheidungen sortiert, würden diese Benachteiligungen zementiert oder sogar verstärkt. Zudem sei es möglich, dass KI auf statistische Zusammenhänge Bezug nimmt, die – für Menschen – erkennbar zufällig und sachlich problematisch sind. Beispielsweise gebe es Berichte über eine Software für Personalauswahl, die ihre Empfehlungen daran geknüpft hat, dass besonders qualifizierte Bewerber und Bewerberinnen auffällig oft eine bestimmte japanische Manga-Seite besucht haben – was offenkundig Menschen diskriminiere, die nicht aus Japan stammen. Mittelbare Diskriminierung durch das Abstellen auf „dem Anschein nach neutrale Vorschriften, Kriterien oder Verfahren“, wie es im Allgemeinen Gleichbehandlungsgesetz heißt, beschreibe geradezu die Funktionsweise von KI. Daher empfiehlt der Wissenschaftler, das Antidiskriminierungsrecht grundlegend umzubauen und dabei den Präventionsgedanken zu stärken. Da einzelne Betroffene angesichts der kaum nachvollziehbaren Arbeitsweise und Komplexität von KI vor Gericht oft schlechte Karten haben dürften, brauche es zudem Beweiserleichterungen und ein Verbandsklagerecht, das es Gewerkschaften ermöglicht, gegen die Diskriminierung von Beschäftigten zu klagen.
Der digitale Fortschritt bringt dem Gutachten zufolge auch das geltende Datenschutzrecht ins Wanken. Dessen Dreh- und Angelpunkt seien personenbezogene Daten, also Informationen, die sich auf identifizierte oder identifizierbare Menschen beziehen. Das Problem: Der Zugriff auf Big Data ermögliche oft Rückschlüsse auf konkrete Personen. Prinzipien für die Verarbeitung personenbezogener Daten wie Zweckbindung oder Datensparsamkeit wiederum stünden im Widerspruch zur Funktionsweise von KI. Ratsam erscheine eine präventive Regulierung, die statt am Personenbezug von Daten an den Analysemitteln ansetzt: Es brauche „Datenschutz durch Technikgestaltung“ in Form prozeduraler Vorgaben für den allgemeinen Umgang mit Daten. Auch im Datenschutz biete sich zudem ein Verbandsklagerecht an.
Der Arbeitsschutz sei insofern betroffen, als KI neue Gefährdungen mit sich bringt, erklärt Waas. Die Fremdsteuerung und Dauerüberwachung durch Software könne bei Beschäftigten ein Gefühl der Ohnmacht und des Ausgeliefertseins auslösen sowie zu Arbeitsverdichtung und -intensivierung beitragen. Das Unfallrisiko drohe dadurch zuzunehmen, dass Roboter dank KI zunehmend autonom und damit kaum vorhersehbar agieren.
Mitbestimmung, so der Rechtswissenschaftler, sei insbesondere dem Schutz der Persönlichkeit und der Menschenwürde verpflichtet. Beides erscheine angesichts der drohenden Unterwerfung von Menschen unter die Entscheidungsgewalt von Maschinen, der möglichen Manipulation und Überwachung durch KI dringlicher denn je: „Die Selbstbestimmtheit des Arbeitnehmers erfordert es, einer Leitungs- und Organisationsgewalt Grenzen zu ziehen, bei deren Ausübung Arbeitgebern heute ganz wesentlich intensiver wirkende Instrumente zu Gebote stehen.“ Betriebliche Mitbestimmung müsse sicherstellen, dass Entscheidungen stets von Menschen getroffen und verantwortet werden. Über die Neuregelungen des Betriebsrätemodernisierungsgesetzes hinaus braucht es eine echte rechtliche Modernisierung, die eine ausreichende Kontrolle von KI durch Betriebsräte sicherstellt, betrieblichen Prozessen die Sachkunde der betrieblichen Interessenvertretungen sichert und so auch die Akzeptanz von KI-Lösungen erhöht. Der Abschluss von Betriebsvereinbarungen zu KI dränge sich geradezu auf. Denn zum einen seien die Vorgaben etwa im geltenden Datenschutzrecht sehr dünn und bedürften einer Konkretisierung. Zum anderen sei die technische Entwicklung derart im Fluss, dass man „nicht auf vollumfängliche Antworten des Gesetzgebers warten sollte“.
Immerhin gebe es mittlerweile diverse Initiativen und Empfehlungen zur Regulierung von KI, unter anderem vom Europarat und von einer Enquete-Kommission des Bundestags, stellt der Jurist fest. Vergleichsweise weit gediehen sind die Bemühungen auf EU-Ebene: Die Kommission hat im April 2021 einen Vorschlag für ein „Gesetz über Künstliche Intelligenz“ vorgelegt. Geplant sind Vorgaben für „Hochrisiko-KI-Systeme“, unter anderem in Form von Qualitätskriterien für Trainingsdaten, automatischen Aufzeichnungen von Ereignissen und hinreichender Transparenz. Damit gehe die EU weltweit voran und bewege sich „alles in allem in die richtige Richtung“, urteilt Waas. Bedenklich sei allerdings, dass das geplante Gesetz nationalen Regelungen zum Schutz von Beschäftigten Grenzen setzen könnte. Zudem sei das Verhältnis zur Datenschutzgrundverordnung unklar. Problematisch sei auch, dass die Intensität der Regelung von der Risikokategorie einer Anwendung abhängen soll und letztlich auch von einer Selbsteinschätzung durch den Anbieter – ohne dass Betroffene beteiligt werden.
Bernd Waas: Künstliche Intelligenz und Arbeitsrecht, HSI-Schriftenreihe Nr. 46, September 2022