Quelle: HBS
Böckler ImpulsDigitalisierung: Gläserne Beschäftigte
Die zunehmende Erfassung und Auswertung von Personaldaten birgt Missbrauchspotenzial. Um Beschäftigte zu schützen, bedarf es handlungsfähiger Arbeitnehmervertretungen.
Die Vermessung von Arbeit hat eine lange Tradition. Bereits zu Beginn der Industrialisierung wurden Methoden entwickelt, um das Verhalten und die Leistung von Arbeitenden zu erfassen. Doch Ford oder Taylor konnten damals nicht einmal ahnen, welche neuen und weitreichenden Möglichkeiten sich heute, im Zeitalter der Digitalisierung, ergeben. Mithilfe künstlicher Intelligenz (KI) können große Datenmengen in Echtzeit ausgewertet werden. Die systematische, auf Algorithmen basierende Analyse von Personaldaten wird unter dem Schlagwort People Analytics zusammengefasst. Aus der Sicht des Managements soll sie dabei helfen, die Arbeitsabläufe zu verbessern, die Produktion zu steigern oder die Kosten zu senken. Doch was macht es mit den Beschäftigten, wenn sie potenziell einer permanenten Kontrolle durch KI ausgesetzt sind? Je nachdem, wie die neuen Technologien eingesetzt werden, droht ihnen ein Verlust an Autonomie, Kompetenz und sozialer Interaktion. Zu diesem Ergebnis kommen Wissenschaftler und Wissenschaftlerinnen des Alexander von Humboldt Instituts für Internet und Gesellschaft in Berlin, der Hochschule für Technik und Wirtschaft in Berlin und des FZI Forschungszentrums Informatik in Karlsruhe. Die Analyse basiert auf einer Auswertung des aktuellen Forschungsstandes in den Wirtschaftswissenschaften und der Informatik.
People Analytics nutzt teilweise anonymisierte, teilweise jedoch auch personenbezogene Daten – zum Beispiel, um vorherzusagen, welcher Bewerber oder welche Bewerberin für eine Stelle besonders geeignet ist. Auch Gehaltsdaten können ausgewertet werden, um festzustellen, ob es bei der Bezahlung im Unternehmen gerecht zugeht. Das klingt zunächst harmlos und kann durchaus im Interesse der Beschäftigten sein. Die konkreten Auswirkungen hängen davon ab, wie People Analytics eingesetzt und gestaltet wird. So kann beispielsweise ein System zur automatisierten Schichtplanung den Beschäftigten das Gefühl geben, dass ihre Interessen besser berücksichtigt werden, als wenn ein Mensch die Planung vornimmt – wenn die Kriterien nachvollziehbar sind. Ist das System hingegen intransparent oder berücksichtigt es die Wünsche der Beschäftigten nicht, kann das die wahrgenommene Autonomie einschränken. Hier liegt oft das Problem: In vielen Fällen bleibt unklar, wie die im Hintergrund arbeitenden Algorithmen zu ihren Ergebnissen kommen. Selbst Führungskräfte haben oft keinen Einblick.
Newsletter abonnieren
Alle 14 Tage Böckler Impuls mit Analysen rund um die Themen Arbeit, Wirtschaft und Soziales im Postfach: HIER anmelden!
Mitbestimmen bei ChatGPT & Co.
In Unternehmen kommen zunehmend auf künstlicher Intelligenz basierende Systeme wie ChatGPT und Microsoft CoPilot zum Einsatz. Das verändert den Arbeitsalltag der Beschäftigten erheblich – und stellt damit auch eine Herausforderung für die Mitbestimmung dar. Es geht um Themen wie Qualifizierung, Überwachung, Datenschutz, Leistungskontrolle, Arbeitsverdichtung, Gesundheitsbelastung, Algorithmen zur Personalauswahl und vieles mehr.
Eine neue I.M.U.-Studie unter Mitarbeit des HSI zeigt am Beispiel von vier Unternehmen, wie sich Betriebsräte in der Praxis der komplexen Materie annehmen. In der Regel in enger Zusammenarbeit mit den Datenschutzbeauftragten, externen Expertinnen und Experten und der Geschäftsführung.
Jonas Grasy, Bettina Seibold, Ernesto Klengel: KI und algorithmische Systeme verstehen, bewerten und begrenzen, Mitbestimmungspraxis Nr. 59
Die vermeintliche Objektivität algorithmischer Entscheidungen erschwere es, Handlungsempfehlungen nachzuvollziehen oder anzufechten, so die Forschenden. Besonders problematisch sei es, wenn man sich zu sehr auf solche Systeme verlässt und die Ergebnisse nicht ausreichend hinterfragt. Neben Fehlern oder Ungenauigkeiten könne dies auch zu einem Verlust an Kompetenzen führen. „Wenn in Organisationen Daten und Analysen mehr Wert beigemessen wird als eigenen Beobachtungen, Intuition und Erfahrungswissen, entwertet dies die menschliche Kompetenz“, schreiben die Forschenden.
Der Einsatz von People Analytics könne außerdem bewirken, dass sich Beschäftigte von ihrer Arbeit und ihrer Organisation entfremden oder sich weniger wertgeschätzt fühlen. Ein zunehmender Fokus auf Quantifizierung und Leistungsmessung in Organisationen könne zu Konkurrenzdenken und weniger kollegialem Verhalten in der Belegschaft führen. Hinzu komme, dass soziale Interaktionen, die offline stattfinden, für People-Analytics-Systeme schwer zu erfassen sind, sodass typischerweise der E-Mail-Verkehr als Metrik berücksichtigt wird. Ein Gespräch auf dem Flur könne dadurch abgewertet werden.
Sensible Arbeitnehmerdaten sind in Deutschland durch das Bundesdatenschutzgesetz besonders geschützt. Zudem unterliegen sie der Mitbestimmung durch den Betriebsrat. Hier liegt aus Sicht der Forscherinnen und Forscher auch ein wichtiger Ansatzpunkt: „Die frühzeitige und umfassende Einbindung der Arbeitnehmervertretungen spielt eine wichtige Rolle, denn sie verhandeln die Technologie im Interesse der Beschäftigten.“
Sonja Köhne, Miriam Klöpper, Georg von Richthofen, Hendrik Send: Autonomer dank Algorithmen? People Analytics aus Perspektive der Selbstbestimmung, WSI-Mitteilungen 1/2024