Quelle: HBS
Böckler ImpulsKünstliche Intelligenz: Mitsprache von Anfang an
Damit KI-Systeme in der Personalpolitik kein Unheil anrichten, sollten Beschäftigte am gesamten Entwicklungs-, Einführungs- und Anwendungsprozess beteiligt werden.
Sogenannte Künstliche Intelligenz (KI) ist mittlerweile in der Lage, Kunstwerke zu generieren, Unterhaltungen zu führen oder Jura-Prüfungen zu bestehen. Dass man ihr auch in der Arbeitswelt zunehmend Aufgaben anvertraut, dürfte da kaum überraschen. Tatsächlich nutzen manche Unternehmen bereits Programme, die Lebensläufe von Bewerberinnen und Bewerbern auswerten, die Schichtplanung übernehmen, Beschäftigte für Weiterbildungen, Beförderungen oder Entlassungen auswählen. In einer von der Hans-Böckler-Stiftung geförderten Studie haben sich Anne Mollen und Lukas Hondrich von der Nichtregierungsorganisation AlgorithmWatch mit automatisierter Entscheidungsfindung im Personalwesen befasst, die oft auch als KI bezeichnet wird. Ihrer Einschätzung zufolge ist es nötig, dass Beschäftigte und Betriebsräte sich mit entsprechenden Systemen intensiv und durchgängig auseinandersetzen, damit ihre Interessen nicht zu kurz kommen.
KI in Form von „Maschinellem Lernen“, wie sie bereits im Personalbereich zum Einsatz kommt, laufe darauf hinaus, komplexe Muster in existierenden Daten zu identifizieren und auf dieser Basis Prognosen zu stellen, erklären Mollen und Hondrich. Wenn aus diesen automatisierten Prognosen Personalentscheidungen abgeleitet werden, habe das weitreichende Konsequenzen für die Beschäftigten: Die Intransparenz der Entscheidungsfindung mache es ihnen schwer, sich zum Beispiel gegen Fehlentscheidungen oder Diskriminierung zu wehren, und vergrößere das Machtungleichgewicht zwischen Management und Belegschaft. Die Beschäftigten hätten keine Möglichkeit nachzuvollziehen, ob die Entscheidungen ihre Interessen angemessen berücksichtigen.
Tatsächlich habe die Politik dieses Problem erkannt, heißt es in dem Papier. Im Entwurf der EU-Kommission für eine KI-Richtlinie werden Anwendungen, die sich auf Personalentscheidungen beziehen, als Hochrisiko-Systeme eingestuft. Das heißt: Die Anbieter solcher Programme sind verpflichtet, gewissen Transparenzvorgaben einzuhalten. Diese Vorschriften beschränken sich allerdings auf die Markteinführung und gelten nur für die Anbieter, aber nicht für die Unternehmen, die diese Systeme dann nutzen, kritisieren die Expertin und der Experte. Daher seien solche risikobasierten Ansätze zwar ein erster Schritt in die richtige Richtung. In einem zweiten Schritt müssten aber die Risiken in der betrieblichen Praxis fallweise kontrolliert und im Idealfall auch die Interessen der Beschäftigten berücksichtigt werden. Und das gehe nicht ohne Mitbestimmung der Beschäftigten.
Betriebsräte sollten früh mitreden
Mollen und Hondrich beschreiben in ihrer Analyse fünf Phasen, in denen es sinnvoll ist, dass sich Beschäftigte und ihre Betriebsräte einbringen. Bei der Problemdefinition geht es zunächst darum, Aufgaben und Ziele einer KI-Anwendung zu definieren. Dabei mitzureden sei besonders wichtig, weil hier fundamentale Fragen verhandelt werden, die weitreichende Folgen für die innerbetrieblichen Machtverhältnisse haben können. Wenn beispielsweise der interne Jobmarkt automatisiert werden soll, werde Wissen über Einstellungs- und Beförderungspraktiken in einem Unternehmen zentralisiert, das vorher über viele verschiedene Beteiligte verteilt war, und ein Informationsungleichgewicht geschaffen, das die Verhandlungsposition der Arbeitnehmerinnen und Arbeitnehmer schwächt. In dieser Phase sollten die Anwendung und insbesondere ihre Grenzen sehr klar definiert werden, um zu vermeiden, dass die Systeme später für Zwecke eingesetzt werden, für die sie nicht ausgelegt sind. So wäre denkbar, dass ein System, das nur statistische Zusammenhänge zwischen bestimmten Datenpunkten identifizieren soll, später auch genutzt wird, um Kausalitäten abzuleiten. Dass in der Vergangenheit vor allem Männer in einem IT-Unternehmen zu Einstellungsgesprächen eingeladen wurden, könnte dann dazu führen, dass nur Männer in die engere Personalauswahl einbezogen werden.
Auf die Daten kommt es an
In der Daten-Phase steht die Datensammlung für Trainingszwecke an. Hier stellen sich der Studie zufolge Fragen vor allem zu Datenschutz und Überwachung. Existierende Kommunikationsdaten wie Mails oder Chat-Protokolle auszuwerten könne die Privatsphäre verletzen und zudem zu Verzerrungen führen, weil nicht alle diese Kanäle gleichermaßen nutzen. Ein Grundproblem bestehe darin, dass KI-Anwendungen zu verzerrten Ergebnissen neigen, wenn die Trainingsdaten selbst verzerrt sind, etwa durch diskriminierende Personalentscheidungen und ungleiche Verhältnisse in der Vergangenheit. Hier brauche es ein tiefes technisches Verständnis und unter Umständen Beratung durch Expertinnen und Experten.
Im Rahmen des Modell-Trainings ermittelt die KI die mathematische Funktion, die am besten dem definierten Zweck entspricht. Während dieser Phase zeige sich, ob etwaige Verzerrungen aus den Datensätzen und der Programmierung auf die Ergebnisse abfärben, so Mollen und Hondrich. Das sollte die Beschäftigtenseite genau im Auge behalten. Zudem sei es technisch möglich, die Interessen der Beschäftigten gezielt in den KI-Algorithmus einzuspeisen. Die Zielfunktion lasse sich beispielsweise so kalibrieren, dass bei Stellenbesetzungen neben der Eignung auch die persönlichen Interessen und Karriereziele von Beschäftigten berücksichtigt werden.
Mehr Hören
Die Digitalisierung hat eine prosperierende Plattformökonomie entstehen lassen. Die Herausforderungen für Beschäftigte und Gewerkschaften erläutert HSI-Direktorin Johann Wenckebach am Beispiel von Lieferando im Podcast.
Auch nach dem Training, bei der Anwendung in der Praxis und dem Retraining, brauche es Vorkehrungen gegen Fehlentwicklungen, so die Fachleute von AlgorithmWatch. Zentraler Ansatz dafür sei die regelmäßige Kontrolle, ob sich schädliche Muster bei den Resultaten abzeichnen. Ein weiteres Einfallstor für Willkür ergebe sich dann, wenn die Umsetzung der Empfehlungen der KI in der Hand von Menschen liegt. Hier seien klare Regeln nötig, wann Personalverantwortliche von diesen Empfehlungen abweichen können oder sollen.
Überfälliger Datenschutz
Damit Beschäftigte und Betriebsräte in der Lage sind, den nötigen Einfluss zu nehmen, wäre laut der Analyse auch der Gesetzgeber gefragt. Nötig wären demnach umfassende Transparenz-Anforderungen für KI-Systeme sowie die Förderung von KI-Weiterbildungen für Betriebsräte.
„Transparenzanforderungen alleine reichen nicht aus, sie müssen auch genutzt werden“, erläutert Stefan Lücking, Referatsleiter für den Förderbereich „Mitbestimmung und Wandel der Arbeitswelt“ der Hans-Böckler-Stiftung. „Die Anwendung von ‚Maschinellem Lernen‘ im Personalbereich ist ein komplexer Prozess, bei dem sich viele Fragen stellen, zu denen eine Mitbestimmung der Beschäftigten erforderlich ist.“
Dass die Gesetzgebung rasch auf die technische Entwicklung reagieren und dabei auch die Mitbestimmung stärken muss, unterstreicht Johanna Wenckebach. „Die Bundesregierung hat das wichtige Vorhaben, den Beschäftigtendatenschutz zu verbessern. Das ist überfällig. Damit der Schutz von Persönlichkeitsrechten in der Praxis durchgesetzt wird, ist Mitbestimmung entscheidend“, sagt die HSI-Direktorin, die auch an einem Gesetzentwurf für ein zeitgemäßes Betriebsverfassungsgesetz mitgearbeitet hat. „Der Reformvorschlag sieht deshalb unter anderem mehr Mitbestimmungsmöglichkeiten beim betrieblichen Datenschutz vor. Wichtig ist auch, mehr Instrumente für Betriebsräte zu schaffen, um gegen Diskriminierungen vorzugehen“, sagt Wenckebach.
Anne Mollen, Lukas Hondrich: From risk mitigation to employee action along the Machine Learning Pipeline, Working Paper der HBS-Forschungsförderung Nr. 278, Februar 2023