Quelle: KI-generiert/midjourney.com
Magazin MitbestimmungRegulierung: „Wir wollen uns gerne von der KI helfen lassen“
In der Diskussion um den Chatbot ChatGPT übersehen die meisten Menschen, wo KI ihnen schon überall begegnet. Damit die Menschen die Technik beherrschen und nicht die Technik den Menschen, braucht es dringend klare Regeln. Von Fabienne Melzer
Jahrelang wunderte sich Michael Bretschneider-Hagemes, Arbeitnehmervertreter in der Geschäftsstelle der Kommission für Arbeitsschutz und Normung, warum sich so wenige Menschen für Künstliche Intelligenz (KI) interessieren. Dann brachte das US-Unternehmen OpenAI vor gut einem Jahr ChatGPT auf den Markt, und plötzlich redete alle Welt von KI. Der Gewerkschafter nennt den medialen Hype um den Chatbot Fluch und Segen zugleich. „Ein Segen, weil KI endlich die Aufmerksamkeit bekommt, die das Thema verdient, und ein Fluch, weil sich die ganze Diskussion auf ein Produkt konzentriert.“
Denn die Welt der KI-Produkte ist mehr als ein Chatbot, der aus Datenfutter einen neuen Text kreiert. KI-Systeme ermitteln per Stimmanalyse, ob jemand schlecht gelaunt oder müde ist. Hersteller bieten an, auf Basis von Social-Media-Daten Streiks vorherzusagen. Unter dem Stichwort People Analytics können Systeme die Leistungen von Beschäftigten vorhersagen, und viele Menschen sitzen diesen Systemen am Arbeitsplatz längst gegenüber. Stefan Lücking, der in der Forschungsförderung der Hans-Böckler-Stiftung zahlreiche Projekte zum Thema KI und Digitalisierung betreut, nennt ein Beispiel: „Microsoft 365 verfügt inzwischen über zahlreiche Tools, die Leistungsauswertung und -steuerung im Sinne von People Analytics ermöglichen.“
Der Kulturwissenschaftler Michael Seemann, der für die Hans-Böckler-Stiftung die Auswirkungen von generativer KI wie ChatGPT auf die Arbeitswelt untersucht hat, zweifelt nicht, dass Unternehmen diese Tools auch nutzen, solange es der rechtliche Rahmen ermöglicht. Seemann fällt es auch nicht schwer, sich Missbrauch auszumalen. „Firmen wie Amazon geben viel Geld dafür aus, herauszufinden, ob Beschäftigte sich organisieren“, sagt Seemann. „Das geht mittels automatisierter Kommunikationsüberwachung mit Large Language Models wie ChatGPT zukünftig noch besser.“ Fragen nach Missbrauch, Urheberrecht und dem riesigen Energiehunger der KI hält er in der Diskussion für unterbelichtet.
Die Europäische Union hatte das Problem früh erkannt und arbeitet seit etwa zwei Jahren an einer Verordnung, die den Umgang mit KI sicher machen soll. Der DGB begrüßte die Initiative der Kommission 2021. Doch der europäische Vorstoß rief schnell die Lobbyisten der Tech-Unternehmen auf den Plan. Oliver Suchy, Abteilungsleiter Grundsatz und Gute Arbeit beim DGB in Berlin, fürchtet, dass das Gesetz am Ende Schlupflöcher so groß wie Scheunentore haben könnte. „Ursprünglich ist die Arbeitswelt als Hochrisikobereich definiert worden, für den besondere Transparenzanforderungen gelten. Das sollte auch so bleiben, denn wir müssen wissen, was in der KI steckt“, sagt Suchy. „Hoch problematisch ist jedoch, dass diese Einstufung mit der Wahrscheinlichkeit erheblicher Risiken einzelner Anwendungen verknüpft werden soll.“ Das könne aber niemand vorhersagen und müsse im betrieblichen Kontext entschieden werden. Daher fordert der DGB Transparenzpflichten für KI in der Arbeitswelt und eine Öffnungsklausel für Regelungen auf nationaler Ebene. „Diese Öffnungsklausel muss für alle KI-Anwendungen in der Arbeitswelt gelten“, so Suchy. Zudem hätten arbeitsrechtliche Fragen in der Verordnung nichts zu suchen.
Kunst oder KI
Denn auch wenn die Unternehmen den Gewerkschaften gerne unterstellen, sie würden die Entwicklung abwürgen wollen, ist das Gegenteil der Fall. Wo KI menschliche Arbeit unterstützt, begrüßt Matthias von Fintel, bei der Gewerkschaft Verdi unter anderem für Journalismus und Film zuständig, ihren Einsatz. „Wir wollen uns gerne von KI helfen lassen, wir wollen uns aber nicht von ihr bestimmen lassen“, sagt von Fintel. Aus diesem Grund fordert die Gewerkschaft für die Schauspielerei ein Moratorium für den Einsatz von KI. Beschäftigte der Branche weltweit fürchten, zukünftig vollständig durch KI ersetzt zu werden. Sychronsprechen ist eine anerkannte künstlerische Leistung und könnte doch schon heute von KI übernommen werden. Während Sprecherinnen und Sprecher sich an die Lippenbewegung der Darsteller anpassen, passt die KI die Lippenbewegung an. Im nächsten Schritt könnte ein Schauspieler eine KI ein paar Tage trainieren, die anschließend seinen Job übernimmt. „Die Entwicklung betrifft alle Gewerke am Filmset“, sagt von Fintel. „Deshalb unterstützten so viele den Streik der Schauspielerinnen und Schauspieler in den USA.“ In Verlagen hat sich der Einsatz generativer KI schon länger etabliert. Nachrichten und Bilder, die von KI erzeugt wurden, müssen gekennzeichnet werden, findet daher von Fintel. „Und es muss Konsequenzen haben, wenn sie nicht gekennzeichnet sind.“
Mehr Fake News
Mit dem Einsatz generativer KI wächst die Gefahr von Fake-Informationen. „KI kann solche Prozesse automatisieren und unbegrenzt und viel gezielter verbreiten“, sagt Michael Seemann. Auch ohne Manipulationen sind die Ergebnisse der Large Language Models (LLM) mit Vorsicht zu genießen. Sofort nach Einführung wurde klar, dass ChatGPT nicht immer zuverlässig antwortet. Fast ein bisschen menschlich reagiert das System, wenn es keine passende Antwort hat: Es erfindet Fakten und Quellen. „ChatGPT hat kein Verständnis von Wahrheit“, sagt Seemann. „Das System wurde darauf trainiert, überzeugend klingend zu antworten.“ Den größten Teil der Arbeit muss also weiter der Mensch erledigen: prüfen, ob der Inhalt stimmt. Insofern könnten gesicherte Informationen in Zukunft wertvoller werden und die Gesellschaft spalten in jene, die sie sich leisten können, und jene, die es nicht können.
Doch der digitale Graben hat sich längst geöffnet. Derya Gür-Seker, Professorin an der Hochschule Bonn-Rhein-Sieg, beobachtet ein starkes Gefälle zwischen denen, die digitale Fähigkeiten besitzen, und denen, die sie nicht haben und die sie sich auch nicht aneignen können. Sie interessiert nicht nur die Technik, sondern auch die Frage: Wie können wir möglichst viele Menschen in die Lage versetzen, mit dieser Technik umzugehen, sie zielgenau einzusetzen und kritisch zu reflektieren? Könnte die Wissenschaftlerin frei wünschen, würde sie schon in der Kita mit digitaler Bildung beginnen. Realistischer sei aber die Grundschule, doch dafür müsse das Thema erst einmal ins Lehramtsstudium aufgenommen werden. „Momentan ist es eher ein Glücksfall, ob ich das Wissen vermittelt bekomme“, sagt Gür-Seker. Eine Zeit lang müsste das Wissen daher parallel in Schulen, Universitäten und am Arbeitsplatz vermittelt werden. Dabei sieht sie vor allem Gewerkschaften in der Rolle, die Beschäftigten auf den Umgang mit KI vorzubereiten. „Arbeitgeberinteressen decken sich nicht immer mit den Interessen der Beschäftigten, welches Wissen sie brauchen“, sagt die Expertin für digitale Kommunikation.
Den Beschäftigten ist durchaus klar, dass sie dieses Wissen brauchen. In der Studie von Michael Seemann gaben mehr als 60 Prozent an, dass sie für den Einsatz von Systemen wie ChatGPT eine Schulung benötigen. Angst davor, von der Technik ersetzt zu werden, hatten ältere Beschäftigte seltener als jüngere. Bei den unter 25-Jährigen fürchten immerhin gut 30 Prozent, dass ChatGPT ihren Arbeitsplatz gefährdet, bei den über 56-Jährigen nur etwa 15 Prozent.
Entwertung von Arbeit
Stefan Lücking von der Forschungsförderung der Hans-Böckler-Stiftung sieht noch eine andere Gefahr: die der Entwertung von Arbeit. „Arbeiten, die bisher von ausgebildeten Fachleuten erledigt wurden, übernehmen zukünftig Ungelernte unter Anleitung von KI“, sagt Lücking. Bei Speditionen gibt es diese Entwicklung bereits. „Lkw sind heute rollende Rechenzentren“, sagt Lücking. Mithilfe der gesammelten Daten können sie die beste Route und die Verteilung der Ladung selbst bestimmen. „Der Fahrer braucht dann nur noch einen Lkw-Führerschein und kein Wissen mehr über die Strecke, kleinere Reparaturen oder die Ladung“, sagt Lücking. Während Beschäftigte hier den Einsatz von KI vor allem als Autonomieverlust erleben, kennt Lücking auch Beispiele, in denen sie ihn als Entlastung empfanden. „Das waren allerdings Betriebe mit guter Mitbestimmung“, sagt Lücking.
Auch deshalb setzt sich Michael Bretschneider-Hagemes dafür ein, dass Gewerkschaften bei den Normen hinter der KI-Verordnung der EU mitreden. „Wir machen Eingaben bei den Konsultationen und bei den für uns wichtigsten Normungsgremien“, sagt der Arbeitnehmervertreter in der Kommission. Denn es gilt, gemeinsam mit anderen Vertretungen der Zivilgesellschaft gegen die geballte Kraft der KI-Lobbyisten anzutreten. Sie versuchen nicht nur, den Anforderungskatalog an KI-Systeme aufzuweichen, sondern auch die zugrunde liegende KI-Definition zu verwässern. „Im Entwurf war KI noch sehr breit definiert, jetzt soll sie sich – je nach Ausgang der Verhandlungen – im Kern auf Maschinelles Lernen beschränken. Damit fielen im ungünstigsten Fall viele Tools der Personalsteuerung durch People Analytics aus dem Geltungsbereich heraus“, sagt Bretschneider-Hagemes.
Er sieht aber durchaus mehrere Stellen, um den Hebel für die Beschäftigteninteressen anzusetzen. Wenn KI etwa die Gefühlslage von Beschäftigten in Dienstleistungsberufen misst und gegebenenfalls als Teil der Zielerreichung bewertet, könnte das ein Eingriff ins Persönlichkeitsrecht sein. Eine KI-Verordnung ist dennoch wichtig, auch damit Betriebsräte, ergänzend zum Betriebsverfassungsgesetz, etwas in der Hand haben, mit dem sie argumentieren können, wenn die KI nicht den Anforderungen genügt.
Menschen über- und unterschätzen sich
Dabei muss der Gesetzgeber mit der fortschreitenden Entwicklung mithalten. Wie schnell sich Künstliche Intelligenz entwickeln wird, lässt sich kaum vorhersagen. Kulturwissenschaftler Seemann attestiert den Menschen eine Neigung, die eigene Intelligenz zu über- und gleichzeitig zu unterschätzen. „Die Menschen sind immer wieder erstaunt, was die KI alles kann, um dann doch wieder festzustellen, was der Mensch besser kann“, sagt Seemann. So können die neuen Chatbots sehr empathisch antworten, aber sie scheitern daran, die Wörter in einem Satz zu zählen, und auch für intelligente Roboter ist es noch eine Herausforderung, eine Flasche Wasser aufzuschrauben.
KI-Wissen:
Das Institut für Mitbestimmung und Unternehmensführung der Hans-Böckler-Stiftung (I.M.U.) hat im Mitbestimmungsportal auf einer Seite Infos und Material zum Thema KI zusammengestellt. Hier erklären unter anderem Videos, was automatisiertes Personalmanagement bedeutet, und Porträts zeigen, wie Betriebsräte den Umgang mit KI regeln.
Studie:
Michael Seemann: Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft. Working Paper der HBS-Forschungsförderung, Nr. 304, September 2023