top of page

“Man muss die Künstliche Intelligenz als Assistenten verstehen”

Aktualisiert: 7. Apr. 2023

Künstliche Intelligenz und ChatGPT verändern jetzt gerade unsere Arbeit und sind fester Bestandteil unseres Bildungsprogramms. Welche Möglichkeiten eröffnen diese Technologien bei der Interessenvertretung – und worauf müssen wir achten?


Im ersten Teil unserer Interviewreihe sprachen wir mit Guido Brombach – er ist Mediendidakt der IG Metall, Experte für künstliche Intelligenz und Digitalisierung und ist Mitglied im Handlungsfeld Medial (Medien, Digitale Infrastruktur und Anwendungen in der Lernumgebung) im IG Metall Bildungszentrum in Sprockhövel.


Guido hat uns die Funktionsweise einer Künstlichen Intelligenz erklärt und verdeutlicht – so richtig intelligent ist diese Technologie dann doch gar nicht. Und schon gar kein Allheilmittel. Aber hilfreich, wenn man weiß, worauf man achten muss. Einige der Fragen, die wir Guido gestellt haben, haben wir im Vorfeld wieder von ChatGPT entwickeln lassen und einmal mehr die Erfahrung gemacht: Es geht doch nichts über den Austausch zwischen zwei Menschen. Die kritische Distanz und „Tiefe“ der Antworten sprechen für sich – und haben bei uns dazu geführt, dass wir uns dann im Gespräch immer wieder gerne vom Fragekatalog entfernt haben…

Redaktion: Guido, du bist Experte für Digitalisierung und die Transformationsprozesse, die damit einhergehen. Welche Veränderungen hast du in den letzten Jahren beobachtet?


Guido Brombach: Ich habe 20 Jahre lang beim DGB Bildungswerk in Hattingen politische Bildung zu der Frage gemacht, wie das Internet die Gesellschaft verändert und da hab ich vor allem nach Möglichkeiten gesucht, wie man im Seminarraum den Spagat zwischen Softwareschulung auf der einen Seite und dem Blick auf die gesellschaftlichen Veränderungsprozesse, die dadurch angestoßen werden, auf der anderen Seite, schafft. Das ist tatsächlich sehr herausfordernd und hat sich im Laufe der Zeit auch sehr verändert. Anfang der 2000-er war es so, dass man etwas in der politischen Bildung anbot und die Kolleg:innen eigentlich nur wissen wollten, wie man das Internet bedient. Vor 10 Jahren wurde das anders, da fingen die Kolleg:innen an sich dafür zu interessieren, was das Internet für eine Wirkung auf uns als Gesellschaft hat. Um diese beiden Pole vereinen und „lernen“ zu können, war mir als Pädagoge klar, dass es dafür eine persönliche Betroffenheit braucht. Die müssen wir im Seminarraum herstellen.

Redaktion: Vor allem das Thema Künstliche Intelligenz (KI) sorgt im Moment für Furore – inwiefern fühlen sich Menschen davon betroffen?

Guido Brombach: Die Betroffenheit geht aktuell vor allem in die Richtung: „Oh Gott, was werden da für Jobs ersetzt? Was werden diese KI‘s machen, was ich dann nicht mehr machen kann?“. Eine nachgelagerte Sorge ist die Frage, auf wessen Datenbasis das passiert und natürlich, ob wir diesen Systemen vertrauen können. Die Hauptangst der Kolleg:innen ist aber, nicht mehr gebraucht zu werden. Das betrifft mittlerweile nicht mehr nur die Maschinen bedienenden Mitarbeitenden, sondern auch diejenigen an den Rechnern, die wissensbasiert arbeiten und geglaubt haben, dass man sie nicht ersetzen kann.


Redaktion: Wie gehst du mit diesen Ängsten um?

Guido Brombach: Ich versuche sie im Seminarraum besprechbar zu machen, in dem wir konkrete Erfahrungen mit Künstlicher Intelligenz machen. Ängste sind ja meist diffus und beziehen sich auf KI als solche, an konkreten Beispielen kann man die häufig schnell entkräften. Ein ganz praktisches Beispiel: Ich habe kürzlich eine Seminareinheit zu KI erstellt und die beginnt damit, dass man gegen eine KI von Google, namens Quickdraw, malt. Da spielen wir in Teams gegen die KI und schauen dann, wie viele Zeichnungen der Teilnehmenden von der Bilderkennung erkannt wurden. Und dann fragen wir uns, wer hat sich hier an wen adaptiert. Und größtenteils sagen die Teilnehmenden, dass sie irgendwann erkannt haben, dass es nicht darum geht, detailliert zu zeichnen, sondern holzschnittartig die wichtigsten Elemente zu malen, damit diese erkannt werden. Die Menschen haben sich also an die KI angepasst, weil wir Menschen das viel schneller und besser können als jede gut trainierte KI. Es ist geradezu das Wesen des Menschen, sich schnell anpassen zu können.


Redaktion: Es gibt also immer eine Wechselwirkung?

Guido Brombach: Genau, es handelt sich bei dem genannten Beispiel um eine Mensch-Maschine-Schnittstelle. Das ist selten ein Aufeinanderzugehen. Die KI hat ein fertiges Modell, wie Dinge funktionieren. Auch wenn sie Neues hinzulernt, sie ändert ihre Wirkungsweise nicht. Das ist auch bei ChatGPT so: Wir Menschen lernen, dass je präziser ich etwas formuliere, desto besser wird das Ergebnis. Es findet also immer eine Adaption an die Maschine statt, nicht andersherum. Das ist wichtig für das Verständnis, wie das Verhältnis zwischen Maschine und Mensch einzuordnen ist und ob man vor den Auswirkungen von KI Angst haben sollte oder nicht.


Redaktion: Welche Begriffe muss man in diesem Themenbereich drauf haben?


Guido Brombach: Die Begriffe, die wir einführen, sind: Was ist ein Modell? Was ist Training? Und was ist der Output? Ein grundlegendes Prinzip, das gelernt werden muss, ist das EVA-Prinzip. Eingabe, Verarbeitung, Ausgabe. Denn das liegt auch einer KI zugrunde ­– und macht deutlich, dass es sich hier um ein mathematisches, ein „programmiertes“ Vorgehen handelt. Kein in dem Sinne intelligentes Vorgehen, wie es uns Menschen eigen ist.


Redaktion: Spannend. Apropos, ich würde dir gerne ein paar Fragen stellen, die ChatGPT auf unsere Aufgabenstellung hin entwickelt hat. Die erste Frage ist: „Wie würden Sie den aktuellen Stand der KI-Technologie und deren Anwendung in verschiedenen Branchen und Sektoren beschreiben?“

Guido Brombach: Da fällt mir ein Begriff ein, Fake AI, das ist auch der Titel eines Buches zu dem Thema aus dem Jahr 2021. In dem hat die Autorin Frederike Kaltheuner die absurde Nutzung von KI beschrieben. Zum Beispiel wurde eine KI generiert, die in der Lage war, Zukunftsperspektiven von benachteiligten Jugendlichen vorherzusehen. Was natürlich Blödsinn ist, aber so ein Projekt kann ganz viel Fördermittel generieren. Eine gewisse Technikgläubigkeit lässt uns hoffen, dass wir alles mit der KI bzw. Technik lösen können, sogar den Klimawandel. Ich denke, es gibt viele Dinge, die gar keine KI sind und wir haben viele Probleme, die man mit KI nicht lösen kann. KI wird oft zum allgemeinen Heilsversprecher, aber eben genau das ist sie nicht. Kann sie auch gar nicht sein.


Redaktion: Die nächste Frage von ChatGPT war: „Welche Vorteile bietet KI für Arbeitgeber:innen und Arbeitnehmer:innen? Wie können Gewerkschaften dazu beitragen, dass diese Vorteile in vollem Umfang genutzt werden?“


Guido Brombach: Der Vorteil einer KI liegt darin, sie als Assistent zu begreifen. KI ist Technologie, sie ist nicht dafür da, wie ein Mensch behandelt zu werden. Das ist wie die Google-Suche o.ä. – sie hilft uns, eine Lösung zu finden. Wenn ich nicht weiß, wie ich eine Excel-Liste programmiere, kann ich sie mir von ChatGPT erstellen lassen, aber ich muss trotzdem unter Umständen noch einmal Hand anlegen. Das ist es auch, was uns nervös macht, weil man sich natürlich in Universitäten und Lernanstalten fragt, was machen wir mit unseren Dozent:innen, wenn das auch die KI machen kann. Mein Ratschlag ist: Mach dir die KI zum Assistenten, zum Beispiel bei der Konzeption der Lernprozesse. Dafür ist sie total gut geeignet. Aber ersetzen kann sie uns nicht, das wäre FakeAI (englisch für „unechte KI“, Anmerkung der Redaktion).


Redaktion: Welche Risiken sind deiner Meinung nach mit der Verwendung von KI verbunden, insbesondere in Bezug auf Arbeitsplatzsicherheit, Datenschutz und ethische Fragen? Wie können Gewerkschaften dazu beitragen, diese Risiken zu minimieren?

Guido Brombach: Da würde ich sagen: Gleiche Antwort wie eben. Man muss die KI als Assistenten verstehen – und vor allem auch ein Problem nicht nur technisch, sondern vor allem sozial betrachten. Die Lösung kann nie nur technisch sein, hinter allem stehen soziale Prozesse. Ich sehe es als eine der Kernaufgaben von uns als Gewerkschaft, vor allem diese sozialen Prozesse im Blick zu behalten und miteinzubeziehen. Gerade bei neuer Technologie wie der KI. Jede Einführung einer Software steht und fällt mit der Akzeptanz durch die Arbeitnehmenden. Und wenn ich diese Akzeptanz erhöhen will, ist das Zauberwort Beteiligung.


Redaktion: Ein kollektiver Lernprozess sozusagen?


Guido Brombach: Genau. Und in Bezug auf KI kommen wir jetzt auf den wichtigen Begriff: Training. Der Mensch muss das Ergebnis der KI kontrollieren. Einer der Gründe, warum ChatGPT so beeindruckend gut ist, liegt darin, dass die Entwickler in Billiglohnländern preiswerte Arbeitskräfte eingekauft haben, um dieses System zu füllen. Ähnlich wie denen, die bei Facebook Hasskommentare entfernen. Übrigens, auch der ChatGPT wurde von vornherein so trainiert, dass bestimmte Ausdrucksweisen verboten sind.


Redaktion: Damit sprichst du eine wichtige Frage an, die jetzt allerdings von mir kommt, nicht von ChatGPT: Wie werden diese KIs gebaut bzw. angelegt? Die Erfahrungen mit ChatGPT zeigen, es passiert nicht selten, dass man manipulierte Ergebnisse bekommt und weiß es nicht einmal, weil man auch nicht überprüfen kann, wie diese Ergebnisse zustande gekommen sind. Das heißt, wir müssen eigentlich in Unternehmen eine Diskussion darüber führen, wer diese KIs trainiert?

Guido Brombach: Genau, und mit welchen Werten und mit welchen Mustern das getan wird, und welche Vielfalt wird da abgebildet. Das sind ethische Fragen, die man beantworten muss. Und die Frage ist natürlich auch, wie kriegt man das operationalisiert. Denn jeder IT-Mitarbeiter wird dir sagen, das ist ja eine KI, da können wir nicht reingucken. Aber wir können uns den Datensatz, also das Modell angucken, auf der die KI basiert. Auch das anschließende Training geschieht nicht nur als Black Box in der Maschine, sondern wird auch von Menschen vorgenommen. Die Richtlinien, nach denen Menschen die Maschine „erziehen“ müssen transparent gemacht werden. Dabei handelt es sich nicht um unverständlichen Programmcode, sondern um Richtlinien, nach denen sogenannte Content Moderator:innen entscheiden, ob es sich um eine erwünschte Antwort der KI handelt oder eben nicht. Und da sollten auch Betriebsräte involviert werden.


Redaktion:Zurück zum Fragenkatalog: Welche Fähigkeiten und Kenntnisse werden Arbeitnehmer:innen benötigen, um in einer von KI geprägten Arbeitswelt erfolgreich zu sein? Wie können Gewerkschaften und Bildungseinrichtungen diese Fähigkeiten vermitteln?

Guido Brombach: Nicht alle KIs funktionieren so wie der ChatGPT, und nicht alle erkennen wir überhaupt als KIs. Da gibt es schon im weitesten Sinne Empfehlungsalgorithmen, die in diese Kategorie fallen und die ein Modell kennen, um uns Dinge anzubieten. Das passiert zum Beispiel bei Microsoft Office 365 so. Aus meiner Sicht müssen wir die Kolleg:innen dafür sensibilisieren, dass es bereits so viele KI-Anwendungen gibt, denen wir uns nicht einmal bewusst sind. Sie sind nicht so wie ChatGPT, aber sie sind allgegenwärtig, und verdienen die Bezeichnung KI, weil sie eigenständig aus Mustern Entscheidungen ableiten. Empfehlungsalgorithmen sind da nur ein Beispiel.


Redaktion: Wenn Maschinen immer intelligenter werden, worin sollten wir als Menschen dann immer besser werden?


Guido Brombach: Wenn wir einen Prozess digitalisiert haben, haben wir ihn berechenbar gemacht, und damit standardisiert. Ein Beispiel sind Partnerbörsen. Das ist ein total menschliches Thema, nämlich, „ich suche mir eine:n Partner:in“, komplett digitalisiert worden. Aber die Maschine macht das komplett anders als der Mensch. Die löst das Problem über Mathematik. ChatGPT genauso, dort hat man eine Berechnung dafür gefunden, wie Sprache funktioniert. Irgendwann sind diese mathematischen Konstrukte, die da genutzt werden, nicht mehr nachvollziehbar, das beruht am Ende auf Wahrscheinlichkeiten und Konditionierung (Verstärkung von gewünschten Verbindungen im Modell). Aber inhaltlich passiert da wenig, das ist etwas, was wir als Menschen da hineininterpretieren.

Frage: Also müssen wir Menschen sehr genau wissen, was wir wollen, um die KI richtig zu steuern und zu nutzen?


Guido Brombach: Genau. Je enger das Anwendungsgebiet eingegrenzt ist, desto besser sind die Ergebnisse der KI. ChatGPT ist natürlich ein bisschen der Beweis für das Gegenteil, eine eierlegende Wollmilchsau, die sich in allem auskennt. Aber letztendlich macht sie das nur auf der Basis dessen, was das Internet bis Ende2021 so hergegeben hat. Wir haben ja hier keine aktuellen Daten. Das müssen Menschen wissen und bei der Bedienung und Bewertung der Ergebnisse beachten.


Redaktion: Und zum Abschluss: Was rätst du als Referent unseren Betriebsräten zum Thema KI: Worauf sollten sie sich persönlich vorbereiten – und worauf als Gremium. Sollte jedes Gremium z.B. eine:n eigenen Expert:in ausbilden? Und wenn ja, wie und wo sollten sie anfangen?

Guido Brombach: Statt eines Expertentums wäre ich immer dafür grundsätzliche Funktionsweisen verstehen zu können. Den oder die externe:n Expert:in kann das Gremium bei solchen Fragen jederzeit als Sachverständigen zurate ziehen.

Guido, vielen Dank für das Gespräch.


Zur Person Guido Brombach hat zwischen 2000 und 2019 für das DGB-Bildungswerk im Bildungszentrum in Hattingen verschiedene Seminartypen rund um die digitale Transformation verantwortet, konzipiert und durchgeführt. In dieser Zeit hat er einschlägige Erfahrungen mit dem Einsatz digitaler Medien in Präsenzseminaren gemacht, die er seit 2019 im Bildungszentrum Sprockhövel als Mediendidakt einbringt. Guido interessiert sich u.a. besonders für die Themen, Mediendidaktik (Lernen mit und im Digitalen), Digitalisierung und Transformation sowie Künstliche Intelligenz und Gewerkschafts- und Gesellschaftspolitik.


Comments


bottom of page