ChatGPT ist seit November 2022 kostenlos zugänglich. Eine KI in Chat-Form gab es in diesem Ausmaß noch nie. Theoretisch kann man sich mit dem Chatbot alles schreiben lassen. Bianca Prietl ist Professorin für Geschlechterforschung mit Schwerpunkt Digitalisierung. Im Interview spricht sie über die Chancen und Grenzen von ChatGPT für den Journalismus und die Lehre. Und sie erklärt, weshalb eine kritische Gender-Perspektive auf KI wichtig ist.
Zur Person: Bianca Prietl
Bianca Prietl ist seit dem 1. Januar 2023 Professorin für Geschlechterforschung mit Schwerpunkt Digitalisierung an der Universität Basel. Sie studierte in Graz Betriebswirtschaft und Soziologie, bereits mit den Schwerpunkten «Gender Studies» und «Science and Technology Studies». Nach dem Studium promovierte sie. Ihr Forschungsfeld und ihre Publikationen beschäftigen sich mit der kritisch-feministischen Technikforschung, also dem Blick auf das Verhältnis von Geschlecht und Technik.
EJO: Frau Prietl, haben Sie ChatGPT ausprobiert? Was ist Ihre Einschätzung?
Bianca Prietl: Natürlich habe auch ich ChatGPT ausprobiert, da kam man ja nicht drum herum. Und ich muss sagen, die Ergebnisse haben mich eher beruhigt. Insofern, als dass die Aufregung im universitären Kontext sehr groß war und ist. Gerade im Umgang mit der Lehre und der Frage, wie man es zukünftig schaffen kann, dass Studierende ihre Prüfungen selbst schreiben. Meine Einschätzung zu ChatGPT ist, dass es zumindest in meinem thematischen Bereich, wo wir die Studierenden auffordern, differenzierte textliche Analysen mit selbstreflektierten Elementen zu verfassen, sie das schlecht mit ChatGPT leisten könnten. Ich habe unterschiedliche Fragestellungen eingetippt, die ich selbst für ein Essay verwenden würde. Auf den ersten Blick waren die Antworten tatsächlich gut, aber wenn ich gefordert habe, bestimmte analytische Konzepte zur Anwendung zu bringen, sind die Antworten gleichermaßen oberflächlich geblieben. Aus fachlicher Sicht ist es immer bei sehr allgemeinen Aussagen geblieben. Und das würde bei einer schriftlichen Arbeit von Studierenden bestenfalls für eine sehr schlechte Note reichen.
Wenn man die Aspekte in der Leistungsüberprüfung ins Zentrum stellt, um die es meines Erachtens geht, nämlich zum einen die Verbindung von Theorie und Praxis. Und zum anderen der reflektive und selbstreflektierte Umgang damit. Dann kann das ChatGPT nicht leisten.
EJO: Irgendwie kommen die Informationen in die Antworten von ChatGPT und das durch einen bestimmten Bias. Wie kommt dieser Bias in die KI?
Bianca Prietl: Allgemein sprechen wir bei KI heute von einem Ansatz, der sich «Machine Learning» nennt. Das ist einer, der in wenigen Jahren an Fahrt gewonnen hat. Deshalb, weil wir mit der Verbreitung digitaler Technologien über ganz andere Möglichkeiten der Datengewinnung, Akkumulation und Auswertung verfügen. KI-Forschung gibt es schon lange, sie reicht weit ins letzte Jahrhundert hinein. Es gab unterschiedliche Ansätze, die alle nicht sehr erfolgreich waren. Mit der Verfügbarkeit von großen Datenmengen und der Möglichkeit, diese zu analysieren, hat die KI-Forschung dann neuen Aufschwung erfahren.
Beim maschinellen Lernen ist die Idee, dass ein Algorithmus einen riesigen Datensatz bekommt, den sogenannten Trainingsdatensatz. In diesem Trainingsdatensatz sucht er dann nach Mustern. Muster, um Regeln für das zu beobachtende Phänomen abzuleiten. Diese Regeln sollen erlauben, auch auf neue Daten angewandt zu werden, um deren Entwicklung vorherzusagen.
Das besondere von aktuellen KI-Entwicklungen ist, dass sie auch vermehrt dazu eingesetzt werden, Menschen bzw. soziale Belange beurteilen zu können. Als Beispiel die prädiktive Polizeiarbeit. Also die Einsatzplanung auf Basis davon zu machen, wo wahrscheinlich Verbrechen entstehen. Oder im «Human Resource Bereich», wenn es darum geht, Bewerbungen oder Beförderungen durchzuführen. Dort können Bewerbungs- oder Personalunterlagen von einem Algorithmus vorsortiert werden. Um zu schauen, wer ist ein geeigneter Kandidat oder eine Kandidatin? Aber auch in der Sozialhilfe oder im Bildungssystem gibt es Bemühungen der Automatisierung von Leistungsbeurteilungen beispielsweise.
EJO: Welche Probleme hat die KI noch?
Bianca Prietl: Insgesamt ist das Problem, dass zum einen Muster aus der Vergangenheit aufgegriffen werden und in die Prognosen der Zukunft fortgeschrieben werden. Und nicht nur fort-, sondern auch festgeschrieben. Und dass die gefundenen Muster durch unsere bestehende Gesellschaft oft Muster der Ungleichheit sind. Die dann eben zum Ausgangspunkt für Prognosen für die Zukunft werden. Wenn die nicht kritisch hinterfragt werden und als Ausgangspunkt für eine kritische Analyse genutzt werden, sondern Ungleichheiten einfach als Naturgesetz angenommen werden, dann werden diese Ungleichheitsmuster einfach nur bestätigt. Die Einzelnen haben dann nicht die noch so kleine Chance zu beweisen, dass es nicht so wäre.
EJO: KI wird trotzdem oft mit Innovation und Fortschritt assoziiert. KI besteht aber aus dem Lernen aus der Vergangenheit. Wie kann KI etwas Neues erfinden? Oder stagniert langfristig die Gesellschaft eher durch die Anwendung von KI?
Bianca Prietl: Das eine ist der Gedanke des Fortschritts: Bedeutet alles, was neu ist gleich Fortschritt? Da gibt es viele Beispiele, dass es nicht zwangsläufig so ist. Diesen Fortschrittsgedanken sollte man grundsätzlich in Zusammenhang mit Technik hinterfragen. Aber ich denke, wenn es darum geht, ob es Stagnation gibt: Es gibt tatsächlich eine konservierende Tendenz, gerade wenn es um soziale Belange geht. Eben immer dann, wenn die Muster der Vergangenheit nicht hinterfragt werden. Man müsste die Ergebnisse der Analyse für einen Fortschritt viel eher als Ausgangspunkt für z. B. Aktivismus oder einer gegensteuernden Politik nehmen. Ein Beispiel, das viel in den Medien rezipiert wurde, Amazon hat ein Personalrekrutierungs-Tool entwickelt, das Bewerbungen mit Sternchen bewertet. Ergebnis davon war, dass Bewerbungen von Männern im Durchschnitt besser bewertet wurden als die von Frauen. Dazu kann man sagen, dass es nicht verwunderlich ist, denn der Algorithmus hat aus dem Amazon-Trainingsdatensatz gelernt, dass in der Vergangenheit vermehrt Männer eingestellt wurden. Also hat der Algorithmus eigentlich einfach nur gut gelernt, wen die Personaler:innen in der Vergangenheit bevorzugt haben.
Wenn man das einfach übernimmt, übernimmt man nur das ungleiche Muster der vergangenen Entscheidungen. Aber man könnte auch sagen, wann immer man auf ein solch diskriminierendes Muster trifft, nimmt man das zum Anlass, um sich mit dem dahinter liegenden Phänomen der Ungleichheit auseinander zu setzen. Also beispielsweise, wir setzen beim Ergebnis der KI-Entscheidung an, um zu schauen, wie wir es schaffen, mehr Frauen in die Tech-Branche zu bringen. KI kann also ein Ausgangspunkt für die Diskussion um Ungleichheiten sein und um diese zu beseitigen.
EJO: Warum ist eine Gender-Perspektive (kritische Perspektive) wichtig?
Bianca Prietl: Wenn es um technische Entwicklungen geht, und da ist KI ein aktuelles Beispiel, haben wir einen weitverbreiteten Glauben an den Fortschritt und an die Unabhängigkeit von Technik von allem Sozialem. Und dadurch dann auch einen Glauben an die Neutralität von Technik. Problematisch ist dann nur, dass Menschen KI falsch einsetzen. Geschlechterperspektiven, die ich als kritische Perspektive verstehe, gehen hingegen von vornherein davon aus, dass Technik nicht neutral ist. Die Perspektive zeigt uns, dass Technik von vornherein von ganz bestimmten Menschen an ganz konkreten Orten mit ganz konkreten Zielen entwickelt wurde.
KI-Entwicklung findet oft im militärischen Kontext statt und wird durch militärische Gelder finanziert. Das heißt, dass KI auch entscheidend von militärischen und Sicherheitsinteressen geprägt ist, die mitbestimmen, welche Formen die Technologien annehmen, in welche Richtungen geforscht wird und in welche nicht. Der Kontext der Grundlagenforschung ist also ein sehr wichtiger Grundbaustein, der entscheidet, wie das Endprodukt dann aussieht. Eine geschlechterkritische Forschung auf Technik hinterfragt, zeigt auf und stellt die Hintergründe von KI in Diskussion.
EJO: Welche Chancen und Gefahren sehen Sie für den Journalismus, durch die aktuellen technologischen Entwicklungen?
Bianca Prietl: Ich habe wenig Sorge, dass ChatGPT hochwertigen Journalismus ersetzen kann. Da die ausgeworfenen Antworten eher so formuliert sind, wie man Erörterungen in der Schule gelernt hat. Also es gibt ein Thema, es gibt Pro- und Kontraargumente, und dann gibt es irgendeine Synthese zum Schluss. Nach diesem Format schienen mir die Antworten immer aufgebaut zu sein. Was aber z. B. in meinen Tests fehlte, war eine kritische Positionierung der Argumente, also: «Wer spricht da gerade?» und «Aus welcher Position heraus?». Und das ist, was guter Journalismus macht: nicht einfach nur Argumente für beispielsweise Digitalisierung und dagegen aufzuzählen, sondern auch zu erwähnen, dass die Pro-Argumente vielleicht von Menschen gemacht wurden, die Industrievertreter:innen sind. Die Positionen, aus denen gesprochen wird, müssen sichtbar gemacht werden. Ich finde das für den kritischen Umgang mit Informationen sehr entscheidend.
KI stellt also, in Form von ChatGPT, keine Konkurrenz zu journalistischen Produkten dar. Das was aber schwierig sein kann, ist, dass das von vielen Konsument:innen vielleicht gar nicht beurteilt werden kann. Das heißt, dass es vielleicht mehr Medienbildung braucht. Diese Medienbildung müsste Aspekte von Social Media bis hin zu KI berücksichtigen, um die Unterschiede der Informationsaufbereitung und Wissensbildung zu lehren.
Vielleicht ist das auch eine Aufgabe, die der Journalismus ein Stück weit selbst übernehmen kann. Zu zeigen, was ihn auszeichnet, um so die Unterschiede zwischen Qualitätsjournalismus und Produkten von KI zu unterstreichen. Und das andere ist die Frage: Wie kann man KI selbst als Journalist:in nutzen für seine Arbeit. Denn verwehren kann man sich den neuen Technologien vermutlich nicht.
Schlagwörter:ChatGPT, Interview, KI, Neue Technologien