Ein Dammbruch? Der Hype um ChatGPT

Künstliche Intelligenz ist einer verblüfften, aber auch erschrockenen Öffentlichkeit zugänglich geworden. Wir diskutierten das Phänomen aus Sicht der Informatik, der Medienpädagogik und der Schule.

 

Von Heinz-Hermann Peitz

Die aktuellen Titelstories der Presse über Künstliche Intelligenz lassen es erahnen: Der Hype um ChatGPT, den kürzlich der breiten Öffentlichkeit zugänglich gemachten KI-Sprachassistenten, ist kein Strohfeuer, sondern eher ein Flächenbrand, oder – positiv formuliert – ein rasantes Feuerwerk digitaler Innovation. Das erzeugt auch Angst – nicht nur bei kulturpessimistischen Bedenkenträgern. Auch renommierte Wissenschaftler:innen, darunter nicht wenige KI-Expert:innen, warnen vor zivilisatorischem Kontrollverlust und fordern ein Forschungsmoratorium, notfalls umgesetzt durch staatliche Intervention. Ist ein Moratorium das Mittel der Wahl? Katharina Zweig, „die prominenteste deutsche Stimme, wenn es um Kritik an der KI geht“ (Die Zeit vom 13.04.23) bezweifelt dies. Die Abendveranstaltung am 8. Mai bot Gelegenheit, mit Katharina Zweig, Andreas Büsch und Monica Eggleston darüber zu diskutieren und sich auszutauschen, wie ChatGPT und andere generative KIs sinnvoll eingesetzt werden können.

„ChatGPT versteht nichts von der Welt.”

Die Informatikerin Katharina Zweig gab Einblicke in die Funktionsweise des KI-gestützten Textbots chatGPT, dessen Veröffentlichung einen wahren Hype ausgelöst hatte. Da das Sprachmodell mit einer Unmenge an Texten trainiert worden sei, könne die Fähigkeit, ansprechende Texte zu generieren, in höchstem Maße beeindrucken. Entsprechend lägen die Stärken in der Sprach- und Textanalyse, die beispielsweise Schüler:innen bei der Verbesserung ihrer Schreibfähigkeit unterstützen könne. Verlassen sollte man sich auf die Richtigkeit der Aussagen allerdings nicht, sagte Zweig: Insofern Aussagen aufgrund von Wahrscheinlichkeiten generiert würden, unterliefen der KI in Einzelfällen drastische Fehler. So habe ChatGPT im Brustton der Überzeugung Robert Habeck als Bundeskanzler bezeichnet. Zweig sagte, ChatGPT verstehe nichts von der Welt. Mit einem Entscheidungsbaum gab sie den Teilnehmenden einige Kriterien zum sinnvollen Einsatz des Textbots an die Hand.

Der Medienpädagoge Andreas Büsch führte Medienkompetenz als komplexes Bündel von Fähigkeiten ein und als zentralen Schlüssel für Teilhabegerechtigkeit. Damit wurden ethische Aspekte ausdrücklich und der Beitrag der Kirche zu einem nachdrücklichen Eintreten für einen Wertediskurs fest gemacht. An Texten der Deutschen Bischofskonferenz und deren Publizistischer Kommission machte Büsch klar: In Anlehnung an die katholische Soziallehre könnten Menschenwürde, Freiheit und Verantwortung auch als Leitwerte bei der Digitalisierung Anwendung finden. Dann könnten Digitalisierung und KI zum Wohl von Mensch und Gesellschaft beitragen. Kritische Kompetenz vorausgesetzt, sei daher eine proaktive, aber auch spielerische Nutzung von generativer KI durchaus zu empfehlen. In „KI-Schreibwerkstätten“ beispielsweise könnten derartige Kompetenzen gezielt trainiert werden. Letztlich gehe es bei der Frage, wie die digitale Transformation der Gesellschaft menschenwürdig gelingen kann, um die Forderung nach einer „Re-Sozialisierung“ der informatischen Werkzeuge.

„Eine Technologie der Mächtigen“

Was dies für die schulische Bildung bedeutet, reflektierte Monica Eggleston aus der Perspektive von Lehrer:innen. Ausgangspunkt für Eggleston waren ebenfalls ethische Fragen, allen voran die Bemerkung von Meredith Wittaker, dass KI eine „Technologie der Mächtigen“ sei. Kritisch zu bewerten sei die Möglichkeit zur Manipulation der Information, die Kollektivierung des Wissens zu Ungunsten des individuellen Wissens sowie die Gefahr rassistischer, sexistischer und gewalthaltiger Inhalte. Konkret könnten junge Menschen das Lernen verlernen und die Fähigkeit verlieren, selbstständig zu denken und Probleme zu lösen; die Urteilsfähigkeit könnte genauso eingeschränkt werden wie der zwischenmenschliche Dialog. Positiv hervorzuheben sei bei chatGPT das Tempo der Antworten, ihre Strukturiertheit und Differenziertheit. Bei Lehrenden ergäben sich daraus Vorteile bei Texterstellung, Textkontrolle und Unterrichtsplanung; bei Lernenden bei Themenerstellung und -strukturierung sowie Ideengenerierung. Ein Verbot sei daher weder sinnvoll noch realistisch. Es komme vielmehr darauf an, den Umgang mit dem Chatbot als Werkzeug zu erlernen und die Diskrepanz abzubauen zwischen einer medienkompetenten Minderheit und einer Mehrheit, die das Denken an die KI delegiert. Um ChatGPT in der Schule einzusetzen, müssten außerdem Fragen des Urheberrechts, Fragen nach der Haftung für irreführende Antworten und Fragen der Transparenz geklärt werden. Schulen und Universitäten forderten daher einheitliche Richtlinien für den Umgang mit ChatGPT, eine Erkennungssoftware für KI-Texte, eine Anpassung der Lehrerausbildung und neue Prüfungsformate.

Der TextBot und der Blindenhund

Die anschließende Diskussion sorgte an manchen Stellen für Ernüchterung. So wünschenswert es auch sei: Eine Erkennungssoftware für KI-generierte Texte könne es grundsätzlich nicht geben, schon gar keine rechtssichere. Und die mehrfach geäußerte Forderung nach Transparenz sei bei der Komplexität der KI ebenfalls nicht hinreichend einzulösen. Aber auch ohne Transparenz sei ein legitimer Einsatz am Ergebnis zu messen. Ein analoges Beispiel für unseren bisherigen Umgang mit Intransparenz sei das Vertrauen in einen Blindenhund. Wir trauen ihm zu, Menschen sicher über die Straße zu bringen, auch ohne dass der Hund transparent für uns ist.

Wo aber liegen die eigentlichen Gefahren? Einig war man sich darüber, dass sie nicht in heraufbeschworenen Dystopien einer sogenannten starken KI liegen, die Selbstbewusstsein entwickelt und uns die Kontrolle entziehen könnte. Bedrohlicher als eine starke KI sei eine schlechte oder missbräuchlich eingesetzte KI, wie sie sich jetzt schon in Fake News und Fälschungen von Fotos, Videos und Sprache zeige. Nicht gerade beruhigend sei dabei die Tatsache, dass die dazu nötige Hard- und Software immer günstiger verbreitet werde und leicht in falsche Hände geraten könne.

Übrigens: Bei privaten Unternehmen ist die KI-Entwicklung nicht zwangsläufig in „falschen Händen“. Ohne Privatwirtschaft gäbe es den wünschenswerten Innovationsschub nur eher schleppend. Wohl aber bedarf es hier einer geeigneten Regulierung – statt eines kürzlich geforderten Moratoriums. Bemühungen wie der AI-Act auf europäischer Ebene könnten hier modellhaft sein.

Von der Vielzahl der eingebrachten, spannenden Aspekte sollen einzelne Themen bei Folgeveranstaltungen aufgegriffen und vertieft werden.

 

Die Dokumentation:

https://www.forum-grenzfragen.de/dammbruch-der-ki-chatgpt/

oder auf YouTube: https://youtu.be/gUSPY-Hdu20

 

Die Fachleute:

Katharina Zweig: Informatikerin an der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau, Gründerin des Studiengangs „Sozioinformatik“; Mitglied der Enquetekommission „Künstliche Intelligenz“ des Deutschen Bundestages

Professor Andreas Büsch: Professor für Medienpädagogik und Kommunikationswissenschaft an der KH Mainz; Leiter der Clearingstelle Medienkompetenz der Deutschen Bischofskonferenz

Dr. Monica Eggleston: Theologin, Kanonistin, Lehrerin für katholische Theologie und Englisch; Vorstandsmitglied im Verband der Religionslehrerinnen und Religionslehrer in der Diözese Rottenburg-Stuttgart


Kriterien für den Umgang mit ChatGPT