ChatGPT „Das Tool deckt auf, was im Wissenschaftsbetrieb falsch läuft“

Schreibt GPT-3 meine nächste Hausarbeit? Quelle: Getty Images

Robert Lepenies, Präsident der Karlshochschule International University in Karlsruhe, sieht neben den Risken vor allem die Chancen der neuen Sprach-KI ChatGPT im universitären Umfeld.

  • Teilen per:
  • Teilen per:

WirtschaftsWoche: Herr Lepenies, der Chatbot ChatGPT formuliert erstaunlich kluge Texte. So klug, dass sich viele ihrer Studenten nun nicht mehr selbst an eine Seminararbeit setzen müssten. Macht Ihnen das Sorgen?
Robert Lepenies: Nein, ich finde die Entwicklung hochspannend. Mein erster Eindruck von dem frei nutzbaren Chatbot war so überwältigend, dass ich noch am selben Tag die gesamte Verwaltung unserer Uni und einen Tag später alle Studenten zusammengerufen habe, um mit ihnen über die Auswirkungen der Entwicklung für uns alle zu diskutieren.

Und?
Das Tool ermöglicht einen Blick in die Zukunft, der zeigt, was als digitalisierte Hochschule möglich ist, in der Texte sehr schnell erstellt werden können, die teilweise wissenschaftliches Niveau haben. Ich bin überzeugt: Die Nutzung dieses Sprachmodells wird irgendwann so normal werden wie die Rechtschreibprüfung in der Textverarbeitung Word.

Aber zu welchem Zweck? Werden die Studenten dann also ihre Seminararbeit vom Chatbot erstellen lassen?
Warum nicht? KI wird das wissenschaftliche Arbeiten beeinflussen, so wie andere Technologien vorher. Wichtig ist, dass die alten Kulturtechniken des Lesens, Schreibens und das Nachdenken im Kern erhalten bleiben – nur eben unter anderen Voraussetzungen. Wie, das müssen wir zusammen – mit den Maschinen - herausfinden.

Sie haben auf Twitter ein vergleichsweise düsteres Bild davon gezeichnet, wenn die KI unbedacht und ohne Konzepte genutzt wird. Was genau fürchten Sie?
Für uns selbst fürchte ich da gar nicht so viel: Wir sind eine kleine Hochschule, an der wir alle Studenten kennen und in kleinen Seminaren sehr interaktive und lebendige Lehre durchführen können. Dadurch ist das Missbrauchspotenzial begrenzt. 

Warum das? Weil sie die einzelnen Leistungen besser einschätzen können?
Ja, wir können eben genau über diese Mensch-Maschine-Interaktionen persönlich sprechen – und streiten. Die Sorge kommt eher von Kollegen größerer Universitäten, die auf einen Schlag mehrere hundert Hausarbeiten auf dem Tisch liegen haben – und bei denen eine gewöhnliche Plagiatsoftware jetzt nicht mehr reicht.

Welche Befürchtungen haben Ihre Kollegen geäußert?
Da gibt es viele Möglichkeiten des Missbrauchs: Es ist einfacher, Wissenschaftlichkeit vorzutäuschen; es ist einfacher, Wissen selbst vorzutäuschen. Das Nachdenken übernimmt die Maschine nicht, sondern kann es schlimmstenfalls vorgaukeln. Auch die Selbstsicherheit des Sprachmodells ist unwissenschaftlich: Ein guter Wissenschaftler kommuniziert Unsicherheiten und eigene Irrtümer viel besser als jede mir bekannte KI.

Manche ihrer Kollegen sehen auch bereits eine „völlige Verblödung“, weil Studenten nichts mehr erlernen müssen. Wie real ist diese Gefahr?
Ich finde: Die Reaktionen auf dieses Tool zeigen auch das Menschenbild, das wir als Universitäten insgesamt von den Studenten haben. Da wird viel auf die Maschine projiziert.

Was genau meinen Sie?
Studenten wollen lernen. Wer so eine neue Technologie sieht und gleich an Schummelei denkt, der nimmt Studenten als Lernende nicht ernst – und dem sind Prüfungs- und Leistungsnachweise wichtiger als die Frage, wozu wir eigentlich Texte schreiben und schreiben lassen.

Der promovierte Politikwissenschaftler Robert Lepenies ist Professor für Plurale und Heterodoxe Ökonomik an der Karlshochschule International University in Karlsruhe. Im Oktober 2022 wurde der 38-Jährige zum neuen Präsidenten seiner Hochschule ernannt. Quelle: PR

Wie lässt es sich denn verhindern, dass Studenten das Tool missbrauchen?
Viele würden vermutlich antworten: Mit Verboten oder Rückkehr zu alten Prüfungsformen mit Stift und Papier – das ist vielleicht an manchen Stellen sogar möglich. Ich würde aber stark dafür plädieren, das Tool in Prüfungen einzubauen: Etwa indem man eine Klausur mit dem Chatbot schreiben lässt, aber eine Art Reflexionsdimension hinzunimmt, in der Studenten darüber räsonieren, was die KI mit ihnen gemacht hat und wie sie durch die KI zum Weiterdenken angeregt wurden. Wir müssen mit der Technologie leben – und sollten keine Abwehrgefechte führen.

Wie könnte ein Miteinander mit dem Chatbot aussehen?
Im besten Fall ist so eine KI ein kreativer Mitstreiter, den man mitnimmt – dazu würde ich mir mehr Diskussionen zu wünschen. Wir sollten uns fragen: Was wollen wir als Universität eigentlich erreichen? Ich bin fest davon überzeugt, dass Studenten, die Lust aufs Lernen haben, von so einem KI-Tool enorm profitieren können. 

Wie denn?
Heute zum Beispiel habe ich einer Gruppe die Aufgabe gegeben, drei verschiedene von KI erstellte Texte zur gleichen Forschungsfrage nebeneinanderzulegen und mir zu erklären, wo welcher Text wissenschaftlichen Standards genügt – und wo nicht. Hier kann man lernen, wissenschaftliche Evidenz abzuwägen. Genau darüber aber wird aktuell viel zu wenig gesprochen. Eigentlich überwiegt die Angst vor dem Schummeln. Aber wer nimmt überhaupt ernst, dass das Gros der Studenten ja zur Universität geht, um etwas zu lernen und das Tool zu seinen Gunsten zu nutzen? Diese Stimmen möchte ich stärken.

Aber müssen Universitäten die Leistungen ihrer Studenten in Zukunft nicht doch anders bewerten?
Die Hausarbeit – so wir sie bisher kennen – funktioniert nicht mehr, vor allem an den großen Universitäten nicht. In so einem genormten System, das rein auf Output optimiert ist, kann man mit der Software eben gut schummeln. Damit deckt das Tool aber eher auf, was im Wissenschaftsbetrieb grundsätzlich falsch läuft.

Werkzeughersteller Russland enteignet Maschinenbauer DMG Mori

Weil die Bundesregierung eine Investitionsgarantie gab, fordert der Konzern jetzt Schadensersatz. Der Vorfall in Russland ist aber nicht das einzige Thema, das am Standort in Bielefeld derzeit für Wirbel sorgt.

Gehalt „Wer pfiffige Ideen hat und hart arbeitet, sollte dafür auch belohnt werden“

In Unternehmen herrscht ein verqueres Leistungsdenken, sagt Interimsmanager Ulvi Aydin. Er fordert, High Performern mehr zu zahlen als den Chefs: „Es gibt Leute, die mehr leisten als andere – das sollte man anerkennen.“

Aktien Fünf gefallene Börsenstars mit der Hoffnung auf ein Comeback

Mehrere frühere Börsenlieblinge sind jetzt günstig zu haben. Ihre Kursschwäche hat Gründe – aber es gibt gute Argumente für eine Erholung. Fünf Turnaround-Ideen für Mutige.

 Weitere Plus-Artikel lesen Sie hier

Und welche Erleichterungen erwarten Sie von GPT-3?
Das Tool kann Routinearbeiten übernehmen – etwa die Modulbeschreibungen und sonstige interne Dokumente von Hochschulen, die sich nun von leichter Hand überarbeiten lassen. Und Lehrkräfte können beispielsweise Lehrdokumente aus einem Kurs von dem Tool mit wenig Aufwand für einen anderen Kurs umarbeiten lassen, weil die KI ja zu einem gewissen Grad auch lernfähig ist. Das Schreckensszenario lautet ja immer: Eine KI diktiert mir Inhalte und bin fremdbestimmt – nein, ich kann sie selber leiten und steuern. Aber dazu bedarf es eben einer gewissen Kompetenz.

Lesen Sie auch: Die technischen Hintergründe für den Hype um den neuen Super-Chatbot ChatGPT

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%