Künstliche Intelligenz hat sich dauerhaft im Alltag von Hochschulen etabliert. Ob erlaubt oder nicht, Studierende nutzen KI-Assistenten, um Aufgaben wie Referate, Hausarbeiten, Portfolios und anderes zu erledigen. Verbote sind wirkungslos und letztlich sinnlos. KI-Assistenten sind hilfreiche und leistungsstarke Tools. Wenn Studierende diese Werkzeuge informiert nutzen, kann Künstliche Intelligenz an Hochschulen dazu beitragen, eigene Kompetenzen zu erweitern und die Aneignung von Wissen zu unterstützen. Hochschullehre sollte die Nutzung von Künstlicher Intelligenz durch Studierende deshalb nicht ignorieren oder gar unterbinden. Ziel von Lehrenden an Hochschulen muss vielmehr sein, Studierende mit Blick auf das jeweilige Fach und seine Methoden zu einem sachgemäßen und fundierten Umgang mit KI-Assistenten zu befähigen.
Ich selbst nutze Künstliche Intelligenz seit einem Jahr intensiv - sowohl für die Erstellung von Lehrmaterialien als auch als integriertes Lernwerkzeug für Studierende in meinen Kursen zu neutestamentlicher Exegese. Was dabei entstanden ist, sind einfache, übertragbare Prinzipien und Modelle, die sich – wie ich hoffe – in der Praxis bewährt haben. Mit diesem Beitrag möchte ich sie vorstellen und dazu einladen, offen für das Potential von Künstlicher Intelligenz als Werkzeug in der Hochschullehre zu sein. Dabei darf jedoch der Hinweis nicht fehlen, dass wir als Lehrende an Hochschulen herausgefordert sind, uns Grundwissen über Künstliche Intelligenz und ihre Einsatzmöglichkeiten anzueignen und uns über Entwicklungen auf dem Laufenden zu halten.
Was ist die KI, die wir nutzen – und warum ist das entscheidend?
Zu Beginn ist eine Klarstellung nötig. Wenn wir heute allgemein von Künstlicher Intelligenz sprechen, meinen wir meist Große Sprachmodelle (Large Language Models, LLMs) oder Generative vortrainierte Transformer (Generative Pre-trained Transformers, GPT), die basierend auf einer großen Menge von Trainingsdaten und Wahrscheinlichkeitsmodellen Texte generieren können. Chatbots ermöglichen es uns, auf diese Sprachmodelle zuzugreifen und mit ihnen zu interagieren.
Die bekanntesten dieser großen Sprachmodelle sind ChatGPT, Claude und Gemini. Neben diesen US-amerikanischen Angeboten gibt es mit Le Chat auch ein europäisches Sprachmodell. Bei diesen Sprachmodellen handelt es sich um sogenannte General Purpose Artificial Intelligence (GPAI), d.h. um künstliche Intelligenz, die nicht für einen eng abgegrenzten spezifischen Zweck entwickelt wurde und konzipiert ist, sondern die für eine Vielzahl von Aufgaben und Themen und in ganz unterschiedlichen Bereichen eingesetzt werden kann. Solche Sprachmodelle sind also eher Generalisten als Spezialisten, und darin liegt zugleich ihre Stärke, aber auch ihre Schwäche. Sie können vieles, manches davon sehr gut, manches aber auch weniger gut.
Dies müssen wir wissen und beachten, wenn wir Large Language Models oder Große Sprachmodelle wie Claude, ChatGPT, Gemini oder Le Chat in der Hochschullehre verwenden und Studierende zu ihrem sinnvollen und kompetenten Einsatz in unseren Fächern anleiten und befähigen wollen. Diese großen Sprachmodelle sind nicht speziell für den Einsatz in der Lehre entwickelt und eingerichtet. Wenn Studierende sie für Aufgaben im Rahmen der Hochschullehre nutzen, „wissen“ diese großen Sprachmodelle in der Regel nicht, dass sie gerade in einem pädagogischen Kontext operieren. Sie verfügen nicht über eingebaute didaktische Prinzipien oder eine automatische Anpassung an unterschiedliche Lernniveaus.
Der Vorteil der großer Sprachmodelle als Generalisten liegt jedoch in ihrer Flexibilität und Anpassungsfähigkeit für unterschiedliche Disziplinen, Methoden und Aufgaben. Ihre tatsächlichen Fähigkeiten und ihre Leistungsfähigkeit für konkrete Themen und Aufgaben lassen sich jedoch oft nicht vorhersagen. Deshalb können diese Tools bei ihrer Verwendung immer wieder überraschen.
Man weiß nicht, was alles möglich ist, bis man selbst experimentiert. Dies gilt auch deshalb, weil man erst durch eigenes Experimentieren herausfinden wird, wie man am besten mit einem großen Sprachmodell interagiert, um dessen Möglichkeiten bestmöglich auszunutzen und das Ergebnis zu bekommen, das man braucht und will.
Eine Kernstärke der großen Sprachmodelle ist die Mustererkennung. Deshalb können sie gut Parallelen zwischen Texten identifizieren, Strukturen in Texten aufdecken, wiederkehrende Formulierungen erkennen und Vergleiche über große Textcorpora hinweg erstellen. Gerade diese Fähigkeiten machen große Sprachmodell zu interessanten Tools für den Einsatz in der Exegese und Bibelwissenschaft. Denn Formgeschichte, Traditionsgeschichte und Redaktionskritik basieren auf Textvergleich und Mustererkennung.
Große Sprachmodelle können deshalb Studierenden auf vielfältige Weise bei der Analyse und Interpretation biblischer Texte unterstützen. Dies gilt umso mehr, seit ihnen die für die Exegese und Bibelwissenschaft relevanten Texte als Teil ihrer Trainingsdaten oder aufgrund der Möglichkeit, im Internet zu recherchieren, zugänglich sind. Als Tutoren können große Sprachmodelle Studierende sogar zur Arbeit an den griechischen, hebräischen oder aramäischen Grundtexten der Exegese befähigen und ihre Fähigkeiten dabei kontinuierlich erweitern. Außerdem können sie über Forschungskontroversen und Fachdiskussionen zu Texten der Bibel informieren und dadurch das Verständnis erweitern und bereichern.
Die pädagogische Struktur und das didaktische Konzept für den Einsatz von großen Sprachmodellen in der Hochschullehre müssen jedoch von den Lehrenden kommen. Doch auch hier gilt, dass man bereit sein muss zu experimentieren und Misserfolge nicht fürchten darf, um herauszufinden, wie Künstliche Intelligenz in der Form von großen Sprachmodellen sich in den eigenen Lehrveranstaltungen mit Blick auf Lernziele, Kompetenzentwicklung und Qualifikationsstufen am besten einsetzen und integrieren lässt.
Drei einfache Regeln für den Umgang mit KI in der Exegese
Für den Umgang mit großen Sprachmodellen in der exegetischen Arbeit haben sich für mich drei einfache Regeln als tragfähig erwiesen. Diese drei Regeln lassen sich von Studierenden leicht erlernen und umzusetzen. Sie bauen auf den wissenschaftlichen Kompetenzen auf, die sie im Rahmen ihres Studiums ohnehin entwickeln müssen.
Vergleichen: Die erste Regel besteht darin, von der KI generierte Antworten und Texte systematisch mit dem eigenen Wissen und mit etablierten Positionen in der Forschung und Inhalten aus Lehrveranstaltungen abzugleichen. Konkret bedeutet das sich zu fragen: Passt die Aussage des Sprachmodells zu dem, was in der einschlägigen Fachliteratur steht oder was ich in Lehrveranstaltungen gelernt habe? Entspricht die exegetische Analyse den methodischen Standards und den in der Forschung vertretenen Positionen? Sind die von der KI zitierten oder referierten Bibelstellen korrekt wiedergegeben? Diese kritische Vergleichsleistung ist keine spezielle „KI-Kompetenz“, sondern entspricht der normalen wissenschaftlichen Praxis im Umgang mit Quellen und Sekundärliteratur, die Studierende im Studium lernen und einüben müssen.
Fragen: Die zweite Gewohnheit ergibt sich aus dem dialogischen Charakter der Interaktion mit großen Sprachmodellen. Die Bezeichnung „Chatbot“ macht deutlich, dass es sich bei der Nutzung großer Sprachmodelle um einen Dialog handelt, nicht um die einmalige Abfrage von Informationen. Bei Unklarheiten kann man einfach nachfragen und die KI um Präzisierung bitten. Man sollte sich unbekannte Begriffe und Konzepte erklären lassen. Nützlich ist auch, nach Alternativpositionen in der Forschung zu fragen oder sich Gegenargumente zu einer exegetischen These generieren zu lassen. Die besten Ergebnisse in der Arbeit mit großen Sprachmodellen entstehen nicht aus dem einmalig perfekt formulierten Prompt, also der idealen Anfrage, sondern aus einem Dialog, in dem man schrittweise zum gewünschten Ergebnis kommt.
Wenn ich selbst mit Hilfe eines großen Sprachmodells an einem Text – z.B. für eine Lehrveranstaltung oder einen Vortrag – arbeite, beginne ich nicht mit dem Versuch, in einem langen und ausgefeilten Prompt alle notwendigen Informationen, Anweisungen und Vorgaben zusammenzufassen und zu formulieren. Meist frage ich zunächst einfach, was das Sprachmodell zu dem Thema, mit dem ich mich beschäftige, weiß. Dann stelle ich weitere Fragen, fordere das Sprachmodell mit Rückfragen heraus, ergänze mein eigenes Wissen und korrigiere Fehler in den Antworten des Sprachmodells. Wenn der Stil eines generierten Textes nicht meinen Vorstellungen entspricht, weise ich darauf hin und lasse den Text umformulieren. Auch dieses Ergebnis wird im Dialog mit der KI weiter bearbeitet. Ich diskutiere erneut mit dem Sprachmodell, lasse Teile revidieren und präzisieren, bis ich mit dem Ergebnis zufrieden bin. Oft formuliere ich auch Passagen neu und stelle Abschnitt um und bitte dann die KI um Feedback.
Gegenwärtig wird erneut stark betont, dass es ausgefeilter Prompting-Techniken und Prompt-Engineering-Strategien bedarf, um große Sprachmodelle mit Hilfe präzise formulierter Anfragen und komplexer Systemanweisungen dazu zu bringen, das gewünschte Ergebnis zu liefern oder auch einfach nur den eigenen Schreibstil nachahmen zu können. Dies suggeriert, Studierende müssten zunächst hochspezialisiertes Expertenwissen über die Funktionsweise und Bedienung von KI-Assistenten erwerben, bevor sie diese an der Hochschule einsetzen können und dürfen. Ich halte das für irreführend.
Entscheidend ist nicht die von Anfang an perfekte Anfrage an das Sprachmodell, sondern die Bereitschaft und Fähigkeit zum Dialog mit dem Sprachmodell. Einfach beginnen, Fragen stellen, Antworten kritisch prüfen, im Dialog anpassen und verfeinern – das kann jede:r, der oder die gelernt hat, wissenschaftlich zu arbeiten und zu argumentieren.
Eine spezialisierte Prompting-Expertise ist nicht Voraussetzung für die sinnvolle Nutzung von KI-Assistenten, sondern entwickelt sich durch die regelmäßige Praxis und die Erfahrung im Umgang mit diesen Tools von selbst. Gewisse Basics sollte man jedoch kennen, wenn man mit KI-Tools arbeitet und vernünftige Ergebnisse erzielen will. Es lohnt sich am Beginn eines Chats oder in einem sogenannten System-Prompt, den man gewöhnlich als eine Art Voreinstellung hinterlegen kann, dem Sprachmodell für die gemeinsame Arbeit grundlegende Anweisungen zu geben. So kann man ihm beispielsweise die Rolle als Tutor, das historisch-kritische Paradigma als methodischen Rahmen und eine universitäre Lehrveranstaltung auf Bachelor- oder Master-Niveau als Kontext vorgeben.
Prüfen: Die dritte Regel besteht darin, die von großen Sprachmodellen generierten Inhalte mit derselben wissenschaftlichen Sorgfalt zu behandeln, die auch sonst in der Arbeit mit Quellen und Fachliteratur geboten ist. Konkret bedeutet das: Die in Lehrveranstaltungen genannte Fachliteratur konsultieren, um die Aussagen des Sprachmodells zu überprüfen, und Primärquellen und biblische Texte selbst nachschlagen, um zu verifizieren, ob Bezugnahmen und Zitate korrekt sind. Vor allem Aussagen zum griechischen, hebräischen oder aramäischen Grundtext sollten anhand der aktuellen und maßgebenden kritischen Editionen überprüft werden, da nicht immer klar ist, woher ein Sprachmodel seine Version des Textes bezieht und wie genau und exklusiv es einer Vorlage folgt. Auch grammatische oder syntaktische Analysen zum Grundtext sollten kontrolliert und mit den üblichen Hilfsmitteln wie Grammatiken und Wörterbüchern geprüft werden.
Studierende müssen lernen, dass KI bei komplexen exegetischen Analysen und Argumentationen helfen kann, dass sie die methodischen Schritte jedoch eigenständig nachvollziehen und die Ergebnisse kritisch überprüfen müssen. Dies sind bewährte Standards guter wissenschaftlicher Praxis in der Exegese und Bibelwissenschaft. KI-Tools befreien Studierende nicht davon sich die Methoden und die Inhalte eines Faches anzueignen. Richtig eingesetzt könne sich jedoch die Aneignung von Methoden und Fachwissen unterstützen.
Diese drei Regeln – Vergleichen, Fragen, Prüfen – sind Kompetenzen, die wir als Lehrende in der Exegese und Bibelwissenschaft ohnehin vermitteln und von Studierenden einfordern. Künstliche Intelligenz erfordert keine grundlegend neuen Kompetenzen, sondern die konsequente Anwendung bereits bekannter und bewährter wissenschaftlicher Prinzipien.
Zwei Grundsätze für den Einsatz von KI in der exegetischen Lehre
Aus meiner inzwischen einjährigen Arbeit mit Künstlicher Intelligenz sowohl bei der Erstellung von Lehrmaterialien als auch im direkten Einsatz als Lernwerkzeug für Studierende haben sich zwei Einsichten als Leitlinien herauskristallisiert. Diese beiden Grundsätze gehen über einfache Nutzungstipps hinaus und betreffen grundsätzliche Fragen des Einsatzes von KI-Assistenten in der Hochschullehre.
Erstens: Künstliche Intelligenz kann und sollte Kollaboration fördern, nicht Isolation. Ein verbreitetes Narrativ und Vorurteil in der Diskussion über den Einsatz von Künstlicher Intelligenz in der Hochschullehre warnt vor der Vereinzelung von Studierenden – jede und jeder Studierende allein für sich mit dem eigenen Chatbot, ohne Austausch mit anderen Studierenden oder mit Lehrenden. Dieses Szenario muss jedoch nicht Realität werden, wenn man den Einsatz von KI-Assistenten bewusst so gestaltet, dass er kollaboratives Lernen fördert, statt verhindert.
In meinen Kursen zur neutestamentlichen Exegese weise ich Studierende darauf hin, dass sie mit KI-Assistenten auch in kleinen Gruppen arbeiten und interagieren könne. KI-Assistenten lassen sich gut in Lerngruppen integrieren. Sie können gemeinsam einen Chatbot befragen oder dieselbe Aufgabe parallel mit verschiedenen Sprachmodellen bearbeiten, die Ergebnisse vergleichen und die Sprachmodelle mit divergierenden Antworten anderer KI-Tools konfrontieren. Dies ist eine erste, sehr einfache Form der Verifizierung von KI-generierten Ergebnissen. Kritik und Konfrontation mit abweichenden Ergebnissen provoziert KI-Assistenten wie ChatGPT, Claude, Gemini und Le Chat gewöhnlich dazu, mehr Trainingsdaten heranzuziehen und präzisere Prozesse beim Generieren von Antworten zu aktivieren.
Im kooperativen Arbeiten lernen Studierende durch Erfahrung, dass die einzelnen Modelle zu einem Thema sehr unterschiedliche Ergebnisse generieren können und dass die verschiedenen Modelle sehr unterschiedlich auf dieselbe Frage reagieren können.
Sie entwickeln gemeinsam Strategien, wie man Anfragen (Prompts) am besten formuliert, um gute und brauchbare Ergebnisse zu erzielen. Auf diese Weise bleibt soziales Lernen zentral für den Lernprozess. Der Vergleich unterschiedlicher, von verschiedenen KI-Assistenten generierter Antworten trainiert kritisches Denken sogar effektiver als die isolierte Nutzung eines einzelnen Sprachmodells durch eine Person allein. Außerdem steht einer Gruppe meist auch mehr an Fachwissen und Methodenkompetenz aus Lehrveranstaltungen und Fachliteratur zur Verfügung, um die von KI generierten Ergebnisse kritisch zu bewerten und zu hinterfragen. Im Idealfall löst dies erfahrungsgestützte Lernprozesse aus, die bei allen in der Gruppe Fachwissen und Methodenkompetenz fördern.
Zweitens: Künstliche Intelligenz ist immer nur so gut wie der/diejenige, die/der sie benutzt. Diese Einsicht ist von fundamentaler Bedeutung für eine realistische Einschätzung der Möglichkeiten und Grenzen von Künstlicher Intelligenz in der Hochschullehre. Ohne bereits vorhandenes Fachwissen und ohne Methodenkompetenz lassen sich mit Hilfe von großen Sprachmodellen keine zuverlässigen und wissenschaftlich belastbaren Ergebnisse erzielen. Je besser jemand ein Fach und seine Methoden bereits beherrscht, desto produktiver und gewinnbringender wird die Nutzung von KI-Assistenten sein. Wer noch Anfänger:in in einem Fach ist, wird Fehler in den Antworten eines Sprachmodells nicht erkennen können. Wer hingegen bereits fortgeschrittene fachliche Kenntnisse und methodische Kompetenzen besitzt, kann KI-Assistenten als wertvolles Werkzeug zur Vertiefung und Erweiterung des eigenen Wissens nutzen. Fachwissen und Methodenkompetenz sind die nötige Voraussetzung für sinnvolle und weiterführende Anfragen an KI-Assistenten.
Diese realistische Einschätzung ist wichtig, weil sie dem verbreiteten Narrativ widerspricht, Künstliche Intelligenz sei eine Technologie, die bestehende Kompetenzunterschiede nivelliere und allen Menschen unabhängig von ihren Vorkenntnissen gleichermaßen Zugang zu Wissen und Fähigkeiten verschaffe. Künstliche Intelligenz ersetzt nicht den Aufbau fachlicher Kompetenz und methodischer Fähigkeiten, sondern setzt diese voraus, wenn sie sinnvoll und gewinnbringend genutzt werden soll.
Richtig eingesetzt, kann KI in der Hochschullehre ein nützliches Instrument sein, um das Erreichen von Lernzielen zu fördern und erzielte Lernerfolge nachhaltig zu sichern.
Dazu müssen nicht komplexe KI-gestützte Tutorien entwickelt und aufgebaut werden. Für die Vertiefung und langfristige Aneignung kann es genügen, Studierende durch Aufgaben und Einstieg-Prompts zu motivieren, die Inhalte einer Lehrveranstaltung im Dialog mit einem KI Chatbot zu wiederholen, zu erproben und zu reflektieren. Dies gelingt umso besser, wenn Studierende die Erfahrung ermöglicht wird, wie die in einer Lehrveranstaltung vermittelte Fachkompetenz den Einsatz von KI-Assistenten für wissenschaftliche oder berufsbezogene Aufgaben optimieren, so dass befriedigende Ergebnissen gezielt und schnell erreicht werden können.
Praktische Umsetzung: Strukturierte Integration in die Lehre
Für meine Lehrveranstaltungen zu Exegese und Theologie des Neuen Testaments habe ich in den beiden letzten Semestern Prinzipien für den Einsatz von KI-Assistenten entwickelt. Jede Sitzung in den Lehrveranstaltungen enthält spezifische Aufgaben, für deren Bearbeitung Studierende KI-Assistenten nutzen können und sollen: Vorbereitung von Sitzungen durch Klärung von Begriffen und Konzepten, Vertiefung von Inhalten durch vergleichende Analysen, Nachbereitung und Überprüfung des eigenen Wissensstands durch von der KI generierte Testfragen.
Der von mir vorgegebene Rahmen für die Nutzung von KI-Assistenten ist zwar strukturiert, lässt den Studierenden aber Freiheit in der konkreten Ausführung. Die formulierten Aufgaben sind in erster Linie als Anregung zum eigenen Ausprobieren und Experimentieren gedacht. Die Studierenden sollen eigene Strategien im Umgang mit KI-Assistenten entwickeln und reflektieren, was für sie persönlich gut funktioniert hat und was weniger gut. Kollaborative Nutzung von KI-Assistenten in kleinen Gruppen wird explizit eingefordert und gefördert. Außerdem gibt es konkret formulierte Leitlinien, die auf Möglichkeiten und Grenzen des Einsatzes von KI-Assistenten in der Exegese hinweisen und den Rahmen für einen guten und verantwortungsvollen Umgang mit KI-Assistenten als Hilfsmittel und Tutoren im Lernprozess aufzeigen.
Ziel ist es, Studierende nicht einzuschränken und vom Einsatz von KI-Assistenten abzuhalten, sondern sie zum Experimentieren und zu entdeckendem Lernen einzuladen.
Ich selbst nutze große Sprachmodelle ebenfalls für meine Arbeit als Lehrender, allerdings auf andere Weise als Studierende. Für mich sind KI-Assistenten in erster Linie Werkzeuge zur Organisation, Strukturierung und Aufbereitung von Inhalten. Ich arbeite dabei grundsätzlich in sogenannten Projekten. Ein Projekt ist eine Funktion, die viele große Sprachmodelle inzwischen anbieten. In einem Projekt kann man eigene Texte und Materialien hochladen und dauerhaft für die eigene Arbeit mit dem Sprachmodell verfügbar halten. Für meine Kurse habe ich je eigene Projekte angelegt und darin eigene Materialien hochgeladen, darunter eigene Studien, Forschungsnotizen, Exzerpte aus der Fachliteratur, Manuskripte und Materialien aus früheren Semestern.
Der KI-Assistent hilft mir, diese Materialien so zu verdichten, zu strukturieren und aufzubereiten, dass sie für den aktuellen Kurs und die konkrete Gruppe von Studierenden, die ich unterrichte, geeignet sind. Der fachliche Inhalt und die exegetischen Analysen kommen dabei exklusiv von mir, nicht von der Künstlichen Intelligenz. Die KI liefert die organisatorische und strukturelle Präzision, die dafür sorgt, dass aus meinen oft umfangreichen Materialien in sich geschlossene Lehreinheiten von 90 Minuten Dauer entstehen, die thematisch kohärent sind und die anvisierten Lernziele erreichen.
Diese projektbasierte Arbeitsweise empfehle ich auch Studierenden. Die meisten großen Sprachmodelle bieten inzwischen Funktionen an, die es ermöglichen, eigene Materialien dauerhaft für die eigene Arbeit mit dem Sprachmodell verfügbar zu halten. Studierende können ihre Kursnotizen und Mitschriften aus Vorlesungen und Seminaren, von ihnen gelesene und exzerpierte Texte aus der Fachliteratur, eigene Entwürfe und Texte hochladen. Für Projekte können zudem meist übergreifende Anweisungen formuliert und die Rolle der KI festgelegt werden. Der KI-Assistent hat dann Kontext und Hintergrundinformationen und kann spezifisch auf das Kursmaterial und die individuellen Lernfortschritte der Studierenden Bezug nehmen. Das macht den Dialog mit dem Sprachmodell einfacher und produktiver. Man muss nicht jedes Mal aufs Neue erklären und einordnen, woran man gerade arbeitet und was man vom Sprachmodell will. Diese projektbasierte Arbeitsweise ist leicht einzurichten und führt zu einer deutlichen Verbesserung der von den Sprachmodellen generierten Ergebnisse.
Nach meiner eigenen Erfahrung ist die Arbeit mit Künstlicher Intelligenz in der Form großer Sprachmodelle intellektuell anregend und macht Spaß. In der Hochschullehre hilft sie mir jedoch nicht, Zeit einzusparen und Arbeitsaufwand zu reduzieren; sie kann aber dazu beitragen, fokussiert und zielgerichtet an der Konzeption und Durchführung von Lehrveranstaltungen zu arbeiten und die eigene Lehre zu optimieren. Große Sprachmodelle können für Lehrende vor allem eine Hilfe sein, sich neue Themenfelder und Schnittmengen zu anderen Disziplinen zu erschließen und sich selbst als kritisch Lernender in neuen Methoden und Wissensbereichen trainieren und weiterbilden zu lassen.
Orientierung an europäischen Standards und Richtlinien
Meine Praxis im Umgang mit Künstlicher Intelligenz in der Hochschullehre orientiert sich an den von der Europäischen Kommission am 25. Oktober 2022 veröffentlichten „Ethical Guidelines on the Use of Artificial Intelligence and Data in Teaching and Learning for Educators“. Die in diesen Richtlinien formulierten Kernprinzipien – menschenzentrierter Ansatz, Transparenz, Förderung kritischen Denkens, Verantwortlichkeit – sollen durch die in diesem Beitrag beschriebenen Methoden und Grundsätze in meiner eignen Lehre konkret umgesetzt werden.
Dass meine Praxis diesen europäischen Richtlinien entspricht, ist kein Zufall. Die Auseinandersetzung mit den von der Europäischen Kommission entwickelten Leitlinien hat mir geholfen, für meine eigene Arbeit methodisch klare und ethisch reflektierte Prinzipien zu entwickeln. Was in der öffentlichen Debatte oft pauschal als bürokratische EU-Regulierung kritisiert wird, erweist sich bei genauerer Betrachtung und in der praktischen Anwendung als hilfreicher Orientierungsrahmen, der Innovation ermöglicht, ohne ethische Standards preiszugeben. Europa zeigt mit seinem Ansatz zur Regulierung von Künstlicher Intelligenz, dass verantwortungsvolle Nutzung neuer Technologien und Innovation keine Gegensätze sind, sondern zusammengehören.
Realistische Einschätzung: Weder Panik noch Naivität
Die Debatte über den Einsatz von Künstlicher Intelligenz in der Hochschullehre wird häufig von Problemen und Risiken dominiert, die auf die Anfangsphase der Entwicklung großer Sprachmodelle zurückgehen. „KI halluziniert und erfindet Quellen!“ Diese Warnung war im Jahr 2022 durchaus berechtigt und beschrieb ein ernstes Problem der damals verfügbaren Sprachmodelle. Im Jahr 2025 ist dies jedoch nicht mehr die zentrale Herausforderung im Umgang mit Künstlicher Intelligenz. Die aktuellen Versionen der verfügbaren großen Sprachmodelle sind deutlich zuverlässiger geworden. Das bedeutet nicht, dass man ihnen blind vertrauen darf. Es bedeutet aber, dass eine realistische Einschätzung geboten ist. Die normale wissenschaftliche Sorgfalt, die wir in der Arbeit mit Quellen und Fachliteratur ohnehin anwenden, genügt auch im Umgang mit von Künstlicher Intelligenz generierten Inhalten. Eine besondere Paranoia oder Technikfeindlichkeit ist nicht angebracht.
Die heute relevanten Fragen im Umgang mit großen Sprachmodellen in der exegetischen Arbeit sind andere als die Sorge vor „Halluzinationen“. Wenn Studierende KI-Assistenten in exegetischen Lehrveranstaltungen nutzen, sollten sie sich einfach fragen: Versteht das Sprachmodell den Kontext meiner Frage oder Anfrage richtig? Passt die generierte Antwort zu den in der Forschung etablierten Positionen und zum aktuellen Stand der Fachdiskussion? Ist die vom Sprachmodell vorgeschlagene exegetische Analyse methodisch sauber durchgeführt und plausibel? Dies sind im Grunde ähnliche Fragen, die wir auch bei der Lektüre von Fachliteratur oder beim Hören eines wissenschaftlichen Vortrags stellen. Künstliche Intelligenz erfordert hier keine fundamental andere Haltung als die, die wir Studierenden für den Umgang mit wissenschaftlicher Literatur ohnehin vermitteln.
Studierende entwickeln Kompetenz im Umgang mit Künstlicher Intelligenz nicht durch detaillierte Vorschriften und Regelwerke, sondern durch eigenes Experimentieren und Ausprobieren.
Als Lehrende sollten wir deshalb Raum zum Experimentieren schaffen und eine Haltung fördern, die „Trial and Error“ als normalen und legitimen Lernweg bei der Nutzung von KI-Assistenten akzeptiert. Die Rolle von Lehrenden sollte nicht darin bestehen, die Nutzung von KI-Assistenten für ihre Lehrveranstaltungen zu verbieten oder vorzuschreiben, wie Künstliche Intelligenz „richtig“ zu nutzen ist, sondern darin, einen strukturierten Rahmen zu bieten, in dem Studierende experimentieren können, und dadurch zu Reflexion über die gemachten Erfahrungen anzuregen.
„It’s not rocket science!“ — Einladung zum Experimentieren
Für den verantwortungsvollen Einsatz von Künstlicher Intelligenz in exegetischen Lehrveranstaltungen an der Universität gibt es aus meiner Sicht und Erfahrung keine unüberwindlichen Hindernisse. Weder die historisch-kritische Exegese noch die sinnvolle Nutzung von KI-Assistenten erfordern übermenschliche Fähigkeiten oder elitäres Geheimwissen. Beides sind erlernbare Verfahren, die auf klaren und nachvollziehbaren Prinzipien beruhen. Drei einfache Regeln – Vergleichen, Fragen, Prüfen – reichen für den Anfang vollkommen aus.
Die Methoden und Grundsätze, über die ich in diesem Beitrag geschrieben habe, sind durch fast ein Jahr intensiven Experimentierens mit Künstlicher Intelligenz in der Lehre entstanden. Ausprobieren, kritisch bewerten, anpassen, verfeinern – dieser wiederholbare Prozess hat zu den vorgestellten Prinzipien geführt. Genau dieses Vorgehen empfehle ich Kolleg:innen in der Hochschullehre: Experimentiert mit Künstlicher Intelligenz in euren Fächern und mit euren Studierenden. Findet heraus, was in eurem spezifischen Kontext gut funktioniert und was weniger gut funktioniert. Teilt eure Erfahrungen mit anderen. Lernt voneinander.
Künstliche Intelligenz entwickelt sich rapide weiter. Was heute noch nicht funktioniert oder nur unzureichende Ergebnisse liefert, kann morgen schon deutlich besser funktionieren. Es lohnt sich, am Ball zu bleiben und die Entwicklung aufmerksam zu verfolgen.
Thomas Johann Bauer ist Professor für Exegese und Theologie des Neuen Testaments an unserer Fakultät. Mehr Informationen zu seiner Forschung finden Sie auf der Website der Professur.