Skip to content

Copy. Paste. Prüfungsverfahren? Zwischen Kontrollverlust und Prüfungsdystopie (Call for Papers)

Weitere Autoren: Prof. Dr. Henrik Dindas (FOM Hochschule)

Dieser Beitrag steht in unmittelbarem Zusammenhang mit einem Call for Papers.

Immer häufiger berichten Kolleg:innen – oft mit wachsender Fassungslosigkeit – von gravierenden Fällen unsauberer KI-Nutzung in Abschlussarbeiten (Weßels et al., 2025). In einem Forum hieß es kürzlich: Von zehn eingereichten Bachelorarbeiten sind vier durchgefallen – alle wegen fehlerhafter oder schlichtweg erfundener Quellenangaben (reddit, o.J.). Dabei ist dieses Phänomen längst kein Einzelfall mehr: Auch in der Presse häufen sich Berichte über die Auswirkungen generativer KI auf den Hochschulalltag (Lewandowska, 2025; Frankfurter Rundschau, 2025; Walter, 2024). So schildert auch Nils Bolder (2025) in seinem Artikel ChatGPT statt Bibliothek, wie Studierende Hausarbeiten zunehmend von KI schreiben lassen – häufig ohne das nötige Bewusstsein für Faktenprüfung oder Quellenkritik. Das Resultat: Halluzinierte Literaturangaben, unreflektierter KI-Einsatz – und zunehmend auch durch KI verfasste Prüfungen und Gutachten, die formal perfekt wirken, aber inhaltlich hohl bleiben (Pardey, 2024). Am Ende stehen Prüfungsleistungen, die mangels Substanz oder Integrität nicht mehr bewertbar sind (Reinmann, im Druck). Willkommen in der neuen Prüfungsrealität im Zeitalter von ChatGPT & Co. (Weßels, 2022), in der man sich fragen muss: Schreibt und prüft hier überhaupt noch jemand selbst?

Abbildung 1 (rechts/oben): Zukunftsvision? Eine KI prüft eine andere KI unter einer Glaskuppel, während Studierende und Lehrende von außen nur noch zusehen. Ein faszinierend-schreckliches Szenario, das uns zum Nachdenken zwingen sollte.

Prüfungsleistungen, die mit KI generiert sind, stellen Hochschulen bereits vor ernste Herausforderungen (Dindas & Keller, 2026). Von akademischer Integrität über Kompetenzverlust bis hin zur sozialen Entfremdung: Die schönen Effizienzgewinne der Technologie stehen auf dem Prüfstand, sobald die Grundfesten des Bildungssystems wanken (Dindas & Schulte, im Druck). Sind KI-gestützte Prüfungen also ein Segen oder ein Fluch – herrlich oder furchtbar? Wahrscheinlich beides zugleich.

Die Pandemie hat die Digitalisierung von Prüfungen massiv beschleunigt (Benning & Saß, 2025). Online-Klausuren, E-Portfolios und auch adaptive Assessments gehören inzwischen zum Alltag und bieten neue Chancen der Flexibilisierung und Personalisierung (Keller & Dindas, 2025). Doch mit der rasanten Verbreitung von generativer KI wie ChatGPT verschärft sich ein Dilemma: Technisch eröffnen sich nie dagewesene Möglichkeiten, gleichzeitig geraten die Eckpfeiler gerechter und sinnvoller Prüfungskultur ins Wanken (Rettinger & Gallant, 2025). Forschende mahnen deshalb, dass die Implementierung digitaler Prüf- und Lernkulturen keine rein technische, sondern vor allem eine didaktische und ethische Aufgabe ist (Reinmann, 2023). Schon jetzt weisen Diskussionen um den kommenden EUAI Act (Europäische Union, 2024) darauf hin, dass KI-Systeme im Bildungsbereich als Hochrisiko-Anwendungen gelten werden – mit strengen Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht (Hoeren, 2025). KI-Tools können Prüfungen effizienter machen, Lernprozesse dateninformiert individualisieren, vielleicht objektiver bewerten (von Garrel & Mayer, 2025) – aber sie bergen eben auch Risiken für Fairness, Integrität und den Erhalt grundlegender Kompetenzen (Wang & Fan, 2025). In der Abwägung zeigt sich: Technologische Effizienz gibt es nicht ohne didaktische Verantwortung.

KI-Missbrauch: Wenn aus Bequemlichkeit Betrug wird

Schauen wir uns zunächst konkrete Beispiele an, wie KI derzeit von Studierenden unreflektiert (vielleicht auch fahrlässig) eingesetzt wird (Wang et al., 2024) – und sie damit direkt in den Prüfungsabgrund zieht:

  • Halluzinierte Zitate: Studierende lassen sich von der KI Literatur nennen, ohne zu merken, dass ein Teil der Quellen frei erfunden ist. Das Ergebnis: ein Quellenverzeichnis voller Gespenster – sofortiger Durchfallgrund in der Prüfung (Enes et al., 2025).
  • Inhaltsleeres Glattbügeln: Anstatt einen eigenen Text mit Ecken und Kanten zu schreiben, jagen manche eine Rohfassung durch die KI, um sie „schön glattgezogen“ zurückzubekommen. Übrig bleibt oft ein wohlklingender, aber inhaltlich hohler Text ohne Tiefgang. Klingt wie aus einem Hochglanz-Magazin, sagt aber nichts aus – fachliches Bullshit-Bingo, das Prüfer:innen sofort auffällt. Ein Effekt, der übrigens selbst in hochrangigen Journals auftaucht (Strzelecki, 2024).
  • Verstecktes Plagiat durch Paraphrasierung: Manche glauben, sie könnten fremde Texte gefahrlos klauen, indem sie die KI drüberschicken und alles umformulieren lassen. Doch auch in glattgebügelter Form bleibt ein Plagiat ein Plagiat – nur schwerer nachzuweisen, aber nicht weniger verwerflich (Limburg et al., 2022).

Die Botschaft ist klar: Nicht die KI an sich ist das Problem, sondern der unkritische Umgang damit (Dindas & Schulte, im Druck). Anstatt die Tools bewusst und kompetent einzusetzen, nutzen einige Studierende sie als bequeme Krücke, ohne die Konsequenzen zu bedenken. Kein Wunder, dass Lehrende (und auch Hirnforscher:innen) zunehmend Alarm schlagen (Stäbener, 2025).

Auch ein Professor an der Texas A&M University geriet 2023 in die Schlagzeilen, als er kurzerhand allen Studierenden eines Kurses die Abschlussnote verweigerte – im Verdacht, ihre Arbeiten seien mithilfe von ChatGPT verfasst worden (Marcus, 2023). Ohne klare Beweise, allein gestützt auf die Einschätzung eines KI-Detektors, ließ er die Betroffenen eidesstattlich versichern, dass sie ihre Texte selbst verfasst hätten. Ein Beispiel für überhitzten Aktionismus, der deutlich macht, wie stark generative KI nicht nur die Prüfungsformate, sondern auch das Vertrauensverhältnis zwischen Lehrenden und Lernenden unter Druck setzt (Digital Education Council, 2024). Doch Verbote allein werden das Problem kaum lösen, denn die Technologie existiert nun mal – Wegschauen ist keine Lösung (Weßels, 2025).

Nicht die KI ist schuld – sondern fehlende AI Literacy.Statt vorschnell nach Verboten zu rufen, sollten wir den Blick auf die KI-Kompetenz der Studierenden richten. Die Lösung liegt nicht darin, ChatGPT & Co. aus Prüfungen zu verbannen, sondern im reflektierten Umgang damit – und der will erst erlernt sein (Dindas & Schulte, im Druck). Viele Studierende (und ehrlich gesagt, auch so manche Lehrpersonen) wissen noch zu wenig darüber, wie und wofür man KI-Werkzeuge sinnvoll einsetzt und wo ihre Grenzen liegen. Dieses AI Literacy (KI-Verständnis) muss erst Teil der akademischen Ausbildung werden (OECD, 2025), auch für Lehrende (Schallert-Vallaster et al., 2025).

Verlernen wir das Denken? – Die Deskilling-Gefahr

Ein ungutes Gefühl bleibt: Verlieren unsere Studierenden durchs KI-Nutzen wichtige Fähigkeiten? Während allerorts über noch neuere Future Skills durch KI gesprochen wird (Dindas, 2025), warnen erste Stimmen vor dem Gegenteil – dem Verlust bestehender Kompetenzen, neudeutsch Deskilling(Rafner et al., 2021).

Auch die Hamburger Hochschuldidaktikerin Gabi Reinmann hat genau hingeschaut. Sie weist darauf hin, dass die scheinbare Entlastung durch KI trügerisch sein kann (Reinmann, 2023). In der Hochschuldidaktik fragt man sich seit ChatGPT vor allem, welche neuen Kompetenzen jetzt gebraucht werden – doch kaum jemand diskutiert, welche Fähigkeiten verloren gehen könnten (Klar & Schleiss, 2024). Reinmanns (2023) Diskussionspapier und auch andere Studien zum Thema zeigen: Wenn ein KI-System den Studierenden nicht nur Inhalte liefert, sondern sogar Lernplan, Zeitplan und Prioritäten vorkaut, dann müssen sie kaum noch selbst Entscheidungen übers Lernen treffen. Kurzfristig fühlt sich das bequem an – langfristig droht der Verlust wichtiger metakognitiver Kompetenzen wie Zeitmanagement, Selbstorganisation und kritische Urteilsfähigkeit (Leck & Kaimre, 2025). Anders ausgedrückt: Wer sich zu sehr auf die KI verlässt, könnte das eigenständige Denken verlernen.

Das klingt alarmistisch, aber denken wir mal nach: Wie oft haben wir beim Lesen von KI-generierten Texten schon gedacht, „das liest sich seltsam gedankenlos“? Kein Wunder – wenn Studierende eine Hausarbeit von ChatGPT zusammenstöpseln lassen, fehlt genau der Prozess, in dem normalerweise gelernt wird: beim Schreiben denken, Argumente prüfen, einen roten Faden weben (Zhai et al., 2024). Auch Reinmanns (2023) Analyse ist hier ein Weckruf, diesen Aspekt im KI-Diskurs mitzudenken. Wir müssen Studierende befähigen, KI gezielt und kritisch zu nutzen, statt ihnen sämtliche Denkarbeit abzunehmen. Sonst sitzen wir irgendwann vor perfekten, aber seelenlosen Texten – und niemand (auch nicht die Verfasser:innen selbst) weiß mehr so recht, was darin steht.

Übrigens gilt das nicht nur für Studierende. Auch Lehrende selbst laufen Gefahr, sich auf KI-Autor:innenschaften auszuruhen (Hill, 2025). Was passiert, wenn wir unsere Lehrmaterialien nur noch von KI kuratieren lassen? Verlieren wir dann den pädagogischen Instinkt? Reinmann (2023) skizziert in ihrem Papier sogar drei utopische Gegenentwürfe: eine „Renaissance der menschlichen Vernunft“ als Gegengewicht zur KI, eine Aufwertung sozialer Beziehungen als Gegengewicht zur Mensch-Maschine-Interaktion und einen radikalen Wandel der Prüfungskultur als Gegengewicht zu rein juristischen Absicherungen. Vielleicht brauchen wir genau das: wieder mehr menschliche Vernunft, um KI vernünftig einzusetzen (Reinmann, im Druck).

Future Skills? – Es geht um reflexive KI-Kompetenz!

In der aktuellen Debatte ist gleichfalls viel von Future Skills die Rede (Dindas, 2024): jenen angeblich neuen Super-Kompetenzen, die Studierende für die Arbeitswelt 4.0 bräuchten (Programmieren, Prompt-Engineering, Datenanalyse usw.). Keine Frage, technisches Know-how ist wichtig. Aber die Diskussion wird oft erschreckend technokratisch geführt. Aber, es gibt einen wunden Punkt: Die populäre Future-Skills-Rhetorik verengt den Blick häufig auf Tool-Kompetenzen und blendet die Bildungsperspektive aus (Zeivots et al., 2025). In einem (noch unveröffentlichten) Beitrag habe ich mit meinem „Partner in Crime“ Frank P. Schulte hierzu skizziert, wie ein Weiterbildungskonzept aussehen kann, das metakognitive und persönlichkeitsbezogene Lernprozesse stärkt – also den Menschen in der Interaktion mit KI schult, nicht nur die Bedienung der neuesten App (Dindas & Schulte, im Druck). Darin fordern wir eine Haltung, in der KI nicht bloß als Werkzeug gesehen wird, sondern als Anlass für tiefgreifende pädagogische Reflexion.

Der Clou: Nachhaltiger KI-Einsatz wird weniger durch technologische Expertise als durch kritische Reflexionsfähigkeit geprägt sein. Genau das müssen wir in der Hochschuldidaktik fördern – meta-reflexive KI-Kompetenz anstelle eines rein technikzentrierten Skill-Fetischs. Mit anderen Worten: Studierende (und Lehrende!) sollten KI nicht nur bedienen können, sondern ihr Tun damit jederzeit hinterfragen und anpassen (Go et al., 2024). Das klingt vielleicht abstrakt, ist im Grunde aber die alte Forderung nach kritischem Denken – nur eben angewandt auf den Umgang mit smarten Maschinen.

Mündliche KI-Prüfungen: „Fight fire with fire!“

Während wir in der Lehre noch über den richtigen Umgang debattieren, sorgen von außen bereits erste Science-Fiction-würdige Ansätze für Furore. Ein Beispiel: automatisierte, KI-gestützte mündliche Prüfungen – fight fire with fire, sozusagen (Ipeirotis, 2025).

Der NYU-Professor Panos Ipeirotis hat es ausprobiert. Ihm fiel auf, dass schriftliche Ausarbeitungen seiner Studierenden plötzlich verdächtig perfekt klangen – zu perfekt, um wahr zu sein. Viele Abgaben wirkten, als hätten sie einen „McKinsey-Politur-Schleudergang“ durchlaufen (Ipeirotis, 2025). Seine Vermutung: Viele ließen sich ihre Antworten von ChatGPT aufhübschen, ohne den Inhalt wirklich zu begreifen. Die Quittung kam prompt, als er in der Veranstaltung spontan einzelne Studierende im Gespräch auf ihre Lösungen ansprach: Plötzlich konnten etliche ihre eigenen eingereichten Antworten nicht mehr erklären. Die Diskrepanz zwischen schriftlicher Leistung und mündlicher Verteidigung war zu konsistent, um sie auf Nervosität zu schieben. Ipeirotis Schluss: Das alte Gleichgewicht, in dem Take-Home-Arbeiten zuverlässig Verständnis messen konnten, ist dank KI „tot“. Studierende können heute die meisten traditionellen Prüfungsfragen mit KI-Unterstützung beantworten – wir Prüfer:innen merken es oft nicht einmal (mdr, 2024).

Ipeirotis’ Reaktion? Die schriftliche Abschlussklausur wurde durch eine mündliche Prüfung ersetzt – geführt von einem KI-Agenten, der per Voice-Interface individuelle Fragen stellte. Bewertet wurde im Hintergrund von einem Trio großer Sprachmodelle, das im Sinne eines „KI-Gremiums“ die Antworten gemeinsam beurteilte. Das Ergebnis: überraschend konsistente Noten, die in 90 % der Fälle kaum voneinander. Fachlich funktionierte das Format: Die Studierenden mussten wirklich erklären können, was sie eingereicht hatten – Copy-Paste war keine Option mehr. Doch der Dämpfer folgte auf dem Fuß: Nur 13 % bevorzugten das KI-Format, über 80 % empfanden es als stressiger und viele vermissten die menschliche Interaktion. Technische Schwächen wie monotone Sprache, fehlende Zufallsauswahl oder hektisches Unterbrechen trübten zusätzlich das Bild. So vielversprechend das Modell also scheint: Die pädagogische Akzeptanz und Gestaltung bleiben zentrale Herausforderungen (Ipeirotis, 2025).

Unterm Strich offenbarte das Experiment also zwei Seiten: Auf der einen Seite verlässliche Bewertungen, niedrigere Kosten und die Erkenntnis, dass Studierende echtes Verständnis zeigen müssen, wenn KI sie prüft. Auf der anderen Seite Stress, technische Holprigkeiten und gemischte Gefühle bei den Geprüften. Dieser Zwiespalt fasst das Dilemma KI-gestützter Prüfungen perfekt zusammen: Effizienz vs. Erleben. Können wir die Prüfungswelt skalierbarer, schneller, vielleicht sogar objektiver machen? Aber, selbst wenn das möglich wäre, wie fühlt sich das für unsere Lernenden und uns selbst an? Wollen wir sie einem automatisierten Verhör aussetzen, nur weil es praktisch ist? Und was macht das mit der Prüfungskultur (Budde et al., 2024), die ja mehr ist als Punkteerfassung – nämlich auch ein zwischenmenschlicher Prozess, manchmal sogar ein pädagogischer Akt im Sinne einer „Lernchance“ (Müller & Schmidt, 2009)?

Effizienz vs. Integrität: ein Spannungsfeld mit Sprengkraft

Hier sind wir am Kern der Sache: das Spannungsfeld zwischen Automatisierung und akademischer Integrität (Dindas & Keller, 2026). Natürlich ist der Gedanke verlockend: KI könnte uns Prüfer:innen viel Arbeit abnehmen. Ob Korrekturmarathon oder mündliche Prüfung – was wäre, wenn wir all das effizient auslagern könnten? Die Technik dazu steht quasi vor der Tür, wie das NYU-Beispiel zeigt. Doch der Preis ist hoch. Automatisierung darf nicht auf Kosten von Fairness, Transparenz und Bildungsgerechtigkeit gehen. Diese Prinzipien sind hart erkämpft und dürfen im KI-Rausch nicht unter die Räder kommen (Reinmann et al., 2025).

Hochschulen müssen hier eine Balance finden: Innovation ja, aber ohne die Grundwerte guter Prüfungspraxis zu verraten. Eine Prüfung ist nicht nur irgendein Prozess, den man nach Belieben optimieren kann – sie entscheidet über Bildungswege, sie soll Leistung gerecht abbilden und sie ist Teil dessen, was Bildung ausmacht. Wenn wir uns zu sehr von der Effizienzlogik leiten lassen (egal ob als Studierende oder Lehrende), riskieren wir am Ende unsere Glaubwürdigkeit. Stellen Sie sich vor, Studierende zweifeln an ihren Noten, weil „sowieso ein Bot bewertet hat“ und vielleicht Fehler machte. Oder die Cleversten lernen nur noch, wie man den KI-Prüfer austrickst, statt den Stoff zu beherrschen. Dann haben wir akademische Integrität gegen einen Pyrrhussieg der Effizienz eingetauscht.

Dystopie: Wenn nur noch Maschinen unter sich sind

Wagen wir zum Abschluss einen ketzerischen Blick in die Zukunft. Treiben wir das KI-Spiel auf die Spitze: Studierende legen Prüfungen gegenüber einem KI-Bot ab, der Fragen stellt und Antworten gleich selbst bewertet. Lehrende sparen Zeit und lassen eine KI automatisch die Gutachten schreiben. Die Krönung: Zur Verteidigung der Bachelorarbeit schickt der Studierende gar nicht mehr sich selbst, sondern einen persönlichen KI-Avatar vor, der mit dem KI-Prüfungskomitee diskutiert, während der echte Mensch dahinter nur gelangweilt zuhört. Science-Fiction? Satire?

Eine Kollegin von mir scherzte neulich bitter: „KI schreibt, KI prüft, KI verbessert, KI prüft erneut…“ – eine endlose Feedbackschleife, „die uns alle vom lästigen Teil des Bildungssystems befreit!“ Herrlich. Furchtbar. Genau diese Mischung aus Faszination und Schrecken spürt man, wenn man an ein solches Szenario denkt. Wollen wir das? Eine akademische Welt, in der am Ende KI nur noch mit KI kommuniziert, während wir Menschen draußen vor der Glaskuppel stehen und zuschauen (siehe Abb.1 oben)? Mir läuft es kalt den Rücken herunter bei dieser Vorstellung.

Dabei ist diese Vorstellung nicht nur technisch bedenklich, sondern verweist auch auf eine tiefere Gefahr: die zunehmende Durchdringung der Hochschulbildung durch ökonomische Verwertungslogiken (Initiative Bildung und digitaler Kapitalismus, 2023). Der als „Schlüsseltechnologie des 21. Jahrhunderts“ (Deutscher Bundestag, 2023) propagierte Einsatz von KI, auch im Bildungsbereich, droht gar zum Vehikel einer umfassenden Kommerzialisierung zu werden – etwa dann, wenn Prüfungen automatisiert, Prozesse skalierbar gemacht und didaktische Verantwortung an Algorithmen ausgelagert werden (Dindas & Wunder, in Konzeption). Bildung würde dann nicht mehr als Beziehungs- oder Persönlichkeitsentwicklung verstanden, sondern als effizient zu optimierender Output. Die Vision einer KI-prüft-KI-Welt ist damit nicht nur eine technologische, sondern auch eine bildungspolitische Dystopie: Es ist eine Hochschule ohne Menschen – ohne Fehler, aber auch ohne Haltung, Kritik und Wärme .

Noch ist das zum Glück eine Dystopie. Aber die Entwicklungen der letzten Monate lassen erahnen, dass wir jetzt die Weichen stellen müssen, um so ein Extrem zu verhindern. Wir müssen entscheiden, welche Rolle KI im Bildungswesen spielen soll – und wo wir bewusst auf die Bremse treten.

Fazit: Wissenschaftliche Reflexion statt blindem Aktionismus – Macht euch Gedanken!

Was nehmen wir also mit aus diesem Ritt durch die KI-Prüfungswelt? Vor allem dies: Wir brauchen eine wissenschaftliche Reflexion über die Macht der Note in Zeiten von KI. Jetzt ist nicht die Zeit für blinden Aktionismus – weder für ein kopfloses Digitalisieren aller Prüfungen noch für ein pauschales KI-Verbot. Stattdessen müssen wir uns zusammensetzen – Didaktiker:innen, Lehrende, Prüfungsexpert:innen, Studierende – und überlegen, wie wir das Wunderwerk KI konstruktiv nutzen, ohne die Seele der Lehre zu verkaufen.

Dieser Beitrag sollte Blickwinkel öffnen, Fragen provozieren, zum Weiterdenken anregen. Wenn Sie bis hierher gelesen haben, gehören Sie vermutlich zu denjenigen, die genau diese Diskussion vorantreiben wollen. Mein Appell an Sie: Bringen Sie Ihre Erfahrungen und Gedanken ein! Nutzen wir die Gelegenheit zur wissenschaftlichen Auseinandersetzung. Eine gute Möglichkeit bietet z. B. der aktuelle Call for Papers „Die Macht der Note?Bewertungskulturen im Studium der Sozialen Arbeit/Sozialpädagogik – dort soll genau hinterfragt werden, wie Noten das Studium steuern und was sich im KI-Zeitalter ändern muss. In der Ausschreibung heißt es dabei: Prüfungsleistungen können von KI erstellt werden und ihre Bewertung zunehmend ebenfalls durch KI-Systeme erfolgen. Damit droht eine Entkopplung menschlicher Urteilsbildung auf beiden Seiten des Prüfungsprozesses. Bildungsforschende fordern daher eine Rückbesinnung auf dialogische Prüfungsformen und humanistische Bildungskriterien.

Lassen Sie uns gemeinsam dafür sorgen, dass die Zukunft der Prüfung nicht zur obigen Dystopie verkommt, sondern dass die Note auch im KI-Zeitalter ihre Bedeutung behält: als fairer, menschlich verstandener Maßstab für echte Leistung (wie auch immer diese gemessen werden kann, aber das ist eine andere Diskussion). Denn am Ende – da bin ich mir sicher – wollen wir keine Prüfungswelt, in der nur noch Maschinen glücklich sind. Wir wollen mündige Menschen, die Technik klug nutzen und trotzdem selbst denken. Die Macht der Note liegt (noch) in unseren Händen. Sorgen wir dafür, dass das so bleibt.

Quellen

Benning, A. & Saß, M. (2025). Hochschullehre grenzenlos? Ein Modell Integrierter Lehre. Bielefeld: wbv.

Bolder, N. (2025, 03. September). ChatGPT statt Bibliothek: Wie KI das Studieren grundlegend verändert. T3n digital pioneers. Zuletzt abgerufen am 13.01.2026, von https://t3n.de/news/chatgpt-statt-bibliothek-1699044/

Budde, J., Eichhorn, J. & Tobor, J. (2024). Vision einer neuen Prüfungskultur. Diskussionspapier Nr. 28 / Januar 2024. Hochschulforum Digitalisieurng. Zuletzt abgerufen am 14.01.2026, von https://hochschulforumdigitalisierung.de/wp-content/uploads/2024/01/HFD_Diskussionspapier_28_Vision-einer_neuen_Pruefungskultur_final.pdf

Deutscher Bundestag (2023). Künstliche Intelligenz als Schlüsseltechnologie für Deutschlands Zukunft stärken (Drucksache 20/8414). Zuletzt abgerufen am 14.01.2026, von https://dserver.bundestag.de/btd/20/084/2008414.pdf

Digital Education Council (2024, 30. August). How Students Use AI: The Evolving Relationship Between AI and Higher Education. Zuletzt abgerufen am 14.01.2026, von https://www.digitaleducationcouncil.com/post/how-students-use-ai-the-evolving-relationship-between-ai-and-higher-education

Dindas, H. (2025). From Giants to Innovation: Shaping a Global Future Skills Literacy in Higher Education. In: V. Chiou, L. Geunis, O. Holz, N. O. Ertürk, J. Ratkowska-Pasikowska & F. Shelton (Hrsg.), Research and Evidence-based Perspectives in Education. Diverse Discourses, Connected Conversations, Waxmann, Münster, S. 332-344.

Dindas, H. (2024). Auf den Schultern von Riesen in die Zukunft der Hochschulbildung. Eine Neugestaltung der Hochschullehre im Zeitalter von Future, Global und Emerging Skills? In: S. Fichtner Rosada, T. Heupel, C. Hohoff & J. Heuwing-Eckerland (Hrsg.). European Year of Skills 2023 – Kompetenzen für die Zukunft. Berlin: Springer Gabler, S. 231-250.

Dindas, H. & Keller, K. (2026). Digitale Prüfungen an Hochschulen im Zeitalter der KI: Zwischen Automatisierung, Adaptivität und akademischer Integrität. Berlin: Springer Gabler.

Dindas, H. & Schulte, F.P. (im Druck). Die Zukunft (v)erlernen: Kritische Perspektiven auf Künstliche Intelligenz und Future Skills in der hochschuldidaktischen Weiterbildung. In: K. Keller, T. Heupel, C. Hohoff & J. Heuwing-Eckerland (Hrsg.). Digitale Kompetenzentwicklung im Bildungsprozess und Konzepte digitalisierter Bildung. Impulse des European Year of Digital Citizenship Education 2025. Berlin: Springer Gabler. 

Dindas, H. & Wunder, M. (in Konzeption). Künstliche Intelligenz und die Kommerzialisierung der Hochschulbildung: Eine kritische Betrachtung der digitalen Verwertung. In: E. Matthes, H. Schluß, S. Schütze & J. van Wiele (Hrsg.). Bildungsmedien als politischer und gesellschaftlicher Konfliktfall. Bad Heilbrunn: Julius Klinkhardt.

Enes, R., Meckmann, F. & Le-Lu, T. V. (2025, 08. April). KI im Studium etabliert – Hochschulen hinken hinterher. Hochschulforum Digitalisierung. Zuletzt abgerufen am 14.01.2026, von https://hochschulforumdigitalisierung.de/ki-im-studium-etabliert-hochschulen-hinken-hinterher/

Europäische Union (2024). Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung bestimmter Rechtsakte der Union (KI-Verordnung). Zuletzt abgerufen am 14.01.2026, von https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689

Frankfurter Rundschau (2025, 05. Juni). Abschlussarbeit von der KI? Lukas Altmann von AcadMedia verrät, warum der Einsatz künstlicher Intelligenz an der Uni zu Problemen führt. Zuletzt abgerufen am 14.01.2026, von https://www.fr.de/pressemitteilungen/abschlussarbeit-von-der-ki-lukas-altmann-von-acadmedia-verraet-warum-der-einsatz-kuenstlicher-intelligenz-an-der-uni-zu-problemen-fuehrt-93770671.html

Go, S., Schelling, K. & Morasch, J. (2024, 27. März). Lehrende und KI: (k)eine angespannte Beziehung? Hochschulforum Digitalisierung. Zuletzt abgerufen am 14.01.2026, von https://hochschulforumdigitalisierung.de/lehrende-und-ki/

Hill, K. (2025, 14. Mai). The Professors Are Using ChatGPT, and Some Students Aren’t Happy About it. The New York Times. Zuletzt abgerufen am 14.01.2026, von https://www.nytimes.com/2025/05/14/technology/chatgpt-college-professors.html

Hoeren, T. (2025). Rechtsgutachten zur Bedeutung der europäischen KI-Verordnung für Hochschulen. Zuletzt abgerufen am 14.01.2026, von https://hss-opus.ub.ruhr-uni-bochum.de/opus4/files/13421/RechtsgutachtenBedeutungEuropaeischenKI-VerordnungHochschulen.pdf

Initiative Bildung und digitaler Kapitalismus (2023). Bildung und digitaler Kapitalismus – ein Positionspapier. Zuletzt abgerufen am 14.01.2026, von https://bildung-und-digitaler-kapitalismus.de/positionspapier/

Ipeirotis, P. (2025, 29. Dezember). Fighting Fire with Fire: Scalable Personalized Oral Exams with an ElevenLabs Voice AI Agent. A Computer Scientist in a Business School. Zuletzt abgerufen am 14.01.2026, von https://www.behind-the-enemy-lines.com/2025/12/fighting-fire-with-fire-scalable-oral.html

Klar, M. & Schleiss, J. (2024). Künstliche Intelligenz im Kontext von Kompetenzen, Prüfungen und Lehr-Lern-Methoden. Alte und neue Gestaltungsfragen. MedienPädagogik 58:JFMH2023, 41-57. https://doi.org/10.21240/mpaed/58/2024.03.24.X

Keller, K. & Dindas, H. (2025). Innovatives Lehren und Lernen an Hochschulen. Transferorientierte Handlungsprinzipien. Berlin: Springer Gabler.

Leck, M. & Kaimre, J. (2025). Does generative AI help in learning programming: Students’ perceptions, reported use and relation to performance. Computers in Human Behavior Reports, 18: 100642. https://doi.org/10.1016/j.chbr.2025.100642

Lewandowska, C. (2025, 08. August). Macht KI Ghostwriter überflüssig? Frankfurter Allgemeine. Zuletzt abgerufen am 13.01.2026, von https://www.faz.net/aktuell/karriere-hochschule/hoersaal/uni-abschlussarbeiten-schreiben-lassen-macht-die-ki-ghostwriter-ueberfluessig-110618469.html

Limburg, A., Mundorf, M., Salden, P. & Weßels, D. (2022). Plagiarismus in Zeiten Künstlicher Intelligenz. Zeitschrift für Hochschulentwicklung, 17(3). 91-106. DOI: 10.3217/zfhe-17-03/06

Marcus, J. (2023, 18. Mai). Texas professor misuses ChatGPT and fails most of class for AI plagiarism. Independent. Zuletzt abgerufen am 13.01.2026, von https://www.independent.co.uk/news/world/americas/chatgpt-ai-plagiarism-texas-a-and-m-b2341238.html

mdr (2024, 29. Januar). Plagiatsforscherin: KI-generierte Texte werden nicht zuverlässig erkannt. Zuletzt abgerufen am 13.01.2026, von https://www.mdr.de/wissen/plagiat-ki-detektoren-erkennen-ki-texte-nicht-zuverlaessig-100.html

Müller, A. & Schmidt, B. (2009). Prüfungen als Lernchance: Sinn, Ziele und Formen von Hochschulprüfungen. Zeitschrift für Hochschulentwicklung, 4(1), 23-45. DOI: 10.3217/zfhe-4-01/03

OECD (2025, 29. April). New AI Literacy Framework to Equip Youth in an Age of AI. Zuletzt abgerufen am 14.01.2026, von https://oecdedutoday.com/new-ai-literacy-framework-to-equip-youth-in-an-age-of-ai/

Pardey, C. (2024, 05. November). Was kann KI für Lehrende tun? Forschung & Lehre. Zuletzt abgerufen am 13.01.2026, von https://www.forschung-und-lehre.de/lehre/was-kann-ki-fuer-lehrende-tun-6729

Rafner, J., Dellermann, D., Hjorth, A., Verasztó, D., Kampf, C., Mackay, W. & Sherson, J. (2021). Deskilling, Upskilling, and Reskilling: A Case for Hybrid Intelligence. Morals & Machines 1(2), 24-39. https://doi.org/10.5771/2747-5174-2021-2-24

Reddit (o.J.). BA-Arbeit und ChatGPT?! Zuletzt abgerufen am 13.01.2026, von https://www.reddit.com/r/Studium/comments/1kpt20j/baarbeit_und_chatgpt/

Reinmann, G., Watanabe, A., Herzberg , D., & Simon, J. (2025). Selbstbestimmtes Handeln mit KI in der Hochschule: Forschungsdefizit und -perspektiven. Zeitschrift für Hochschulentwicklung20(SH-KI-1), 33–50. https://doi.org/10.21240/zfhe/SH-KI-1/03

Reinmann, G. (im Druck). Generativer KI in Studium und Lehre: Die Bedeutung fachlichen Wissen für kritisches Denken. Preprint. In U. Dittler & C. Kreidl (Hrsg.). Fragen an die Hochschuldidaktik der Zukunft. Stuttgart: Schäffer-Poeschel. Zuletzt abgerufen am 13.01.2026, von https://gabi-reinmann.de/wp-content/uploads/2025/07/Preprint-Wissen-kritisches_Denken-KI.pdf

Reinmann, G. (2023). Deskilling durch Künstliche Intelligenz? Potenzielle Kompetenzverluste als Herausforderung für die Hochschuldidaktik. Diskussionspapier Nr. 25 / Oktober 2023. Zuletzt abgerufen am 14.01.2026, von https://hochschulforumdigitalisierung.de/wp-content/uploads/2023/10/HFD_DP_25_Deskilling.pdf

Rettinger, D. A. & Gallant, T. B. (2025). The Opposite of Cheating: Teaching for Integrity in the Age of AI. Norman: University of Oklahoma Press.

Schallert-Vallaster, S., Nüesch, C., Papageorgiou, K., Herrmann, L., Hofmann, M. & Buchner, J. (2025). Enhancing AI literacy of educators in higher education. Zeitschrift für Hochschulentwicklung, 20(SH-KI-1),147-166. DOI: 10.21240/zfhe/SH-KI-1/09

Stäbener, J. (2025, 07. Juli). Hirnforscher schlagen Alarm: Trend an deutschen Schulen schadet Erfolg der Kinder. Frankfurter Rundschau. Zuletzt abgerufen am 14.01.2026, von https://www.fr.de/panorama/hirnforscher-schlagen-alarm-trend-an-deutschen-schulen-schadet-erfolg-der-kinder-zr-93802910.html

Strzelecki, A. (2024). ‘As of my last knowledge update’: How is content generated by ChatGPT infiltrating scientific papers published in premier journals? Learned Publishing, 38: e1650. https://doi.org/10.1002/leap.1650

von Garrel, J. & Mayer, J. (2025). Künstliche Intelligenz im Studium – Eine quantitative Längsschnittstudie zur Nutzung KI-basierter Tools durch Studierende. Darmstadt: Hochschule Darmstadt. Zuletzt abgerufen am 14.01.2026, von https://opus4.kobv.de/opus4-h-da/files/533/gpt-dokumentation-final-jvg.pdf

Walter, N. (2024, 15. Oktober). Betrug bei schriftlichen Arbeiten? Das KI-Problem für die Unis. Welt. Zuletzt abgerufen am 14.01.2026, von https://www.welt.de/politik/deutschland/article253856862/Studium-Betrug-bei-schriftlichen-Arbeiten-Das-KI-Problem-fuer-die-Unis.html

Wang, J. & Fan, W. (2025). The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: insights from a meta-analysis. Humanities and Social Sciences Communications, 12:621. https://doi.org/10.1057/s41599-025-04787-y

Wang, S., Wang, F., Zhu, Z., Wang, J., Tran, T. & Du, Z. (2024). Artificial intelligence in education: A systematic literature review. Expert Systems with Applications, 252(A):124167 https://doi.org/10.1016/j.eswa.2024.124167

Weßels, D., Bils, A. & Budde, J. (2025). Wissenschaftliche Abschlussarbeiten im KI-Zeitalter Disruption, Herausforderungen und neue Bewertungsansätze. Diskussionspapier Nr. 38 / Oktober 2025. Hochschulforum Digitalisierung. Zuletzt abgerufen am 14.01.2026, von https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/10/HFD_DP_38_wissenschaftliche_Abschlussarbeiten_im_KI-Zeitalter.pdf

Weßels, D. (2025, 15. Januar). Schluss mit absurden KI-Regeln! Die Zeit. Zuletzt abgerufen am 14.01.2026, von https://www.zeit.de/2025/03/kuenstliche-intelligenz-studium-hochschulen-regeln

Weßels, D. (2022, 20. Dezember). ChatGPT – ein Meilenstein der KI-Entwicklung. Forschung & Lehre. Zuletzt abgerufen am 13.01.2026, von https://www.forschung-und-lehre.de/lehre/chatgpt-ein-meilenstein-der-ki-entwicklung-5271

Zeivots, S., Casey, A., Winchester, T., Webster, J., Wang, X., Tan, L., Smeenk, W., Schulte, F. P., Scholkmann, A., Paulovich, B., Muññoz, D., Mignone, J., Mantai, L., Hrastinski, S., Godwin, R., Engwall, O., Dindas, H., van Dijk, M., Chubb, L. A., Rapanta, C., Jaldemark, J. &  .Hayes, S. (2025). Reshaping Higher Education Designs and Futures: Postdigital Co-designwith Generative Artificial Intelligence. Postdigital Science and Education 7(3), 1334-1374. https://doi.org/10.1007/s42438-025-00595-4

Zhai, C., Wibowo, S. & Li, L.D (2024). The effects of over-reliance on AI dialogue systems on students‘ cognitive abilities: a systematic review. Smart Learning Environments, 11:28. https://doi.org/10.1186/s40561-024-00316-7

Comments (0)

Schreiben Sie einen Kommentar

Ihre E-Mail wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Back To Top