Immer mehr Student:innen nutzen Tools wie ChatGPT für Hausarbeiten – und täuschen KI-Erkennungssoftware mit überraschend einfachen Tricks. Wie Universitäten auf den zunehmenden Trend reagieren.
KI-Tools wie ChatGPT gehören auch an den Universitäten längst zum Alltag dazu.
Aber was passiert, wenn Dozent:innen versuchen, KI-generierte Arbeiten zu entlarven? Wie das New York Magazine berichtet,
haben Studenten in den USA darauf eine überraschend einfache Antwort gefunden: Sie bauen gezielt Tippfehler in ihre Hausarbeiten ein.
Auch der Einsatz absichtlich „dummer“ Prompts ist inzwischen gängige Praxis. Dadurch sollen die Texte natürlicher wirken.
Student:innen nutzen ChatGPT gezielt zum Schummeln
KI-Tools können im akademischen Kontext längst mehr als nur Texte zusammenfassen – und viele Student:innen nutzen sie, um sich bei Hausarbeiten oder Essays stundenlange Arbeit zu sparen. Dass sie Hilfe beim Erstellen der Texte hatten, sollen die Profesor:innen aber natürlich nicht erfahren, denn im schlimmsten Fall drohen schlechte Noten oder der Ausschluss vom Kurs. Der Stanford-Student Eric beschreibt im Interview mit dem New York Magazine eine besonders raffinierte Methode, um nicht aufzufliegen: „Du gibst einen Prompt in ChatGPT ein, nimmst das Ergebnis und gibst es dann in ein anderes KI-System ein – und danach noch in ein weiteres“, sagt er. „Wenn du den Text dann durch ein Tool zur KI-Erkennung laufen lässt, sinkt jedes Mal der Anteil, der identifiziert werden kann.“
Auch in Deutschland werden KI-Tools schon von Studentem genutzt: In einer bundesweiten Befragung durch Forschere der Hochschule Darmstadt gaben 92 % der Student:innen an, Tools wie ChatGPT zumindest gelegentlich zu verwenden
– im Jahr 2023 waren es noch 63 Prozent. Insgesamt nahmen 4.910 Student:innen von 395 Hochschulen an der Befragung teil. Mehr als zwei Drittel von ihnen gab an, auf Tools wie ChatGPT zurückzugreifen, um Verständnisfragen zu klären und um sich komplexe Konzepte erklären zu lassen. Rund 52 Prozent nutzen KI auch zur Analyse, Verarbeitung und Erstellung von Texten und bei knapp der Hälfte der Befragten kommen KI-Tools für Übersetzungen zum Einsatz.
Deutsche Hochschulen stehen unter Handlungsdruck!
In den USA sorgen sich Professor:innen allerdings nicht nur um das Thema Betrug. Auch die oft fehleranfälligen Antworten gängiger KI-Systeme stellen ein ernstzunehmendes Problem dar. Sam Williams, Teaching Assistant an der University of Iowa, berichtet etwa von deutlichen Qualitätsunterschieden in den Arbeiten, die er bewerten muss. In einem Essay wurde zum Beispiel behauptet, Elvis Presley sei Teil der Jazzszene von New Orleans gewesen – ein klassischer Fall einer sogenannten Halluzination, zu denen selbst die besten KI-Modelle noch immer neigen. Williams bat seine Student:innen daraufhin, keine KI-Tools mehr zu verwenden – und falls doch, dann wenigstens so, dass es weniger auffällt.
Und das Problem hat noch eine weitere essenzielle Facette:
Denn bislang fehlt es an den meisten Universitäten an verbindlichen Richtlinien zum Einsatz von KI bei Hausarbeiten und anderen Prüfungsleistungen.
In Deutschland haben bisher nur etwa 30 Prozent der Hochschulen klare Regelungen für die Nutzung von KI-Tools formuliert. Die Grenze zwischen kreativer Hilfestellung und unsauberer Abkürzung verschwimmt zunehmend – und macht es Universitäten umso schwerer, mit der rasanten Entwicklung Schritt zu halten. Gleichzeitig wächst der Handlungsdruck: Seit Februar verpflichtet die europäische KI-Verordnung Hochschulen nämlich dazu, Student:innen und Lehrkräften notwendige Kompetenzen im Umgang mit KI zu vermitteln.
Was denkt ihr darüber? Was soll getan werden?