VG Kassel: KI-Nutzung = Studienaus für 2 Studenten
beck-aktuell: KI half beim Schreiben
Die Entscheidungen des Verwaltungsgerichts Kassel vom 25. Februar 2026 (Az. 7 K 2134/24.KS und 7 K 2515/25.KS) betreffen zwei Prüfungsleistungen, bei denen Studierende Künstliche Intelligenz zur Erstellung wissenschaftlicher Arbeiten verwendet hatten, ohne dies offenzulegen. Die Universität bewertete die Arbeiten mit „nicht bestanden“ und untersagte zusätzlich die Wiederholungsprüfung. Das Gericht bestätigte diese Entscheidung.
Der zentrale rechtliche Ausgangspunkt liegt nicht im Einsatz von KI als solcher, sondern in der Täuschung über die Eigenständigkeit der Prüfungsleistung.
Juristische Einordnung der KI-Nutzung
Die Gerichte stellen auf drei rechtliche Ebenen ab:
1. Prüfungsrechtlicher Täuschungstatbestand
Die Nutzung von KI ohne Offenlegung stellt nach Auffassung des Gerichts eine Täuschung über die Eigenleistung dar. Maßgeblich ist dabei die regelmäßig abgegebene Eigenständigkeitserklärung, in der bestätigt wird, dass keine unerlaubten Hilfsmittel verwendet wurden.
2. Schwere Täuschung
Das Gericht ordnet den Fall als schwere Täuschung ein. Daraus folgt nach vielen Prüfungsordnungen:
-
Bewertung mit „nicht bestanden“
-
Ausschluss von Wiederholungsprüfungen
-
im Extremfall faktisches Ende des Studiengangs
3. Strafrechtliche Dimension
Die falsche Erklärung kann in Extremfällen als falsche Versicherung an Eides statt (§ 156 StGB) bewertet werden, wenn die Erklärung entsprechend ausgestaltet ist.
Bedeutung der Entscheidungen für Studenten
Die Kasseler Urteile entfalten faktisch eine Leitwirkung für Hochschulen.
Grundsatz der Nichtzulässigkeit ohne ausdrückliche Erlaubnis
Das Gericht formuliert einen klaren Grundsatz:
KI darf in Prüfungen nur verwendet werden, wenn die Prüfungsordnung dies ausdrücklich erlaubt.
Fehlt eine Regelung, gilt dies nicht als stillschweigende Erlaubnis.
Strenge Sanktionen
Die Konsequenzen können gravierend sein:
-
endgültiges Nichtbestehen der Arbeit
-
Ausschluss von Wiederholungsprüfungen
-
faktisches Scheitern des Studiengangs
Bei Abschlussarbeiten kann dies berufsrechtlich erheblich wirken, weil ein Studienabschluss Voraussetzung für viele Berufszugänge ist.
Beweisproblematik – Anscheinsbeweis
Da KI-Texte technisch schwer nachweisbar sind, stützt sich die Rechtsprechung auf Indizienbeweise.
Das Verwaltungsgericht Kassel akzeptiert den Anscheinsbeweis als Beweismittel.
Dabei werden mehrere Indizien zusammengeführt. Einzelne Hinweise reichen nicht aus; entscheidend ist die Gesamtschau.
Typische Indizien sind:
-
Erfundene Quellen oder falsche Literaturangaben
-
Stilbrüche im Text
-
untypisch generische Formulierungen
-
logische Fehler oder KI-typische Halluzinationen
-
fehlende Fähigkeit des Studenten, Inhalte mündlich zu erläutern
-
unplausible Bearbeitungszeit im Verhältnis zum Umfang der Arbeit
Ergibt sich daraus eine hohe Wahrscheinlichkeit, kann das Gericht den KI-Einsatz als erwiesen ansehen, auch ohne technischen Nachweis.
Technische Tools zur Erkennung von KI
1. Turnitin AI Writing Detection
Link:
https://www.turnitin.com/solutions/topics/ai-writing/
Turnitin ist weltweit das am häufigsten eingesetzte System an Universitäten. Es kombiniert klassische Plagiatsprüfung mit KI-Erkennung und ist direkt in Lernplattformen integriert. (turnitin.com)
2. GPTZero
Link:
https://gptzero.me/
GPTZero wurde ursprünglich für den akademischen Bereich entwickelt und analysiert Texte über statistische Merkmale wie Perplexity und Burstiness, um KI-typische Muster zu erkennen. (GPTZero)
3. Copyleaks AI Content Detector
Link:
https://copyleaks.com/ai-content-detector
Copyleaks kombiniert Plagiatsprüfung und KI-Erkennung und unterstützt zahlreiche Sprachen und KI-Modelle. Das Tool wird häufig in Bildungsinstitutionen eingesetzt. (Copyleaks)
4. Winston AI
Winston AI ist ein spezialisiertes System zur Erkennung von KI-Texten aus Modellen wie ChatGPT, Gemini oder Claude und wird von Institutionen und Verlagen zur Sicherung der Textauthentizität genutzt. (Winston AI)
5. Originality.ai
Originality.ai wird häufig im akademischen und journalistischen Umfeld eingesetzt. Neben KI-Erkennung bietet das System Plagiatsprüfung und Faktenkontrolle. (originality.ai)
6. QuillBot AI Detector
Link:
https://quillbot.com/ai-content-detector
Ein frei zugängliches Analysewerkzeug, das Texte auf mögliche KI-Generierung überprüft und Wahrscheinlichkeitswerte ausgibt. (QuillBot)
7. ZeroGPT
Link:
https://zerogpt.com/
Ein häufig genutzter kostenloser Online-Detector, der KI-Texte über statistische Sprachmuster identifizieren soll.
8. ContentDetector.AI
Link:
https://contentdetector.ai/
Ein einfaches Tool zur schnellen Analyse, das einen prozentualen KI-Verdacht für eingegebene Texte ausgibt. (guides.library.ttu.edu)
Wichtig ist:
Keines dieser Systeme liefert einen gerichtsfesten Beweis.
Sie arbeiten probabilistisch und dienen meist nur als Screening-Instrument, das anschließend durch:
-
mündliche Prüfung
-
Stilanalysen
-
Quellenprüfung
-
Dokumentation des Arbeitsprozesses
ergänzt wird.
Viele Hochschulen verwenden deshalb mehrere Tools parallel, um Fehlklassifikationen zu reduzieren.
Praxis der Universitäten bei der Ermittlung von KI-Einsatz
Neben technischen Tools setzen Hochschulen mehrere klassische Prüfmethoden ein:
-
mündliche Verteidigung der Arbeit
-
Abgleich mit früheren Hausarbeiten desselben Studenten
-
Analyse des Schreibprozesses (Versionshistorie)
-
Überprüfung der Literaturangaben
-
Plagiatssoftware
-
Befragung im Prüfungsgespräch
Gerade die mündliche Prüfung gilt als effektivste Methode, da sie zeigt, ob der Student die Argumentation tatsächlich verstanden hat.
Notwendigkeit eines geregelten KI-Einsatzes?
Die aktuelle Situation ist durch Regelungslücken geprägt:
-
hohe KI-Nutzung unter Studenten
-
uneinheitliche Prüfungsordnungen
-
fehlende didaktische Integration
Diese Konstellation führt zu einer Grauzone zwischen Innovation und Täuschung.
Ansatz von Matthias Kindt
Der Hochschul- und Digitalpolitik-Analyst Matthias Kindt vertritt die Position, dass ein generelles Verbot weder realistisch noch sinnvoll ist.
Seine zentralen Argumente lassen sich wie folgt zusammenfassen.
KI ist Teil moderner Wissensarbeit
In Wirtschaft, Verwaltung und Forschung wird KI bereits eingesetzt. Ein vollständiges Verbot im Studium erzeugt daher eine Diskrepanz zwischen Ausbildung und Praxis.
Transparenz statt Verbot
Kindt plädiert für ein Deklarationsmodell:
Studenten sollen offenlegen,
-
welches KI-Tool verwendet wurde
-
in welchem Umfang
-
für welche Arbeitsschritte
Damit würde KI ähnlich behandelt wie:
-
Statistiksoftware
-
Recherchetools
-
Übersetzungsprogramme
Didaktische Integration
Prüfungsformen müssten angepasst werden, etwa durch:
-
stärkere mündliche Prüfungen
-
Projektarbeiten
-
iterative Arbeitsprozesse
Dokumentationspflicht
Ein möglicher Standard wäre ein KI-Protokoll, das enthält:
-
Prompt-Dokumentation
-
verwendete Modelle
-
Überarbeitungsprozesse
Dies würde Transparenz herstellen und zugleich wissenschaftliche Kompetenz fördern.
Internationale Regelungen zum Einsatz von KI im Studium
Mehrere Staaten haben bereits begonnen, den Einsatz von Künstlicher Intelligenz im Hochschulbereich systematisch zu regulieren, anstatt ihn pauschal zu verbieten. Dabei zeigt sich ein gemeinsames Muster: Transparenzpflicht statt Totalverbot. Die folgenden Modelle gelten derzeit als besonders prägend.
USA
Grundmodell: „Disclosure-Based AI Use“
Die meisten amerikanischen Universitäten verfolgen inzwischen ein Offenlegungsmodell.
Studenten dürfen KI nutzen, müssen aber:
-
das verwendete Tool angeben
-
den Einsatz dokumentieren
-
den Umfang der Nutzung beschreiben
Typischer Standardvermerk:
„This work may include the use of generative AI tools. All AI-generated content has been reviewed and verified by the author.“
Der Fokus liegt stärker auf kritischer Bewertung von KI-Ergebnissen.
Vereinigtes Königreich
Leitlinien der Quality Assurance Agency (QAA)
Die britische Hochschulaufsicht empfiehlt drei Kategorien:
Kategorie A – KI erlaubt
-
Ideensammlung
-
Recherche
-
Grammatikprüfung
Kategorie B – KI erlaubt mit Dokumentation
-
Textentwürfe
-
Strukturierung
Kategorie C – KI verboten
-
Prüfungen unter Aufsicht
-
Abschlussarbeiten ohne Kennzeichnung
Niederlande
Nationale Empfehlung
Der niederländische Universitätenverband (VSNU) empfiehlt:
-
KI grundsätzlich zulassen
-
Nutzung transparent dokumentieren
-
Prüfungsformen anpassen
Praxis
Viele Universitäten verlangen inzwischen ein AI Appendix in Hausarbeiten.
In diesem Abschnitt müssen Studenten angeben:
-
welches Modell genutzt wurde
-
welche Prompts verwendet wurden
-
wie die Ergebnisse überprüft wurden
Frankreich
Frankreich verfolgt einen stärker regulierten Ansatz.
Das Bildungsministerium empfiehlt:
-
KI als didaktisches Werkzeug einzusetzen
-
aber Abschlussarbeiten besonders streng zu kontrollieren
Mehrere Grandes Écoles verlangen inzwischen:
-
vollständige Dokumentation von KI-Prompts
-
Versionshistorie der Texte
Zusammenfassend:
International zeichnet sich ein klarer Trend ab:
Der Einsatz von KI wird nicht mehr verhindert, sondern reguliert.
Die wichtigsten Elemente moderner Regelungen sind:
-
Transparenzpflicht
-
Dokumentation der Nutzung
-
Anpassung der Prüfungsformate
-
Kombination von schriftlichen und mündlichen Leistungen
Dieses Modell erlaubt:
-
wissenschaftliche Eigenleistung zu sichern
-
zugleich den technologischen Fortschritt zu integrieren.
