24111 Kiel, Rendsburger Landstraße 436
+49 431 12807082
kanzlei@grafkerssenbrock.com

VG Kassel: KI-Nutzung = Studienaus für 2 Studenten

Arbeitsrecht – Erbrecht - Kommunalrecht

VG Kassel: KI-Nutzung = Studienaus für 2 Studenten

KI Malt

beck-aktuell: KI half beim Schreiben

Die Entscheidungen des Verwaltungsgerichts Kassel vom 25. Februar 2026 (Az. 7 K 2134/24.KS und 7 K 2515/25.KS) betreffen zwei Prüfungsleistungen, bei denen Studierende Künstliche Intelligenz zur Erstellung wissenschaftlicher Arbeiten verwendet hatten, ohne dies offenzulegen. Die Universität bewertete die Arbeiten mit „nicht bestanden“ und untersagte zusätzlich die Wiederholungsprüfung. Das Gericht bestätigte diese Entscheidung.

Der zentrale rechtliche Ausgangspunkt liegt nicht im Einsatz von KI als solcher, sondern in der Täuschung über die Eigenständigkeit der Prüfungsleistung.

Juristische Einordnung der KI-Nutzung

Die Gerichte stellen auf drei rechtliche Ebenen ab:

1. Prüfungsrechtlicher Täuschungstatbestand

Die Nutzung von KI ohne Offenlegung stellt nach Auffassung des Gerichts eine Täuschung über die Eigenleistung dar. Maßgeblich ist dabei die regelmäßig abgegebene Eigenständigkeitserklärung, in der bestätigt wird, dass keine unerlaubten Hilfsmittel verwendet wurden.

2. Schwere Täuschung

Das Gericht ordnet den Fall als schwere Täuschung ein. Daraus folgt nach vielen Prüfungsordnungen:

  • Bewertung mit „nicht bestanden“

  • Ausschluss von Wiederholungsprüfungen

  • im Extremfall faktisches Ende des Studiengangs

3. Strafrechtliche Dimension

Die falsche Erklärung kann in Extremfällen als falsche Versicherung an Eides statt (§ 156 StGB) bewertet werden, wenn die Erklärung entsprechend ausgestaltet ist.


Bedeutung der Entscheidungen für Studenten

Die Kasseler Urteile entfalten faktisch eine Leitwirkung für Hochschulen.

Grundsatz der Nichtzulässigkeit ohne ausdrückliche Erlaubnis

Das Gericht formuliert einen klaren Grundsatz:

KI darf in Prüfungen nur verwendet werden, wenn die Prüfungsordnung dies ausdrücklich erlaubt.

Fehlt eine Regelung, gilt dies nicht als stillschweigende Erlaubnis.

Strenge Sanktionen

Die Konsequenzen können gravierend sein:

  • endgültiges Nichtbestehen der Arbeit

  • Ausschluss von Wiederholungsprüfungen

  • faktisches Scheitern des Studiengangs

Bei Abschlussarbeiten kann dies berufsrechtlich erheblich wirken, weil ein Studienabschluss Voraussetzung für viele Berufszugänge ist.

Beweisproblematik – Anscheinsbeweis

Da KI-Texte technisch schwer nachweisbar sind, stützt sich die Rechtsprechung auf Indizienbeweise.

Das Verwaltungsgericht Kassel akzeptiert den Anscheinsbeweis als Beweismittel.

Dabei werden mehrere Indizien zusammengeführt. Einzelne Hinweise reichen nicht aus; entscheidend ist die Gesamtschau.

Typische Indizien sind:

  1. Erfundene Quellen oder falsche Literaturangaben

  2. Stilbrüche im Text

  3. untypisch generische Formulierungen

  4. logische Fehler oder KI-typische Halluzinationen

  5. fehlende Fähigkeit des Studenten, Inhalte mündlich zu erläutern

  6. unplausible Bearbeitungszeit im Verhältnis zum Umfang der Arbeit

Ergibt sich daraus eine hohe Wahrscheinlichkeit, kann das Gericht den KI-Einsatz als erwiesen ansehen, auch ohne technischen Nachweis.


Technische Tools zur Erkennung von KI

1. Turnitin AI Writing Detection

Link:
https://www.turnitin.com/solutions/topics/ai-writing/

Turnitin ist weltweit das am häufigsten eingesetzte System an Universitäten. Es kombiniert klassische Plagiatsprüfung mit KI-Erkennung und ist direkt in Lernplattformen integriert. (turnitin.com)


2. GPTZero

Link:
https://gptzero.me/

GPTZero wurde ursprünglich für den akademischen Bereich entwickelt und analysiert Texte über statistische Merkmale wie Perplexity und Burstiness, um KI-typische Muster zu erkennen. (GPTZero)


3. Copyleaks AI Content Detector

Link:
https://copyleaks.com/ai-content-detector

Copyleaks kombiniert Plagiatsprüfung und KI-Erkennung und unterstützt zahlreiche Sprachen und KI-Modelle. Das Tool wird häufig in Bildungsinstitutionen eingesetzt. (Copyleaks)


4. Winston AI

Link:
https://gowinston.ai/

Winston AI ist ein spezialisiertes System zur Erkennung von KI-Texten aus Modellen wie ChatGPT, Gemini oder Claude und wird von Institutionen und Verlagen zur Sicherung der Textauthentizität genutzt. (Winston AI)


5. Originality.ai

Link:
https://originality.ai/

Originality.ai wird häufig im akademischen und journalistischen Umfeld eingesetzt. Neben KI-Erkennung bietet das System Plagiatsprüfung und Faktenkontrolle. (originality.ai)


6. QuillBot AI Detector

Link:
https://quillbot.com/ai-content-detector

Ein frei zugängliches Analysewerkzeug, das Texte auf mögliche KI-Generierung überprüft und Wahrscheinlichkeitswerte ausgibt. (QuillBot)


7. ZeroGPT

Link:
https://zerogpt.com/

Ein häufig genutzter kostenloser Online-Detector, der KI-Texte über statistische Sprachmuster identifizieren soll.


8. ContentDetector.AI

Link:
https://contentdetector.ai/

Ein einfaches Tool zur schnellen Analyse, das einen prozentualen KI-Verdacht für eingegebene Texte ausgibt. (guides.library.ttu.edu)

Wichtig ist:

Keines dieser Systeme liefert einen gerichtsfesten Beweis.

Sie arbeiten probabilistisch und dienen meist nur als Screening-Instrument, das anschließend durch:

  • mündliche Prüfung

  • Stilanalysen

  • Quellenprüfung

  • Dokumentation des Arbeitsprozesses

ergänzt wird.

Viele Hochschulen verwenden deshalb mehrere Tools parallel, um Fehlklassifikationen zu reduzieren.


Praxis der Universitäten bei der Ermittlung von KI-Einsatz

Neben technischen Tools setzen Hochschulen mehrere klassische Prüfmethoden ein:

  1. mündliche Verteidigung der Arbeit

  2. Abgleich mit früheren Hausarbeiten desselben Studenten

  3. Analyse des Schreibprozesses (Versionshistorie)

  4. Überprüfung der Literaturangaben

  5. Plagiatssoftware

  6. Befragung im Prüfungsgespräch

Gerade die mündliche Prüfung gilt als effektivste Methode, da sie zeigt, ob der Student die Argumentation tatsächlich verstanden hat.


Notwendigkeit eines geregelten KI-Einsatzes?

Die aktuelle Situation ist durch Regelungslücken geprägt:

  • hohe KI-Nutzung unter Studenten

  • uneinheitliche Prüfungsordnungen

  • fehlende didaktische Integration

Diese Konstellation führt zu einer Grauzone zwischen Innovation und Täuschung.


Ansatz von Matthias Kindt

Der Hochschul- und Digitalpolitik-Analyst Matthias Kindt vertritt die Position, dass ein generelles Verbot weder realistisch noch sinnvoll ist.

Seine zentralen Argumente lassen sich wie folgt zusammenfassen.

KI ist Teil moderner Wissensarbeit

In Wirtschaft, Verwaltung und Forschung wird KI bereits eingesetzt. Ein vollständiges Verbot im Studium erzeugt daher eine Diskrepanz zwischen Ausbildung und Praxis.

Transparenz statt Verbot

Kindt plädiert für ein Deklarationsmodell:

Studenten sollen offenlegen,

  • welches KI-Tool verwendet wurde

  • in welchem Umfang

  • für welche Arbeitsschritte

Damit würde KI ähnlich behandelt wie:

  • Statistiksoftware

  • Recherchetools

  • Übersetzungsprogramme

Didaktische Integration

Prüfungsformen müssten angepasst werden, etwa durch:

  • stärkere mündliche Prüfungen

  • Projektarbeiten

  • iterative Arbeitsprozesse 

Dokumentationspflicht

Ein möglicher Standard wäre ein KI-Protokoll, das enthält:

  • Prompt-Dokumentation

  • verwendete Modelle

  • Überarbeitungsprozesse

Dies würde Transparenz herstellen und zugleich wissenschaftliche Kompetenz fördern.

 


Internationale Regelungen zum Einsatz von KI im Studium

Mehrere Staaten haben bereits begonnen, den Einsatz von Künstlicher Intelligenz im Hochschulbereich systematisch zu regulieren, anstatt ihn pauschal zu verbieten. Dabei zeigt sich ein gemeinsames Muster: Transparenzpflicht statt Totalverbot. Die folgenden Modelle gelten derzeit als besonders prägend.


USA

Grundmodell: „Disclosure-Based AI Use“

Die meisten amerikanischen Universitäten verfolgen inzwischen ein Offenlegungsmodell.

Studenten dürfen KI nutzen, müssen aber:

  • das verwendete Tool angeben

  • den Einsatz dokumentieren

  • den Umfang der Nutzung beschreiben

Typischer Standardvermerk:

„This work may include the use of generative AI tools. All AI-generated content has been reviewed and verified by the author.“

Der Fokus liegt stärker auf kritischer Bewertung von KI-Ergebnissen.


Vereinigtes Königreich

Leitlinien der Quality Assurance Agency (QAA)

Die britische Hochschulaufsicht empfiehlt drei Kategorien:

Kategorie A – KI erlaubt

  • Ideensammlung

  • Recherche

  • Grammatikprüfung

Kategorie B – KI erlaubt mit Dokumentation

  • Textentwürfe

  • Strukturierung

Kategorie C – KI verboten

  • Prüfungen unter Aufsicht

  • Abschlussarbeiten ohne Kennzeichnung


Niederlande

Nationale Empfehlung

Der niederländische Universitätenverband (VSNU) empfiehlt:

  • KI grundsätzlich zulassen

  • Nutzung transparent dokumentieren

  • Prüfungsformen anpassen

Praxis

Viele Universitäten verlangen inzwischen ein AI Appendix in Hausarbeiten.

In diesem Abschnitt müssen Studenten angeben:

  • welches Modell genutzt wurde

  • welche Prompts verwendet wurden

  • wie die Ergebnisse überprüft wurden

 

Frankreich

Frankreich verfolgt einen stärker regulierten Ansatz.

Das Bildungsministerium empfiehlt:

  • KI als didaktisches Werkzeug einzusetzen

  • aber Abschlussarbeiten besonders streng zu kontrollieren

Mehrere Grandes Écoles verlangen inzwischen:

  • vollständige Dokumentation von KI-Prompts

  • Versionshistorie der Texte


Zusammenfassend:

International zeichnet sich ein klarer Trend ab:

Der Einsatz von KI wird nicht mehr verhindert, sondern reguliert.

Die wichtigsten Elemente moderner Regelungen sind:

  1. Transparenzpflicht

  2. Dokumentation der Nutzung

  3. Anpassung der Prüfungsformate

  4. Kombination von schriftlichen und mündlichen Leistungen

Dieses Modell erlaubt:

  • wissenschaftliche Eigenleistung zu sichern

  • zugleich den technologischen Fortschritt zu integrieren.

 

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Translate »