Ende 2023 bemerkten die Fakultätsmitglieder einer mittelgroßen europäischen Universität etwas Ungewöhnliches: einen starken Anstieg der Aufsätze, die perfekt fließend waren, aber nicht originelle Argumente, Zitate und nuanciertes kritisches Denken fehlten. Nach informellen Vergleichen und manuellen Überprüfungen vermuteten sie einen neuen Schuldigen – generative KI-Tools wie Chatgpt.
In dieser Fallstudie wird untersucht, wie die Riverton University (ein fiktives, aber realistisches Komposit basierend auf realen Praktiken) den Anstieg der KI-generierten Studentenarbeit ansprach. Die mehrschichtige Strategie der Universität bietet ein Modell für andere, die sich mit ähnlichen Herausforderungen befassen.
Hintergrund: Das Problem tritt auf
Zu Beginn des Studienjahres meldeten sich Ausbilder in mehreren Abteilungen – Englisch, Wirtschafts- und Sozialwissenschaften – ähnliche Anliegen:
- Zuweisungen ohne Tiefe, aber einwandfreie Grammatik
- wiederholte Phrasierungen, die auf AI-Ausgabe hindeuten
- Verminderte Teilnahme der Schüler an diskussionsbasierten Aufgaben
Erste Plagiatsuntersuchungen ergaben keine Übereinstimmungen und ließen den Verdacht auf, dass KI anstelle von traditionellem Betrug verantwortlich war. Die Universität wusste, dass es handeln musste – aber wie?
Phase 1: Bewertung und Engagement der Stakeholder
Die Riverton University hat erstmals eine Fakultätsumfrage und Fokusgruppen für Studenten gestartet, um den Umfang des Problems zu verstehen.
Schlüsselergebnisse:
| Gruppe | Erkenntnisse |
|---|---|
| Fakultät | 67% Verdacht auf KI in schriftlichen Einsendungen seit ChatGPT gestartet |
| Studenten | 42% haben zugelassen, dass sie KI-Tools ausprobiert haben, hauptsächlich für die Ideengenerierung oder -umrisse |
| IT-Abteilung | Benötigte Richtlinien zur akzeptablen Nutzung von KI-Software auf Universitätsgeräten |
Diese Daten bildeten die Grundlage für einen universitätsweiten Aktionsplan, der in Transparenz und eher als Bestrafung allein.
Phase 2: Richtlinienentwicklung
Einer der ersten Schritte von Riverton war die Überarbeitung seiner Politik der akademischen Integrität, um die KI explizit anzusprechen. Das neue Framework kategorisierte die KI-Beteiligung eher nach Absicht und Ergebnis als nur nach Verwendung.
| AI verwenden Kategorie | Beispiele | Status |
|---|---|---|
| unterstützend | Grammatikkorrektur, Gliederungsgenerierung, Ideen-Brainstorming | Mit Offenlegung erlaubt |
| substitutiv | Vollständiger Entwurf, automatische Antworten in Foren, Abschluss des Aufsatzes | verboten; Berücksichtigtes akademisches Fehlverhalten |
| Mehrdeutig | Lesungen zusammenfassen, Abschnitte mit KI-Umschreibungen | kontextabhängig; Erfordert die Erlaubnis des Ausbilders |
Dieser differenzierte Ansatz ermöglichte Flexibilität und stärkte gleichzeitig die Standards der Autorschaft und Originalität der Universität.
Phase 3: Ausbildung von Studenten und Fakultäten
Anstatt die Studenten blind zu bestrafen, investierte Riverton in die Ausbildung zur digitalen Kompetenz. Die Universität startete eine Kampagne mit dem Titel “Write Right in the Age of AI”, die Folgendes umfasste:
- Online-Module über ethische KI-Nutzung
- Abteilungs-Workshops zum Thema Zitat und Transparenz
- A Chatbot, um Fragen zu akzeptablen Praktiken zu beantworten
„Unser Ziel ist es nicht, die KI zu verbieten – es ist, den Schülern beizubringen, sie verantwortungsbewusst anzuwenden“, sagte Dr. Elisa Hartmann, Academic Integrity Officer.
Instruktoren wurden auch geschult, um Anzeichen von KI-generierter Arbeit zu erkennen, wie:
- Einheitliche Satzlänge und -ton
- Fehlende konkrete Beispiele
- Überbeanspruchung generischer Übergangsphrasen
- Ersetzen von „Schreibe einen Aufsatz auf X“ durch lokalisierte oder persönliche Anwendungsaufforderungen
- Hinzufügen von mündlichen Komponenten oder Reflexionen in der Klasse
- Einbeziehung von Entwurfs-Checkpoints und Peer-Review-Phasen
- Klare und flexible Richtlinien
- Ethische KI-Ausbildung
- Assessment Redesign
- Unterstützung für Studierende und Fakultät
Phase 4: Technologieintegration
Zur Unterstützung der Erkennung und Fairness hat die Universität Originalität.AI und Turnitins KI-Erkennungsmodul übernommen. Die Ausbilder wurden jedoch ermutigt, diese Tools mit einer manuellen Überprüfung zu kombinieren.
Vor- und Nachteile der verwendeten Werkzeuge:
| Werkzeug | Stärke | Einschränkung |
|---|---|---|
| Turnitin-AI-Erkennung | Integriert in LMS, einfache Berichte | False Positives beim Schreiben von Schülern auf hoher Ebene |
| Originalität.ai | Hohe Empfindlichkeit für GPT-Modelle | Kosten und Genauigkeit variieren je nach Texttyp |
Die Universität betonte, dass Erkennungswerkzeuge Indikatoren sind, keine Richter. Ein Gremium mit Fakultät, der Student und ein neutraler akademischer Berater überprüfte jeden markierten Fall.
Phase 5: Assessment Redesign
Riverton befasste sich auch mit der Wurzel des Problems – dem Bewertungsdesign. Viele Aufgaben waren zu generisch, so dass KI passable Arbeit generieren konnte.
Reformen eingeschlossen:
Diese Maßnahmen verringerten nicht nur den Missbrauch von KI, sondern haben auch das Engagement und die Schreibqualität der Schüler verbessert.
Ergebnisse nach einem Semester
| Metrik | Herbst 2023 | Frühjahr 2024 |
|---|---|---|
| Verdacht auf AI-Missbrauchsfälle | 72 | 19 |
| Schüler-Offenlegung von KI-Nutzung | 6% | 34% |
| Richtlinienverstöße, die Disziplin erfordern | 15 | 3 |
| Zufriedenheit der Fakultät mit Unterstützung | 53% | 81% |
Der Fall zeigte, dass offener Dialog, Klarheit der Politik und effektive Pädagogik die Anwendung von KI in der Wissenschaft verändern können.
Eine Blaupause für Aktion
Die Erfahrung der Riverton University bietet ein skalierbares Modell für Institutionen, die der KI-Revolution in der Arbeit der Studenten gegenüberstehen. Anstatt sich ausschließlich auf die Erkennung zu verlassen, priorisierte die Universität:
Während sich die Landschaft des akademischen Schreibens entwickelt, bleibt die Kernaufgabe: Authentisches Lernen, kritisches Denken und persönliche Autorschaft mit oder ohne KI zu kultivieren.