Bei all der Euphorie um die viel beschworenen Fähigkei- ten künstlicher Intelligenz (KI) war es wohl nur eine Fra- ge der Zeit, bis die Technologie Einzug hält in die Hörsä- le dieses Landes. In einer nicht repräsentativen Umfrage des Digitalverbands Bitkom e.V. gaben im Januar dieses Jahres 65 % der Studierenden an, das generative KI-Sys- tem ChatGPT zu nutzen. Mehr als die Hälfte der Befrag- ten unterstützte außerdem die These, dass sich Studie- rende durch den Einsatz des KI-Systems einen unge- rechten Vorteil verschaffen können. Dennoch adressiert nur ein kleiner Teil der Prüfungsordnungen deutscher Hochschulen explizit den Einsatz künstlicher Intelli- genz.1 Braucht es also eine umfassende Reform der uni- versitären Regelwerke? Und worauf haben Hochschulen zu achten, wenn sie die Technologie zulassen oder ver- bieten wollen? Um diesen Fragen nachzugehen, hat der Verein zur Förderung des deutschen und internationa- len Wissenschaftsrechts e.V. am 18.4.2024 eine Tagung unter der Überschrift „Aktuelles zu Digitalen Prüfungen – Welche Zukunft hat KI?“ veranstaltet. Mehr als 180 Teilnehmerinnen und Teilnehmer folgten der Einladung und verdeutlichten so das rege Interesse an der Thema- tik. Unter der Moderation des Ehrenvorsitzenden des Vereins, Prof. Ulf Pallme König, und des Vorstandsmit- glieds Prof. Dr. Volker Epping erläuterten zunächst Edgar Fischer, Vorsitzender Richter am VG Berlin, und Dr. Peter Dieterich, LL.M., Richter am VG Berlin, die prü- fungsrechtlichen Herausforderungen des KI-Einsatzes (I.).2 Im Anschluss widmete sich Prof. Dr. Rolf Schwart- mann, Leiter der Kölner Forschungsstelle für Medien- recht an der TH Köln, den KI-rechtlichen Voraussetzun- gen einer Implementierung der Technologie an Hoch- schulen (II.), bevor die Referenten in einer abschließenden Diskussionsrunde auf die offenen Fra- gen der Teilnehmerinnen und Teilnehmer eingingen (III.).
1 https://www.bitkom.org/Presse/Presseinformation/So-digital- sind-Deutschlands-Hochschulen (zuletzt abgerufen am: 26.4.2024).
I. KI-Einsatz in Prüfungen
Den Auftakt zur Veranstaltung machten Fischer und Dieterich mit einer Betrachtung der rechtlichen Proble- me des Einsatzes künstlicher Intelligenz in Prüfungssitu- ationen. Dabei knüpften sie an die vier vorangegangenen Veranstaltungen des Vereins zu Digitalen Prüfungen an, die als Reaktion auf die Unsicherheiten in der Corona- Pandemie bereits im Oktober 2020 eingeführt wurden und sich seither stetig wachsender Beliebtheit erfreuen.3
1. KI-Einsatz seitens des Prüflings
Die in den vorangegangenen Veranstaltungen vermittel- te Täuschungsdogmatik im Prüfungsrecht lasse sich auf den Einsatz künstlicher Intelligenz seitens der Prüflinge übertragen. Eine sanktionierbare Täuschungshandlung liege demnach vor, wenn ein Prüfling eine KI-Anwen- dung ohne Angabe der Nutzung einsetzt. In der Regel sei der verdeckte Einsatz künstlicher Intelligenz als uner- laubte Hilfe im Sinne der Prüfungsordnungen zu qualifi- zieren. Die Regelwerke müssten daher nicht grundle- gend geändert werden. Verboten sei allerdings nur die Ausgabe einer KI-generierten Leistung als eigene, etwa wenn sich der Prüfling eine Hausarbeit von einer KI schreiben lässt. Der KI-Einsatz zu Recherchezwecken dürfte hingegen vorbehaltlich spezieller – kaum effektiv durchsetzbarer – Regelungen in den Prüfungsordnun- gen oder Eigenständigkeitserklärungen keinen Beden- ken begegnen, da die Verwendung von KI in diesem Zusammenhang nicht anders zu bewerten sein dürfte als gebräuchliche Recherchemittel wie das Internet. Zwar seien Antworten von ChatGPT mangels geistiger Eigen- leistung einer identifizierbaren Person keine klassische zitierfähige Quelle i.S.d. Urheberrechts – Maßstab des Prüfungsrechts sei jedoch die Eigenständigkeit der Prü- fungsleistung, die sich durch Kennzeichnung der Über-
2 Fischer und Dieterich sind Autoren des Standardwerkes Fischer/
Ordnung der Wissenschaft 2024, ISSN 2197–9197
Moritz Köhler
Aktuelles zu digitalen Prüfungen – welche Zukunft hat KI?
Bericht über die Tagung des Vereins zur Förderung des deutschen und internationalen Wissenschafts- rechts e.V. am 18.4.2024
3
Jeremias/Dieterich, Prüfungsrecht, 8. Aufl., München 2022.
S. hierzu Haake, OdW 2023, 235; dies., OdW 2022, 215; dies., OdW 2021, 201; dies., OdW 2021, 59.
340 ORDNUNG DER WISSENSCHAFT 4 (2024), 339–344
nahme KI-generierter Bausteine durchaus belegen lasse. Eine solche Offenlegung begegne angesichts der fehlen- den Perpetuierung der Antworten von ChatGPT jedoch praktischen Schwierigkeiten. Die Abgrenzung zwischen unerlaubter und erlaubter Hilfe erfolge in gewissem Umfang auch anhand der Bewertungsrelevanz der kon- kreten Leistung:4 Sofern die Rechtschreibung Teil der Prüfungsleistung sei, könne daher auch eine rein sprach- liche KI-gestützte Überarbeitung des Textes eine rele- vante Täuschungshandlung darstellen.
Große Herausforderungen sahen die Referenten beim Nachweis eines unzulässigen KI-Einsatzes seitens der Prüflinge. Die Beweislast für eine Täuschungshand- lung liege bei den Hochschulen. Allerdings gelte auch im Prüfungsrecht zum erleichterten Nachweis bestimmter Tatsachen der Grundsatz des Anscheinsbeweises. Des- sen genaue Voraussetzungen und Folgen erläuterte Fi- scher anhand einer Betrachtung der jüngeren Rechtspre- chung zur Täuschung im Rahmen von Online-Prüfun- gen.5 Nach den Grundsätzen des Anscheinsbeweises ge- nüge es, wenn die Hochschulen einen Sachverhalt vortragen, der bei typischem Geschehensablauf nahe- legt, dass der Prüfling auf unerlaubte Hilfsmittel zurück- gegriffen hat. Doch trotz dieser Beweiserleichterung ge- stalte sich die Aufdeckung eines unzulässigen KI-Einsat- zes schon heute komplex. So müsse etwa der Gefahr be- gegnet werden, dass Studierende für besonders gute Leistungen sanktioniert werden.
Die Schwierigkeiten der Beweisführung verdeutlich- te Dieterich den Teilnehmerinnen und Teilnehmern der Tagung anhand eines viel besprochenen Beschlusses des VG München.6 Im zugrundeliegenden Fall hatte sich ein Bachelorabsolvent nach einem erfolglosen Versuch 2022 ein Jahr später ein weiteres Mal auf einen Platz in einem Masterstudiengang der TU München beworben, für den Englischkenntnisse vorausgesetzt werden. Im Bewer- bungsverfahren war jeweils ein Essay in englischer Spra- che anzufertigen, um die Qualifikation für den Studien- gang nachzuweisen. Nach dem erfolglosen ersten Ver- such reichte der Bewerber im Sommer 2023 ein Essay ein, das bei den Verantwortlichen der TU München auf- grund seiner hohen Qualität den Verdacht weckte, KI- generiert zu sein. Nach weiteren Untersuchungen schloss die TU München den Bewerber vom laufenden Bewer- bungsverfahren aus. Der Bewerber stellte in der Folge ei- nen Antrag auf Erlass einer einstweiligen Anordnung mit dem Ziel der vorläufigen Zulassung zum Studium. In
- 4 Vertiefend wurde auf Birnbaum, NVwZ 2023, 1127 (1128) hinge- wiesen.
- 5 VG Berlin, Urt. v. 6.2.2023 – 12 K 52/22; VG Köln, Urt. v. 6.12.2022 – 6 K 1428/22; LG Frankfurt, Urt. v. 5.12.2022 – 2–01 S 89/22;
dem Verfahren hatte das Gericht daraufhin im Wesentli- chen zu entscheiden, ob der Schluss der Hochschule ge- rechtfertigt war, dass der Bewerber das Essay unter un- zulässigem Einsatz künstlicher Intelligenz angefertigt hat.
Die TU München trug zahlreiche Umstände vor, die in der Gesamtschau den unerlaubten KI-Einsatz bewei- sen sollten. Ausgangspunkt war die Überprüfung des Es- says mit einer Software, die ergab, dass 45 % des Textes mit sehr hoher Wahrscheinlichkeit von künstlicher In- telligenz verfasst worden seien. Daraufhin hatte die Uni- versität den Text von zwei Gutachtern beurteilen und prüfen lassen, welche diesem eine auffallende Prägnanz und Struktur konstatierten. Eine vergleichbare Qualität sei unter Bachelorabsolventen äußerst ungewöhnlich und werde selbst von erfahrenen Wissenschaftlern nicht immer erreicht. Ferner unterscheide sich das Essay au- genfällig von dem im Vorjahr durch den Bewerber vor- gelegten. Schließlich habe ein „Selbstversuch“ der Hoch- schule unter Verwendung von ChatGPT ein Resultat er- geben, das auffällige Ähnlichkeit zu dem vom Bewerber eingereichten Essay besitze.
Diese und weitere Umstände ließen nach der Auffas- sung des Gerichts unter Anwendung des Anscheinsbe- weises darauf schließen, dass das Essay mit unerlaubter KI-Hilfe erstellt worden war. Dieterich kritisierte, dass ohne nähere Erläuterung die Regelungen des Anscheins- beweises herangezogen wurden. Im Bereich des KI-Ein- satzes gebe es bisher wohl eher kein allgemeines Erfah- rungswissen, so dass kaum von einem typischen Gesche- hensablauf die Rede sein könne. Legte man aber die Grundsätze der in § 108 Abs. 1 Satz 1 VwGO vorgesehe- nen freien Beweiswürdigung im verwaltungsgerichtli- chen Verfahren an, seien die Schlussfolgerungen des Ge- richts in seinen Augen aber gut nachvollziehbar, wobei Einzelheiten der Überzeugungsbildung – etwa die Um- stände des „Selbstversuchs“ mit ChatGPT – etwas unklar blieben.
Vor dem Hintergrund der erläuterten Beweisschwie- rigkeiten warfen Fischer und Dieterich die Frage auf, in- wiefern sich Prüfungsarten und ‑formate zukünftig ver- ändern müssen oder sollten. In jedem Fall haben die Hochschulen eine Weichenstellung vorzunehmen. Soll der Status Quo gewahrt werden und der KI-Einsatz in Prüfungen verboten bleiben? In diesem Fall müssen sich die Hochschulen mit der fortschreitenden Entwicklung der Technologie auseinandersetzen. Der Beschluss des
Sächs. OVG, Beschl. v. 16.2.2022 – 2 B 274/21.
6 VG München NJW 2024, 1052 ff.; Birnbaum, NVwZ 2024, 607 f.;
Rachut, NJW 2024, 1057; Braegelmann, RDi 2024, 188 ff.
Köhler · Aktuelles zu digitalen Prüfungen — welche Zukunft hat KI? 3 4 1
VG München zeige, dass sich der unerlaubte KI-Einsatz derzeit mit einigem Aufwand noch erkennen lässt. Mög- licherweise seien KI-generierte Texte aber bald zumin- dest für Menschen nicht mehr oder nur mit erheblichem Aufwand als solche identifizierbar. Sofern alternativ auf eine Software zurückgegriffen werden soll, stelle sich be- reits die Frage, ab welcher Wahrscheinlichkeitsgrenze ein Bewerber von dem Verfahren ausgeschlossen wird. Fischer schlug deshalb vor, dem Einsatz künstlicher In- telligenz angepasste Aufgabenstellungen entgegenzuset- zen. So könne von den Studierenden verlangt werden, ihre Lösungen auf Materialien und Ergebnissen der Vor- lesungen aufzubauen. Darüber hinaus können kreative Lösungsansätze die bisher oftmals übliche Wiedergabe von Wissen als wichtigste – und leicht durch KI zu gene- rierende – Bewertungsgrundlage ersetzen. Ein anderer Ansatz sei es, das Risiko einer Entdeckung für die Stu- dierenden zu erhöhen. Dazu können bei entsprechender normativer Grundlage etwa eidesstattliche Versicherun- gen über die selbstständige Bearbeitung einer Prüfung verlangt werden, so dass der unzulässige KI-Einsatz des Prüflings strafrechtliche Konsequenzen hätte.
Ein anderer Ansatz sei es, den KI-Einsatz zuzulassen und die Prüfungsformate anzupassen. Dazu könne etwa ein Fokus auf mündliche Prüfungen und Präsenzklausu- ren gelegt oder eine Kombination aus Hausarbeit bzw. Online-Klausur und mündlicher Prüfung etabliert wer- den. Derartige Prüfungsformate seien allerdings zu- nächst in der Prüfungsordnung zu regeln.
2. KI-Einsatz seitens des Prüfers
Zum Abschluss des Vortrags änderte Fischer die Pers- pektive und setzte sich mit der Frage auseinander, ob der Prüfer KI-Systeme einsetzen dürfe. Die Erstellung einer weiterhin vom Prüfer letztverantworteten Prüfungsauf- gabe unter Zuhilfenahme von KI sei prüfungsrechtlich nicht zu beanstanden. Problematisch sei hingegen die Bewertung einer Prüfungsleistung durch ein KI-System. Das Prüfungsrecht fordere, dass der Prüfer die Arbeit höchstpersönlich und eigenständig bewertet. Er dürfe zwar auf Assistenzen zurückgreifen. Die letzte Entschei- dung dürfe er aber nicht aus der Hand geben. Darauf basierend vertrat Dieterich die Auffassung, dass der assi-
7 Verordnung (EU) 2024/1689 des Europäischen Parlaments
und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU)
Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz), im Folgen- den: KI-VO).
stierende Einsatz künstlicher Intelligenz durch den Prü- fer nicht anders zu behandeln sei als der in gewissem Umfang zulässige Rückgriff auf Korrekturassistenten. In der anschließenden Diskussion widersprach Schwart- mann dieser Ansicht: Die Zulässigkeit der Korrekturas- sistenten entspringe einem anderen Regulierungsbe- reich als die Frage der Zulässigkeit des KI-Einsatzes. Letztere müsse immer, aber auch ausschließlich an der Fähigkeit künstlicher Intelligenz zur Autonomie gemes- sen werden. Dann aber verbiete es sich, die Wertungen zur Zulässigkeit menschlicher Assistenzen auf die künst- liche Intelligenz zu übertragen.
II. Voraussetzungen einer Implementierung an Hoch- schulen
Neben die Frage der prüfungsrechtlichen Zulässigkeit des KI-Einsatzes tritt die Frage der rechtskonformen Gestaltung und Implementierung von KI-Systemen. Letztere wird künftig abschließend von der europäi- schen KI-Verordnung7 beantwortet, welche am 1 August 2024 in Kraft getreten ist.8 Im Anschluss an den Vortrag Fischers und Dieterichs stellte Schwartmann den Teilneh- merinnen und Teilnehmern der Tagung das neue Regel- werk vor und beleuchtete die Konsequenzen für den Hochschulbetrieb.9
1. Die Regulierung von KI-Systemen durch die KI-VO
Grundsätzlich sei die KI-VO ausschließlich auf KI-Sys- teme anwendbar. Deren entscheidendes Merkmal sei ihre Autonomie. Ähnlich wie ein Tier könne ein KI-Sys- tem zwar vom Menschen trainiert werden. Dies gewähr- leiste aber keinen abschließenden Schutz vor plötzlichen Ausbrüchen aus dem menschengemachten Rahmen. Die Gefahren, die sich aus dieser besonderen Fähigkeit der KI-Systeme ergeben, adressiere die KI-VO nach einem risikobasierten Ansatz. Sie ordne jedes System einer von drei Risikostufen zu. Hiernach seien die meisten Systeme unproblematisch und unterliegen deshalb keiner spezifi- schen Regulierung nach der KI-VO. Das gelte etwa, wenn ChatGPT eingesetzt wird, um ein Liebesgedicht oder ein Kochrezept zu schreiben. Von anderen KI-Sys- temen gehe nach der Einschätzung des europäischen
8 Schwartmann/Keber/Zenner (Hrsg.), KI-Verordnung. Leitfaden für die Praxis, 2024.
9 Zum Ganzen wurde vertiefend auf folgende Quellen hingewiesen: Schwartmann, F.A.Z. v. 24.4.2024, 4; Schwartmann, Forschung und Lehre 2024, 348 (349); Benedikt/Köhler/Schwartmann/Wün- schelbaum, F.A.Z v. 18.3.2024, 18; F.A.Z. Einspruch Podcast, Folge 292.
342 ORDNUNG DER WISSENSCHAFT 4 (2024), 339–344
Gesetzgebers hingegen ein hohes Risiko aus.10 Hierunter fallen etwa Systeme, die über den Hochschulzugang ent- scheiden oder Prüfungen bewerten. Einige Systeme sei- en schließlich gänzlich verboten, wie beispielsweise Sys- teme zur Bewertung natürlicher Personen auf Grundlage ihres sozialen Verhaltens. Eine Schwierigkeit machte Schwartmann bei der Abgrenzung zwischen hochriskan- ten und verbotenen KI-Systemen aus. Ermittelt eine Hochschule etwa per KI, ob ihre Studierenden unter Prüfungsangst leiden und zieht daraus Schlüsse für die Prüfungspraxis, könne es schwerfallen, zwischen einem verbotenen Social Scoring und einem unter strengen Voraussetzungen erlaubten Einsatz im Hochschulkon- text zu unterscheiden.
Um den „wilden“ Einsatz von KI-Systemen wie ChatGPT durch private Accounts zu unterbinden, emp- fahl Schwartmann entsprechende Produkte zu lizensie- ren. Nur so können die Chancengleichheit gewahrt und lizenzrechtliche Probleme vermieden werden. Mit der Lizensierung werde die Hochschule aber zugleich Be- treiberin eines KI-Systems im Sinne der KI-VO. Sie sei daher unter anderem verpflichtet, sicherzustellen, dass ihr Personal über hinreichende KI-Kompetenz verfügt. Außerdem müsse sie KI-generierte Inhalte als solche kennzeichnen. Falls das lizensierte KI-System nach der KI-VO hochriskant sei, müsse die Hochschule schließ- lich vor dessen Inbetriebnahme eine Grundrechte-Fol- genabschätzung vornehmen. Dabei sei zu prüfen, welche Auswirkungen die Verwendung des Systems auf die Grundrechte der betroffenen Personen haben kann.
Wesentlich weiter als die genannten Betreiberpflich- ten gingen die Pflichten der Anbieter von Hochrisiko- KI-Systemen. Grundsätzlich fallen darunter zwar nur Systementwickler wie OpenAI oder AlephAlpha. Unter Umständen können aber auch Betreiber in die Anbieter- stellung geraten. Lizensiert eine Hochschule etwa ein KI- System, das im Zugangsverfahren assistieren soll, und versieht dieses mit dem eigenen Logo, habe sie in der Folge die umfangreichen Pflichten der Hochrisiko-KI- Anbieter zu erfüllen. So habe sie etwa sicherzustellen, dass der Betrieb des Systems von einer menschlichen Aufsicht überwacht werden kann. Ebenso werde die Hochschule von der KI-VO als Anbieterin eines Hochri- siko-KI-Systems behandelt, wenn sie ein lizensiertes Hochrisiko-KI-System wesentlich verändert, etwa durch technische Anpassung einer Bewertungs-KI an besonde- re Prüfungsformate.
Darüber hinaus seien Betreiber und sonstige Dritte nach der KI-VO als Anbieter eines Hochrisiko-KI-Sys-
10 Vgl. die nicht abschließende Aufzählung in Anhang III KI-VO.
tems zu behandeln, wenn sie die Zweckbestimmung ei- nes KI-Systems so verändern, dass das betreffende KI- System nach der KI-VO als hochriskant zu klassifizieren ist. Diese Regelung gelte auch für KI-Systeme mit origi- när allgemeinem Verwendungszweck. ChatGPT diene etwa der Generierung von Texten und sei damit nicht zweckgebunden. Es gelte daher im Grundsatz nicht als hochriskant. Wenn allerdings ein Prüfer das KI-System einsetze, um eine Hausarbeit zu bewerten, nutze er das System zu einem hochriskanten Zweck. In der Folge sei- en die Anforderungen an Hochrisiko-KI-Systeme zu er- füllen. Wolle die Hochschule einer Verantwortlichkeit für das Verhalten des Prüfers entgehen, müsse sie ihrem Personal den Einsatz des Systems zu hochriskanten Zwe- ckenuntersagen.HandleeinMitarbeiterentgegendieser Anweisung, so befinde er sich im Exzess und habe für die Folgen persönlich einzustehen.
2. Prüfungsbewertungen von ChatGPT?
Die praktischen Schwierigkeiten beim Einsatz von ChatGPT zur Bewertung von Prüfungsarbeiten erläuter- te Schwartmann anhand eines Selbstversuchs, den er gemeinsam mit einer Mitarbeiterin und ehemaligen Stu- dentin durchgeführt hatte: In dem Versuch wurde das KI-System mit den Bewertungsvorgaben der geltenden Prüfungsordnung und der Masterarbeit der Studentin gefüttert. Seine Aufgabe lautete, die Arbeit anhand der verfügbaren Informationen zu benoten. Tatsächlich bewertete ChatGPT die Arbeit mit 1,3 – der gleichen Note, mit der auch die Prüfer die Arbeit bewertet hatten. Daraufhin änderte Schwartmann das Thema der Arbeit. Statt um den Einsatz von KI im Beschäftigtendaten- schutz sollte die Arbeit nun den Einsatz von KI im Bau- recht behandeln. Jeder Prüfer müsse in dieser Konstella- tion erkennen, dass die eingereichte Masterarbeit die vorgegebene Aufgabenstellung nicht erfüllt. Thema ver- fehlt. Nicht so die KI: ChatGPT gab auch auf die verän- derten Gegebenheiten hin an, dass die Arbeit mit der Note 1,3 zu bewerten sei.
Schwartmann wies darauf hin, dass das Ergebnis sei- nes Selbstversuchs nicht auf einen Fehler der KI zurück- zuführen sei, sondern auf einen menschlichen Fehler in der Anwendung. Nur durch genaue menschliche Vorga- ben und einen bedachten Einsatz könne die KI einen echten Mehrwert liefern. Es gehe daher eher um Verbes- serung der Qualität als um Arbeitserleichterung per Zauberhand. Um einen verantwortungsbewussten Ge- brauch der KI-Systeme sicherzustellen, müsse die in der KI-VO vorgesehene Stopptaste für Hochrisiko-KI-Syste-
Köhler · Aktuelles zu digitalen Prüfungen — welche Zukunft hat KI? 3 4 3
me als Starttaste verstanden werden: Anstatt die KI ab- zuschalten, wenn es womöglich bereits zu spät ist, solle der Mensch sich eigene Gedanken machen und die KI sodann bewusst zur Überprüfung dieser eigenen Gedan- ken starten.
III. Prüfungen in Zeiten künstlicher Intelligenz
In der anschließenden Fragerunde wurden zunächst Verfahren diskutiert, um einen verbotenen Einsatz von KI-Anwendungen in Prüfungssituationen zu verhin- dern. Vorgeschlagen aus dem Kreis der Zuhörer wurde unter anderem, dass bei Hausarbeiten Studierende aus- gelost werden könnten, die zusätzlich zur schriftlichen Leistung einen mündlichen Vortrag halten müssen. Der mündliche Vortrag könne außerhalb der Bewertung der Hausarbeit zu halten sein, oder aber Bestandteil der Bewertung werden. So solle generalpräventiv sicherge- stellt werden, dass die Studierenden die geforderte Leis- tung eigenständig erbringen bzw. die fehlende Eigen- ständigkeit bei der Erstellung der schriftlichen Leistung aufgedeckt wird. Fischer verwies auf die Parallelen zwi- schen Täuschungsversuchen mit KI-Anwendungen in digitalen Prüfungen: Bei Letzteren seien bereits Fälle bekannt, in denen Prüfer nach einer schriftlichen Leis- tung in einem kurzen Gespräch abgefragt hätten, ob der jeweilige Prüfling den Stoff und die Entstehung der Arbeit wiedergeben kann. Schwartmann stellte in diesem Kontext einen Ansatz vor, den er selbst gerade mit den Studierenden des von der TH Köln angebotenen Master- studiengangs „Medienrecht und Medienwirtschaft“ erprobt: Die Studierenden erarbeiten dabei ein Thema unter Einsatz künstlicher Intelligenz. Im Anschluss prä- sentieren sie die KI-generierten Ergebnisse in einem mündlichen Vortrag und setzen sich kritisch mit diesen auseinander.
Fischer wies darauf hin, dass, falls das Gespräch Teil der zu erbringenden Leistung sein solle, dies in der Prü- fungsordnung festzuhalten sei. Eine Auslosung einiger weniger Studierender würde in diesem Fall – anders als bei Stichproben zur Aufdeckung von Täuschungsversu- chen – dann auch einen Verstoß gegen die Chancen- gleichheit darstellen und verbiete sich deshalb. Doch auch wenn das Gespräch nur zur Überprüfung eines Täuschungsverdachts vorgesehen sei, empfehle sich eine Regelung in der Prüfungsordnung zur Mitwirkungs- pflicht des Prüflings bei der Aufklärung des Sachver- halts. Dieterich ergänzte, dass sich im Übrigen auch § 26 VwVfG für Grund und Grenze der Mitwirkungs-
11 Haake, OdW 2023, 235 (60 und 63 f.).
pflicht bemühen lässt. Hiernach sollen alle Beteiligten ei- nes Verwaltungsverfahrens bei der Ermittlung des Sach- verhalts mitwirken. Eine Pflicht zum persönlichen Er- scheinen oder zur Aussage bestehe nach § 26 Abs. 2 VwVfG aber nur, soweit sie durch Rechtsvorschrift be- sonders vorgesehen ist.
Auf reges Interesse stießen auch einige Regelungen, die nun von der KI-VO eingeführt werden. So kam die Frage auf, ob die Transparenzpflicht beim Einsatz textge- nerierender KI-Systeme auch für Studierende gelte, die ChatGPT in ihren Prüfungen einsetzen. Schwartmann stellte klar, dass die Studierenden keine Anbieter im Sin- ne der KI-VO sind und damit nicht von der Regelung zur Transparenz adressiert werden. Ebenso gerieten sie nicht über eine Zweckänderung in die Anbieterrolle, da der Einsatz von KI-Systemen durch Studierende von der KI-VO nicht als hochriskant klassifiziert werde. Ferner wurde gefragt, ob die Verpflichtung zur Durchführung einer Grundrechte-Folgenabschätzung bereits greife, wenn ein Prüfer spontan und entgegen der Weisung der Hochschule ChatGPT zu Bewertungszwecken einsetze. Schwartmann betonte, dass die Verpflichtung zur Durch- führung einer Grundrechte-Folgenabschätzung aus- schließlich für die Betreiber von Hochrisiko-KI-Syste- men gilt. ChatGPT sei als KI-System mit allgemeinem Verwendungszweck zwar nicht grundsätzlich hochris- kant. Sein Einsatz zu hochriskanten Zwecken löse aber die spezifische Hochrisiko-Regulierung nach der KI-VO aus. Der Prüfer werde in dem Fallbeispiel zum Anbieter eines Hochrisiko-KI-Systems und müsse daher umfang- reiche Pflichten erfüllen. Hinzu trete die an Betreiber ad- ressierte Grundrechte-Folgenabschätzung, die aber in Anbetracht der Anbieterpflichten einen zu vernachlässi- genden Mehraufwand für den Prüfer bedeute.
Schließlich lieferte Dieterich noch einen Überblick zum aktuellen Stand in der Diskussion um die Zulässig- keit sog. Proctoring-Maßnahmen. Dabei handelt es sich um Überwachungsmaßnahmen zur Prävention von Täuschungen in digitalen Prüfungen, etwa per Video- aufsicht. Bereits im Rahmen der ersten Tagung zu Digi- talen Prüfungen war diese Frage kontrovers diskutiert worden.11 Das OVG NRW hatte im Frühjahr 2021 im Eil- rechtsschutzverfahren entschieden, dass eine Videoauf- sicht während digitaler Prüfungen prüfungsrechtlich ge- boten und datenschutzrechtlich grundsätzlich zulässig sei.12 Dieterich konstatierte, dass mit der damaligen Be- gründung des Gerichts eine Videoaufsicht mittlerweile wohl nicht mehr zu rechtfertigen sei. In seiner Entschei- dung während der Corona-Pandemie habe das Gericht
12 OVG NRW NJW 2021, 1414.
344 ORDNUNG DER WISSENSCHAFT 4 (2024), 339–344
noch wesentlich darauf abgestellt, dass es ein öffentliches Interesse am Fortschreiten der Ausbildung gebe und ein Anspruch auf die Durchführung von Prüfungen bestehe, was jedenfalls die Möglichkeit einer Rechtfertigung der Datenverarbeitung über Art. 6 Abs. 1 UAbs. 1 Buchst. e) DS-GVO eröffne. Da Präsenzprüfungen derzeit aber möglich seien, entfalle diese Möglichkeit. Stattdessen müsse eine Videoaufsicht nun auf die freiwillige Einwil- ligung der Prüflinge gestützt werden (vgl. Art. 6 Abs. 1 UAbs. 1 Buchst. e) DS-GVO), was für die Prüfungsbe- hörden aufgrund der Widerrufsmöglichkeit mit rechtli- cher Unsicherheit verbunden sei (vgl. Art. 7 Abs. 3 DS-GVO).13
IV. Resümee und Ausblick
Der Einsatz künstlicher Intelligenz in Prüfungssituatio- nen stellt das materielle Prüfungsrecht vor keine allzu großen Herausforderungen. Wenn ein Prüfling ein KI- System ohne Kenntlichmachung einsetzt, um eine bewertungsrelevante Leistung zu erbringen, nimmt er eine sanktionierbare Täuschungshandlung vor. Weitaus diffiziler gestaltet sich der Nachweis einer solchen Hand- lung. Trotz der Beweiserleichterungen durch die Anwen- dung der Grundsätze des Anscheinsbeweises ist die Fest- stellung eines unzulässigen KI-Einsatzes schon heute mit erheblichem Aufwand verbunden, der voraussichtlich mit wachsender Komplexität und Leistungsfähigkeit der Systeme weiter anwachsen wird. Vor diesem Hinter- grund sollten Hochschulen neue Prüfungsformate in den Blick nehmen, die einen stärkeren Fokus auf eine Leistungserbringung in Präsenz oder in mündlichen Prüfungen legen.
Zunächst aber gilt es, KI-Systeme rechtskonform in den Hochschulalltag zu integrieren. Dabei sind die Regelun- gen der KI-VO zu beachten, die im Sommer in Kraft tre- ten wird. Insbesondere der Einsatz von KI-Systemen zu Bewertungszwecken oder im Zulassungsverfahren wird von der KI-VO als hochriskant klassifiziert. Um die pflichtenreiche Anbieterrolle zu vermeiden, sollten Hochschulen KI-Systeme für klar definierte Aufgaben- felder lizensieren und ihr Personal anweisen, die Syste- me ausschließlich zu den vorgegebenen Zwecken einzu- setzen. Sofern sie durch diese Maßnahmen in der Betrei- berrolle verbleiben, müssen die Hochschulen vor allem für ein ausreichendes Maß an KI-Kompetenz sorgen und eine Grundrechte-Folgenabschätzung durchführen.
Die eingangs zitierte Bitkom-Studie zeigt, dass KI- Systeme an deutschen Hochschulen längst der Realität entsprechen. Mit der Tagung wurde nun auch der Grundstein für deren verantwortungsbewussten und rechtssicheren Einsatz gelegt. In seinen Schlussworten wies Epping darauf hin, dass die prüfungsrechtliche Be- handlung künstlicher Intelligenz damit allerdings nicht abgeschlossen sei. Bei entsprechendem Interesse der Teilnehmenden beabsichtige der Verein zur Förderung des deutschen und internationalen Wissenschaftsrechts e.V. deshalb, im kommenden Jahr eine Anschlussveran- staltung zu organisieren, in der dann weitere Erkennt- nisse zum KI-Einsatz an Hochschulen mit Interessierten geteilt werden sollen.
Moritz Köhler ist wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medienrecht und Dokto- rand bei Prof. Dr. Rolf Schwartmann.
13 Vertiefend wurde auf Dieterich, NVwZ 2021, 511 (515 ff.) hingewie- sen.