Menü Schließen
Klicke hier zur PDF-Version des Beitrags!

Bei all der Eupho­rie um die viel beschwo­re­nen Fähig­kei- ten künst­li­cher Intel­li­genz (KI) war es wohl nur eine Fra- ge der Zeit, bis die Tech­no­lo­gie Ein­zug hält in die Hör­sä- le die­ses Lan­des. In einer nicht reprä­sen­ta­ti­ven Umfra­ge des Digi­tal­ver­bands Bit­kom e.V. gaben im Janu­ar die­ses Jah­res 65 % der Stu­die­ren­den an, das gene­ra­ti­ve KI-Sys- tem ChatGPT zu nut­zen. Mehr als die Hälf­te der Befrag- ten unter­stütz­te außer­dem die The­se, dass sich Stu­die- ren­de durch den Ein­satz des KI-Sys­tems einen unge- rech­ten Vor­teil ver­schaf­fen kön­nen. Den­noch adres­siert nur ein klei­ner Teil der Prü­fungs­ord­nun­gen deut­scher Hoch­schu­len expli­zit den Ein­satz künst­li­cher Intel­li- genz.1 Braucht es also eine umfas­sen­de Reform der uni- ver­si­tä­ren Regel­wer­ke? Und wor­auf haben Hoch­schu­len zu ach­ten, wenn sie die Tech­no­lo­gie zulas­sen oder ver- bie­ten wol­len? Um die­sen Fra­gen nach­zu­ge­hen, hat der Ver­ein zur För­de­rung des deut­schen und inter­na­tio­na- len Wis­sen­schafts­rechts e.V. am 18.4.2024 eine Tagung unter der Über­schrift „Aktu­el­les zu Digi­ta­len Prü­fun­gen – Wel­che Zukunft hat KI?“ ver­an­stal­tet. Mehr als 180 Teil­neh­me­rin­nen und Teil­neh­mer folg­ten der Ein­la­dung und ver­deut­lich­ten so das rege Inter­es­se an der The­ma- tik. Unter der Mode­ra­ti­on des Ehren­vor­sit­zen­den des Ver­eins, Prof. Ulf Pall­me König, und des Vor­stands­mit- glieds Prof. Dr. Vol­ker Epping erläu­ter­ten zunächst Edgar Fischer, Vor­sit­zen­der Rich­ter am VG Ber­lin, und Dr. Peter Die­te­rich, LL.M., Rich­ter am VG Ber­lin, die prü- fungs­recht­li­chen Her­aus­for­de­run­gen des KI-Ein­sat­zes (I.).2 Im Anschluss wid­me­te sich Prof. Dr. Rolf Schwart- mann, Lei­ter der Köl­ner For­schungs­stel­le für Medi­en- recht an der TH Köln, den KI-recht­li­chen Vor­aus­set­zun- gen einer Imple­men­tie­rung der Tech­no­lo­gie an Hoch- schu­len (II.), bevor die Refe­ren­ten in einer abschlie­ßen­den Dis­kus­si­ons­run­de auf die offe­nen Fra- gen der Teil­neh­me­rin­nen und Teil­neh­mer ein­gin­gen (III.).

1 https://www.bitkom.org/Presse/Presseinformation/So-digital- sind-Deutsch­lands-Hoch­schu­len (zuletzt abge­ru­fen am: 26.4.2024).

I. KI-Ein­satz in Prüfungen

Den Auf­takt zur Ver­an­stal­tung mach­ten Fischer und Die­te­rich mit einer Betrach­tung der recht­li­chen Pro­ble- me des Ein­sat­zes künst­li­cher Intel­li­genz in Prü­fungs­si­tu- atio­nen. Dabei knüpf­ten sie an die vier vor­an­ge­gan­ge­nen Ver­an­stal­tun­gen des Ver­eins zu Digi­ta­len Prü­fun­gen an, die als Reak­ti­on auf die Unsi­cher­hei­ten in der Coro­na- Pan­de­mie bereits im Okto­ber 2020 ein­ge­führt wur­den und sich seit­her ste­tig wach­sen­der Beliebt­heit erfreuen.3

1. KI-Ein­satz sei­tens des Prüflings

Die in den vor­an­ge­gan­ge­nen Ver­an­stal­tun­gen ver­mit­tel- te Täu­schungs­dog­ma­tik im Prü­fungs­recht las­se sich auf den Ein­satz künst­li­cher Intel­li­genz sei­tens der Prüf­lin­ge über­tra­gen. Eine sank­tio­nier­ba­re Täu­schungs­hand­lung lie­ge dem­nach vor, wenn ein Prüf­ling eine KI-Anwen- dung ohne Anga­be der Nut­zung ein­setzt. In der Regel sei der ver­deck­te Ein­satz künst­li­cher Intel­li­genz als uner- laub­te Hil­fe im Sin­ne der Prü­fungs­ord­nun­gen zu qua­li­fi- zie­ren. Die Regel­wer­ke müss­ten daher nicht grund­le- gend geän­dert wer­den. Ver­bo­ten sei aller­dings nur die Aus­ga­be einer KI-gene­rier­ten Leis­tung als eige­ne, etwa wenn sich der Prüf­ling eine Haus­ar­beit von einer KI schrei­ben lässt. Der KI-Ein­satz zu Recher­che­zwe­cken dürf­te hin­ge­gen vor­be­halt­lich spe­zi­el­ler – kaum effek­tiv durch­setz­ba­rer – Rege­lun­gen in den Prü­fungs­ord­nun- gen oder Eigen­stän­dig­keits­er­klä­run­gen kei­nen Beden- ken begeg­nen, da die Ver­wen­dung von KI in die­sem Zusam­men­hang nicht anders zu bewer­ten sein dürf­te als gebräuch­li­che Recher­che­mit­tel wie das Inter­net. Zwar sei­en Ant­wor­ten von ChatGPT man­gels geis­ti­ger Eigen- leis­tung einer iden­ti­fi­zier­ba­ren Per­son kei­ne klas­si­sche zitier­fä­hi­ge Quel­le i.S.d. Urhe­ber­rechts – Maß­stab des Prü­fungs­rechts sei jedoch die Eigen­stän­dig­keit der Prü- fungs­leis­tung, die sich durch Kenn­zeich­nung der Über-

Fischer und Die­te­rich sind Autoren des Stan­dard­wer­kes Fischer/
Ord­nung der Wis­sen­schaft 2024, ISSN 2197–9197

Moritz Köh­ler

Aktu­el­les zu digi­ta­len Prü­fun­gen – wel­che Zukunft hat KI?
Bericht über die Tagung des Ver­eins zur För­de­rung des deut­schen und inter­na­tio­na­len Wis­sen­schafts- rechts e.V. am 18.4.2024

3

Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl., Mün­chen 2022.
S. hier­zu Haa­ke, OdW 2023, 235; dies., OdW 2022, 215; dies., OdW 2021, 201; dies., OdW 2021, 59.

340 ORDNUNG DER WISSENSCHAFT 4 (2024), 339–344

nah­me KI-gene­rier­ter Bau­stei­ne durch­aus bele­gen las­se. Eine sol­che Offen­le­gung begeg­ne ange­sichts der feh­len- den Per­p­etu­ie­rung der Ant­wor­ten von ChatGPT jedoch prak­ti­schen Schwie­rig­kei­ten. Die Abgren­zung zwi­schen uner­laub­ter und erlaub­ter Hil­fe erfol­ge in gewis­sem Umfang auch anhand der Bewer­tungs­re­le­vanz der kon- kre­ten Leistung:4 Sofern die Recht­schrei­bung Teil der Prü­fungs­leis­tung sei, kön­ne daher auch eine rein sprach- liche KI-gestütz­te Über­ar­bei­tung des Tex­tes eine rele- van­te Täu­schungs­hand­lung darstellen.

Gro­ße Her­aus­for­de­run­gen sahen die Refe­ren­ten beim Nach­weis eines unzu­läs­si­gen KI-Ein­sat­zes sei­tens der Prüf­lin­ge. Die Beweis­last für eine Täu­schungs­hand- lung lie­ge bei den Hoch­schu­len. Aller­dings gel­te auch im Prü­fungs­recht zum erleich­ter­ten Nach­weis bestimm­ter Tat­sa­chen der Grund­satz des Anscheins­be­wei­ses. Des- sen genaue Vor­aus­set­zun­gen und Fol­gen erläu­ter­te Fi- scher anhand einer Betrach­tung der jün­ge­ren Rechtsp­re- chung zur Täu­schung im Rah­men von Online-Prü­fun- gen.5 Nach den Grund­sät­zen des Anscheins­be­wei­ses ge- nüge es, wenn die Hoch­schu­len einen Sach­ver­halt vor­tra­gen, der bei typi­schem Gesche­hens­ab­lauf nahe- legt, dass der Prüf­ling auf uner­laub­te Hilfs­mit­tel zurück- gegrif­fen hat. Doch trotz die­ser Beweis­erleich­te­rung ge- stal­te sich die Auf­de­ckung eines unzu­läs­si­gen KI-Ein­sat- zes schon heu­te kom­plex. So müs­se etwa der Gefahr be- geg­net wer­den, dass Stu­die­ren­de für beson­ders gute Leis­tun­gen sank­tio­niert werden.

Die Schwie­rig­kei­ten der Beweis­füh­rung ver­deut­lich- te Die­te­rich den Teil­neh­me­rin­nen und Teil­neh­mern der Tagung anhand eines viel bespro­che­nen Beschlus­ses des VG München.6 Im zugrun­de­lie­gen­den Fall hat­te sich ein Bache­lor­ab­sol­vent nach einem erfolg­lo­sen Ver­such 2022 ein Jahr spä­ter ein wei­te­res Mal auf einen Platz in einem Mas­ter­stu­di­en­gang der TU Mün­chen bewor­ben, für den Eng­lisch­kennt­nis­se vor­aus­ge­setzt wer­den. Im Bewer- bungs­ver­fah­ren war jeweils ein Essay in eng­li­scher Spra- che anzu­fer­ti­gen, um die Qua­li­fi­ka­ti­on für den Stu­di­en- gang nach­zu­wei­sen. Nach dem erfolg­lo­sen ers­ten Ver- such reich­te der Bewer­ber im Som­mer 2023 ein Essay ein, das bei den Ver­ant­wort­li­chen der TU Mün­chen auf- grund sei­ner hohen Qua­li­tät den Ver­dacht weck­te, KI- gene­riert zu sein. Nach wei­te­ren Unter­su­chun­gen schloss die TU Mün­chen den Bewer­ber vom lau­fen­den Bewer- bungs­ver­fah­ren aus. Der Bewer­ber stell­te in der Fol­ge ei- nen Antrag auf Erlass einer einst­wei­li­gen Anord­nung mit dem Ziel der vor­läu­fi­gen Zulas­sung zum Stu­di­um. In

  1. 4  Ver­tie­fend wur­de auf Birn­baum, NVwZ 2023, 1127 (1128) hin­ge- wiesen.
  2. 5  VG Ber­lin, Urt. v. 6.2.2023 – 12 K 52/22; VG Köln, Urt. v. 6.12.2022 – 6 K 1428/22; LG Frank­furt, Urt. v. 5.12.2022 – 2–01 S 89/22;

dem Ver­fah­ren hat­te das Gericht dar­auf­hin im Wesent­li- chen zu ent­schei­den, ob der Schluss der Hoch­schu­le ge- recht­fer­tigt war, dass der Bewer­ber das Essay unter un- zuläs­si­gem Ein­satz künst­li­cher Intel­li­genz ange­fer­tigt hat.

Die TU Mün­chen trug zahl­rei­che Umstän­de vor, die in der Gesamt­schau den uner­laub­ten KI-Ein­satz bewei- sen soll­ten. Aus­gangs­punkt war die Über­prü­fung des Es- says mit einer Soft­ware, die ergab, dass 45 % des Tex­tes mit sehr hoher Wahr­schein­lich­keit von künst­li­cher In- tel­li­genz ver­fasst wor­den sei­en. Dar­auf­hin hat­te die Uni- ver­si­tät den Text von zwei Gut­ach­tern beur­tei­len und prü­fen las­sen, wel­che die­sem eine auf­fal­len­de Prä­gnanz und Struk­tur kon­sta­tier­ten. Eine ver­gleich­ba­re Qua­li­tät sei unter Bache­lor­ab­sol­ven­ten äußerst unge­wöhn­lich und wer­de selbst von erfah­re­nen Wis­sen­schaft­lern nicht immer erreicht. Fer­ner unter­schei­de sich das Essay au- gen­fäl­lig von dem im Vor­jahr durch den Bewer­ber vor- geleg­ten. Schließ­lich habe ein „Selbst­ver­such“ der Hoch- schu­le unter Ver­wen­dung von ChatGPT ein Resul­tat er- geben, das auf­fäl­li­ge Ähn­lich­keit zu dem vom Bewer­ber ein­ge­reich­ten Essay besitze.

Die­se und wei­te­re Umstän­de lie­ßen nach der Auf­fas- sung des Gerichts unter Anwen­dung des Anscheins­be- wei­ses dar­auf schlie­ßen, dass das Essay mit uner­laub­ter KI-Hil­fe erstellt wor­den war. Die­te­rich kri­ti­sier­te, dass ohne nähe­re Erläu­te­rung die Rege­lun­gen des Anscheins- bewei­ses her­an­ge­zo­gen wur­den. Im Bereich des KI-Ein- sat­zes gebe es bis­her wohl eher kein all­ge­mei­nes Erfah- rungs­wis­sen, so dass kaum von einem typi­schen Gesche- hens­ab­lauf die Rede sein kön­ne. Leg­te man aber die Grund­sät­ze der in § 108 Abs. 1 Satz 1 VwGO vor­ge­se­he- nen frei­en Beweis­wür­di­gung im ver­wal­tungs­ge­richt­li- chen Ver­fah­ren an, sei­en die Schluss­fol­ge­run­gen des Ge- richts in sei­nen Augen aber gut nach­voll­zieh­bar, wobei Ein­zel­hei­ten der Über­zeu­gungs­bil­dung – etwa die Um- stän­de des „Selbst­ver­suchs“ mit ChatGPT – etwas unklar blieben.

Vor dem Hin­ter­grund der erläu­ter­ten Beweis­schwie- rig­kei­ten war­fen Fischer und Die­te­rich die Fra­ge auf, in- wie­fern sich Prü­fungs­ar­ten und ‑for­ma­te zukünf­tig ver- ändern müs­sen oder soll­ten. In jedem Fall haben die Hoch­schu­len eine Wei­chen­stel­lung vor­zu­neh­men. Soll der Sta­tus Quo gewahrt wer­den und der KI-Ein­satz in Prü­fun­gen ver­bo­ten blei­ben? In die­sem Fall müs­sen sich die Hoch­schu­len mit der fort­schrei­ten­den Ent­wick­lung der Tech­no­lo­gie aus­ein­an­der­set­zen. Der Beschluss des

Sächs. OVG, Beschl. v. 16.2.2022 – 2 B 274/21.
6 VG Mün­chen NJW 2024, 1052 ff.; Birn­baum, NVwZ 2024, 607 f.;

Rach­ut, NJW 2024, 1057; Brae­gel­mann, RDi 2024, 188 ff.

Köh­ler · Aktu­el­les zu digi­ta­len Prü­fun­gen — wel­che Zukunft hat KI? 3 4 1

VG Mün­chen zei­ge, dass sich der uner­laub­te KI-Ein­satz der­zeit mit eini­gem Auf­wand noch erken­nen lässt. Mög- licher­wei­se sei­en KI-gene­rier­te Tex­te aber bald zumin- dest für Men­schen nicht mehr oder nur mit erheb­li­chem Auf­wand als sol­che iden­ti­fi­zier­bar. Sofern alter­na­tiv auf eine Soft­ware zurück­ge­grif­fen wer­den soll, stel­le sich be- reits die Fra­ge, ab wel­cher Wahr­schein­lich­keits­gren­ze ein Bewer­ber von dem Ver­fah­ren aus­ge­schlos­sen wird. Fischer schlug des­halb vor, dem Ein­satz künst­li­cher In- tel­li­genz ange­pass­te Auf­ga­ben­stel­lun­gen ent­ge­gen­zu­set- zen. So kön­ne von den Stu­die­ren­den ver­langt wer­den, ihre Lösun­gen auf Mate­ria­li­en und Ergeb­nis­sen der Vor- lesun­gen auf­zu­bau­en. Dar­über hin­aus kön­nen krea­ti­ve Lösungs­an­sät­ze die bis­her oft­mals übli­che Wie­der­ga­be von Wis­sen als wich­tigs­te – und leicht durch KI zu gene- rie­ren­de – Bewer­tungs­grund­la­ge erset­zen. Ein ande­rer Ansatz sei es, das Risi­ko einer Ent­de­ckung für die Stu- die­ren­den zu erhö­hen. Dazu kön­nen bei ent­spre­chen­der nor­ma­ti­ver Grund­la­ge etwa eides­statt­li­che Ver­si­che­run- gen über die selbst­stän­di­ge Bear­bei­tung einer Prü­fung ver­langt wer­den, so dass der unzu­läs­si­ge KI-Ein­satz des Prüf­lings straf­recht­li­che Kon­se­quen­zen hätte.

Ein ande­rer Ansatz sei es, den KI-Ein­satz zuzu­las­sen und die Prü­fungs­for­ma­te anzu­pas­sen. Dazu kön­ne etwa ein Fokus auf münd­li­che Prü­fun­gen und Prä­senz­klau­su- ren gelegt oder eine Kom­bi­na­ti­on aus Haus­ar­beit bzw. Online-Klau­sur und münd­li­cher Prü­fung eta­bliert wer- den. Der­ar­ti­ge Prü­fungs­for­ma­te sei­en aller­dings zu- nächst in der Prü­fungs­ord­nung zu regeln.

2. KI-Ein­satz sei­tens des Prüfers

Zum Abschluss des Vor­trags änder­te Fischer die Pers- pek­ti­ve und setz­te sich mit der Fra­ge aus­ein­an­der, ob der Prü­fer KI-Sys­te­me ein­set­zen dür­fe. Die Erstel­lung einer wei­ter­hin vom Prü­fer letzt­ver­ant­wor­te­ten Prü­fungs­auf- gabe unter Zuhil­fe­nah­me von KI sei prü­fungs­recht­lich nicht zu bean­stan­den. Pro­ble­ma­tisch sei hin­ge­gen die Bewer­tung einer Prü­fungs­leis­tung durch ein KI-Sys­tem. Das Prü­fungs­recht for­de­re, dass der Prü­fer die Arbeit höchst­per­sön­lich und eigen­stän­dig bewer­tet. Er dür­fe zwar auf Assis­ten­zen zurück­grei­fen. Die letz­te Entsch­ei- dung dür­fe er aber nicht aus der Hand geben. Dar­auf basie­rend ver­trat Die­te­rich die Auf­fas­sung, dass der assi-

7 Ver­ord­nung (EU) 2024/1689 des Euro­päi­schen Par­la­ments
und des Rates vom 13. Juni 2024 zur Fest­le­gung har­mo­ni­sier­ter Vor­schrif­ten für künst­li­che Intel­li­genz und zur Ände­rung der Ver­ord­nun­gen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU)
Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richt­li­ni­en 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Ver­ord­nung über künst­li­che Intel­li­genz), im Fol­gen- den: KI-VO).

stie­ren­de Ein­satz künst­li­cher Intel­li­genz durch den Prü- fer nicht anders zu behan­deln sei als der in gewis­sem Umfang zuläs­si­ge Rück­griff auf Kor­rek­turas­sis­ten­ten. In der anschlie­ßen­den Dis­kus­si­on wider­sprach Schwart- mann die­ser Ansicht: Die Zuläs­sig­keit der Kor­rek­turas- sis­ten­ten ent­sprin­ge einem ande­ren Regu­lie­rungs­be- reich als die Fra­ge der Zuläs­sig­keit des KI-Ein­sat­zes. Letz­te­re müs­se immer, aber auch aus­schließ­lich an der Fähig­keit künst­li­cher Intel­li­genz zur Auto­no­mie gemes- sen wer­den. Dann aber ver­bie­te es sich, die Wer­tun­gen zur Zuläs­sig­keit mensch­li­cher Assis­ten­zen auf die künst- liche Intel­li­genz zu übertragen.

II. Vor­aus­set­zun­gen einer Imple­men­tie­rung an Hoch- schulen

Neben die Fra­ge der prü­fungs­recht­li­chen Zuläs­sig­keit des KI-Ein­sat­zes tritt die Fra­ge der rechts­kon­for­men Gestal­tung und Imple­men­tie­rung von KI-Sys­te­men. Letz­te­re wird künf­tig abschlie­ßend von der euro­päi- schen KI-Ver­ord­nun­g7 beant­wor­tet, wel­che am 1 August 2024 in Kraft getre­ten ist.8 Im Anschluss an den Vor­trag Fischers und Die­te­richs stell­te Schwart­mann den Teil­neh- merin­nen und Teil­neh­mern der Tagung das neue Regel- werk vor und beleuch­te­te die Kon­se­quen­zen für den Hochschulbetrieb.9

1. Die Regu­lie­rung von KI-Sys­te­men durch die KI-VO

Grund­sätz­lich sei die KI-VO aus­schließ­lich auf KI-Sys- teme anwend­bar. Deren ent­schei­den­des Merk­mal sei ihre Auto­no­mie. Ähn­lich wie ein Tier kön­ne ein KI-Sys- tem zwar vom Men­schen trai­niert wer­den. Dies gewähr- leis­te aber kei­nen abschlie­ßen­den Schutz vor plötz­li­chen Aus­brü­chen aus dem men­schen­ge­mach­ten Rah­men. Die Gefah­ren, die sich aus die­ser beson­de­ren Fähig­keit der KI-Sys­te­me erge­ben, adres­sie­re die KI-VO nach einem risi­ko­ba­sier­ten Ansatz. Sie ord­ne jedes Sys­tem einer von drei Risi­ko­stu­fen zu. Hier­nach sei­en die meis­ten Sys­te­me unpro­ble­ma­tisch und unter­lie­gen des­halb kei­ner spe­zi­fi- schen Regu­lie­rung nach der KI-VO. Das gel­te etwa, wenn ChatGPT ein­ge­setzt wird, um ein Lie­bes­ge­dicht oder ein Koch­re­zept zu schrei­ben. Von ande­ren KI-Sys- temen gehe nach der Ein­schät­zung des europäischen

Schwartmann/Keber/Zenner (Hrsg.), KI-Ver­ord­nung. Leit­fa­den für die Pra­xis, 2024.

9 Zum Gan­zen wur­de ver­tie­fend auf fol­gen­de Quel­len hin­ge­wie­sen: Schwart­mann, F.A.Z. v. 24.4.2024, 4; Schwart­mann, For­schung und Leh­re 2024, 348 (349); Bene­dik­t/­Köh­ler/­Schwart­man­n/­Wün- schel­baum, F.A.Z v. 18.3.2024, 18; F.A.Z. Ein­spruch Pod­cast, Fol­ge 292.

342 ORDNUNG DER WISSENSCHAFT 4 (2024), 339–344

Gesetz­ge­bers hin­ge­gen ein hohes Risi­ko aus.10 Hier­un­ter fal­len etwa Sys­te­me, die über den Hoch­schul­zu­gang ent- schei­den oder Prü­fun­gen bewer­ten. Eini­ge Sys­te­me sei- en schließ­lich gänz­lich ver­bo­ten, wie bei­spiels­wei­se Sys- teme zur Bewer­tung natür­li­cher Per­so­nen auf Grund­la­ge ihres sozia­len Ver­hal­tens. Eine Schwie­rig­keit mach­te Schwart­mann bei der Abgren­zung zwi­schen hoch­ris­kan- ten und ver­bo­te­nen KI-Sys­te­men aus. Ermit­telt eine Hoch­schu­le etwa per KI, ob ihre Stu­die­ren­den unter Prü­fungs­angst lei­den und zieht dar­aus Schlüs­se für die Prü­fungs­pra­xis, kön­ne es schwer­fal­len, zwi­schen einem ver­bo­te­nen Social Scoring und einem unter stren­gen Vor­aus­set­zun­gen erlaub­ten Ein­satz im Hoch­schul­kon- text zu unterscheiden.

Um den „wil­den“ Ein­satz von KI-Sys­te­men wie ChatGPT durch pri­va­te Accounts zu unter­bin­den, emp- fahl Schwart­mann ent­spre­chen­de Pro­duk­te zu lizen­sie- ren. Nur so kön­nen die Chan­cen­gleich­heit gewahrt und lizenz­recht­li­che Pro­ble­me ver­mie­den wer­den. Mit der Lizen­sie­rung wer­de die Hoch­schu­le aber zugleich Be- trei­be­rin eines KI-Sys­tems im Sin­ne der KI-VO. Sie sei daher unter ande­rem ver­pflich­tet, sicher­zu­stel­len, dass ihr Per­so­nal über hin­rei­chen­de KI-Kom­pe­tenz ver­fügt. Außer­dem müs­se sie KI-gene­rier­te Inhal­te als sol­che kenn­zeich­nen. Falls das lizen­sier­te KI-Sys­tem nach der KI-VO hoch­ris­kant sei, müs­se die Hoch­schu­le schließ- lich vor des­sen Inbe­trieb­nah­me eine Grund­rech­te-Fol- gen­ab­schät­zung vor­neh­men. Dabei sei zu prü­fen, wel­che Aus­wir­kun­gen die Ver­wen­dung des Sys­tems auf die Grund­rech­te der betrof­fe­nen Per­so­nen haben kann.

Wesent­lich wei­ter als die genann­ten Betrei­ber­pf­lich- ten gin­gen die Pflich­ten der Anbie­ter von Hoch­ri­si­ko- KI-Sys­te­men. Grund­sätz­lich fal­len dar­un­ter zwar nur Sys­tem­ent­wick­ler wie Ope­nAI oder Ale­phAl­pha. Unter Umstän­den kön­nen aber auch Betrei­ber in die Anbie­ter- stel­lung gera­ten. Lizen­siert eine Hoch­schu­le etwa ein KI- Sys­tem, das im Zugangs­ver­fah­ren assis­tie­ren soll, und ver­sieht die­ses mit dem eige­nen Logo, habe sie in der Fol­ge die umfang­rei­chen Pflich­ten der Hoch­ri­si­ko-KI- Anbie­ter zu erfül­len. So habe sie etwa sicher­zu­stel­len, dass der Betrieb des Sys­tems von einer mensch­li­chen Auf­sicht über­wacht wer­den kann. Eben­so wer­de die Hoch­schu­le von der KI-VO als Anbie­te­rin eines Hoch­ri- siko-KI-Sys­tems behan­delt, wenn sie ein lizen­sier­tes Hoch­ri­si­ko-KI-Sys­tem wesent­lich ver­än­dert, etwa durch tech­ni­sche Anpas­sung einer Bewer­tungs-KI an beson­de- re Prüfungsformate.

Dar­über hin­aus sei­en Betrei­ber und sons­ti­ge Drit­te nach der KI-VO als Anbie­ter eines Hochrisiko-KI-Sys-

10 Vgl. die nicht abschlie­ßen­de Auf­zäh­lung in Anhang III KI-VO.

tems zu behan­deln, wenn sie die Zweck­be­stim­mung ei- nes KI-Sys­tems so ver­än­dern, dass das betref­fen­de KI- Sys­tem nach der KI-VO als hoch­ris­kant zu klas­si­fi­zie­ren ist. Die­se Rege­lung gel­te auch für KI-Sys­te­me mit ori­gi- när all­ge­mei­nem Ver­wen­dungs­zweck. ChatGPT die­ne etwa der Gene­rie­rung von Tex­ten und sei damit nicht zweck­ge­bun­den. Es gel­te daher im Grund­satz nicht als hoch­ris­kant. Wenn aller­dings ein Prü­fer das KI-Sys­tem ein­set­ze, um eine Haus­ar­beit zu bewer­ten, nut­ze er das Sys­tem zu einem hoch­ris­kan­ten Zweck. In der Fol­ge sei- en die Anfor­de­run­gen an Hoch­ri­si­ko-KI-Sys­te­me zu er- fül­len. Wol­le die Hoch­schu­le einer Ver­ant­wort­lich­keit für das Ver­hal­ten des Prü­fers ent­ge­hen, müs­se sie ihrem Per­so­nal den Ein­satz des Sys­tems zu hoch­ris­kan­ten Zwe- ckenuntersagen.HandleeinMitarbeiterentgegendieser Anwei­sung, so befin­de er sich im Exzess und habe für die Fol­gen per­sön­lich einzustehen.

2. Prü­fungs­be­wer­tun­gen von ChatGPT?

Die prak­ti­schen Schwie­rig­kei­ten beim Ein­satz von ChatGPT zur Bewer­tung von Prü­fungs­ar­bei­ten erläu­ter- te Schwart­mann anhand eines Selbst­ver­suchs, den er gemein­sam mit einer Mit­ar­bei­te­rin und ehe­ma­li­gen Stu- den­tin durch­ge­führt hat­te: In dem Ver­such wur­de das KI-Sys­tem mit den Bewer­tungs­vor­ga­ben der gel­ten­den Prü­fungs­ord­nung und der Mas­ter­ar­beit der Stu­den­tin gefüt­tert. Sei­ne Auf­ga­be lau­te­te, die Arbeit anhand der ver­füg­ba­ren Infor­ma­tio­nen zu beno­ten. Tat­säch­lich bewer­te­te ChatGPT die Arbeit mit 1,3 – der glei­chen Note, mit der auch die Prü­fer die Arbeit bewer­tet hat­ten. Dar­auf­hin änder­te Schwart­mann das The­ma der Arbeit. Statt um den Ein­satz von KI im Beschäf­tig­ten­da­ten- schutz soll­te die Arbeit nun den Ein­satz von KI im Bau- recht behan­deln. Jeder Prü­fer müs­se in die­ser Kon­stel­la- tion erken­nen, dass die ein­ge­reich­te Mas­ter­ar­beit die vor­ge­ge­be­ne Auf­ga­ben­stel­lung nicht erfüllt. The­ma ver- fehlt. Nicht so die KI: ChatGPT gab auch auf die verän- der­ten Gege­ben­hei­ten hin an, dass die Arbeit mit der Note 1,3 zu bewer­ten sei.

Schwart­mann wies dar­auf hin, dass das Ergeb­nis sei- nes Selbst­ver­suchs nicht auf einen Feh­ler der KI zurück- zufüh­ren sei, son­dern auf einen mensch­li­chen Feh­ler in der Anwen­dung. Nur durch genaue mensch­li­che Vor­ga- ben und einen bedach­ten Ein­satz kön­ne die KI einen ech­ten Mehr­wert lie­fern. Es gehe daher eher um Ver­bes- serung der Qua­li­tät als um Arbeits­er­leich­te­rung per Zau­ber­hand. Um einen ver­ant­wor­tungs­be­wuss­ten Ge- brauch der KI-Sys­te­me sicher­zu­stel­len, müs­se die in der KI-VO vor­ge­se­he­ne Stopp­tas­te für Hochrisiko-KI-Syste-

Köh­ler · Aktu­el­les zu digi­ta­len Prü­fun­gen — wel­che Zukunft hat KI? 3 4 3

me als Start­tas­te ver­stan­den wer­den: Anstatt die KI ab- zuschal­ten, wenn es womög­lich bereits zu spät ist, sol­le der Mensch sich eige­ne Gedan­ken machen und die KI sodann bewusst zur Über­prü­fung die­ser eige­nen Gedan- ken starten.

III. Prü­fun­gen in Zei­ten künst­li­cher Intelligenz

In der anschlie­ßen­den Fra­ge­run­de wur­den zunächst Ver­fah­ren dis­ku­tiert, um einen ver­bo­te­nen Ein­satz von KI-Anwen­dun­gen in Prü­fungs­si­tua­tio­nen zu ver­hin- dern. Vor­ge­schla­gen aus dem Kreis der Zuhö­rer wur­de unter ande­rem, dass bei Haus­ar­bei­ten Stu­die­ren­de aus- gelost wer­den könn­ten, die zusätz­lich zur schrift­li­chen Leis­tung einen münd­li­chen Vor­trag hal­ten müs­sen. Der münd­li­che Vor­trag kön­ne außer­halb der Bewer­tung der Haus­ar­beit zu hal­ten sein, oder aber Bestand­teil der Bewer­tung wer­den. So sol­le gene­ral­prä­ven­tiv sicher­ge- stellt wer­den, dass die Stu­die­ren­den die gefor­der­te Leis- tung eigen­stän­dig erbrin­gen bzw. die feh­len­de Eigen- stän­dig­keit bei der Erstel­lung der schrift­li­chen Leis­tung auf­ge­deckt wird. Fischer ver­wies auf die Par­al­le­len zwi- schen Täu­schungs­ver­su­chen mit KI-Anwen­dun­gen in digi­ta­len Prü­fun­gen: Bei Letz­te­ren sei­en bereits Fäl­le bekannt, in denen Prü­fer nach einer schrift­li­chen Leis- tung in einem kur­zen Gespräch abge­fragt hät­ten, ob der jewei­li­ge Prüf­ling den Stoff und die Ent­ste­hung der Arbeit wie­der­ge­ben kann. Schwart­mann stell­te in die­sem Kon­text einen Ansatz vor, den er selbst gera­de mit den Stu­die­ren­den des von der TH Köln ange­bo­te­nen Mas­ter- stu­di­en­gangs „Medi­en­recht und Medi­en­wirt­schaft“ erprobt: Die Stu­die­ren­den erar­bei­ten dabei ein The­ma unter Ein­satz künst­li­cher Intel­li­genz. Im Anschluss prä- sen­tie­ren sie die KI-gene­rier­ten Ergeb­nis­se in einem münd­li­chen Vor­trag und set­zen sich kri­tisch mit die­sen auseinander.

Fischer wies dar­auf hin, dass, falls das Gespräch Teil der zu erbrin­gen­den Leis­tung sein sol­le, dies in der Prü- fungs­ord­nung fest­zu­hal­ten sei. Eine Aus­lo­sung eini­ger weni­ger Stu­die­ren­der wür­de in die­sem Fall – anders als bei Stich­pro­ben zur Auf­de­ckung von Täu­schungs­ver­su- chen – dann auch einen Ver­stoß gegen die Chan­cen- gleich­heit dar­stel­len und ver­bie­te sich des­halb. Doch auch wenn das Gespräch nur zur Über­prü­fung eines Täu­schungs­ver­dachts vor­ge­se­hen sei, emp­feh­le sich eine Rege­lung in der Prü­fungs­ord­nung zur Mit­wir­kungs- pflicht des Prüf­lings bei der Auf­klä­rung des Sach­ver- halts. Die­te­rich ergänz­te, dass sich im Übri­gen auch § 26 VwVfG für Grund und Gren­ze der Mitwirkungs-

11 Haa­ke, OdW 2023, 235 (60 und 63 f.).

pflicht bemü­hen lässt. Hier­nach sol­len alle Betei­lig­ten ei- nes Ver­wal­tungs­ver­fah­rens bei der Ermitt­lung des Sach- ver­halts mit­wir­ken. Eine Pflicht zum per­sön­li­chen Er- schei­nen oder zur Aus­sa­ge bestehe nach § 26 Abs. 2 VwVfG aber nur, soweit sie durch Rechts­vor­schrift be- son­ders vor­ge­se­hen ist.

Auf reges Inter­es­se stie­ßen auch eini­ge Rege­lun­gen, die nun von der KI-VO ein­ge­führt wer­den. So kam die Fra­ge auf, ob die Trans­pa­renz­pflicht beim Ein­satz text­ge- nerie­ren­der KI-Sys­te­me auch für Stu­die­ren­de gel­te, die ChatGPT in ihren Prü­fun­gen ein­set­zen. Schwart­mann stell­te klar, dass die Stu­die­ren­den kei­ne Anbie­ter im Sin- ne der KI-VO sind und damit nicht von der Rege­lung zur Trans­pa­renz adres­siert wer­den. Eben­so gerie­ten sie nicht über eine Zweck­än­de­rung in die Anbie­ter­rol­le, da der Ein­satz von KI-Sys­te­men durch Stu­die­ren­de von der KI-VO nicht als hoch­ris­kant klas­si­fi­ziert wer­de. Fer­ner wur­de gefragt, ob die Ver­pflich­tung zur Durch­füh­rung einer Grund­rech­te-Fol­gen­ab­schät­zung bereits grei­fe, wenn ein Prü­fer spon­tan und ent­ge­gen der Wei­sung der Hoch­schu­le ChatGPT zu Bewer­tungs­zwe­cken ein­set­ze. Schwart­mann beton­te, dass die Ver­pflich­tung zur Durch- füh­rung einer Grund­rech­te-Fol­gen­ab­schät­zung aus- schließ­lich für die Betrei­ber von Hoch­ri­si­ko-KI-Sys­te- men gilt. ChatGPT sei als KI-Sys­tem mit all­ge­mei­nem Ver­wen­dungs­zweck zwar nicht grund­sätz­lich hoch­ris- kant. Sein Ein­satz zu hoch­ris­kan­ten Zwe­cken löse aber die spe­zi­fi­sche Hoch­ri­si­ko-Regu­lie­rung nach der KI-VO aus. Der Prü­fer wer­de in dem Fall­bei­spiel zum Anbie­ter eines Hoch­ri­si­ko-KI-Sys­tems und müs­se daher umfang- rei­che Pflich­ten erfül­len. Hin­zu tre­te die an Betrei­ber ad- res­sier­te Grund­rech­te-Fol­gen­ab­schät­zung, die aber in Anbe­tracht der Anbie­ter­pflich­ten einen zu ver­nach­läs­si- gen­den Mehr­auf­wand für den Prü­fer bedeute.

Schließ­lich lie­fer­te Die­te­rich noch einen Über­blick zum aktu­el­len Stand in der Dis­kus­si­on um die Zuläs­sig- keit sog. Proc­to­ring-Maß­nah­men. Dabei han­delt es sich um Über­wa­chungs­maß­nah­men zur Prä­ven­ti­on von Täu­schun­gen in digi­ta­len Prü­fun­gen, etwa per Video- auf­sicht. Bereits im Rah­men der ers­ten Tagung zu Digi- talen Prü­fun­gen war die­se Fra­ge kon­tro­vers dis­ku­tiert worden.11 Das OVG NRW hat­te im Früh­jahr 2021 im Eil- rechts­schutz­ver­fah­ren ent­schie­den, dass eine Video­auf- sicht wäh­rend digi­ta­ler Prü­fun­gen prü­fungs­recht­lich ge- boten und daten­schutz­recht­lich grund­sätz­lich zuläs­sig sei.12 Die­te­rich kon­sta­tier­te, dass mit der dama­li­gen Be- grün­dung des Gerichts eine Video­auf­sicht mitt­ler­wei­le wohl nicht mehr zu recht­fer­ti­gen sei. In sei­ner Entsch­ei- dung wäh­rend der Coro­na-Pan­de­mie habe das Gericht

12 OVG NRW NJW 2021, 1414.

344 ORDNUNG DER WISSENSCHAFT 4 (2024), 339–344

noch wesent­lich dar­auf abge­stellt, dass es ein öffent­li­ches Inter­es­se am Fort­schrei­ten der Aus­bil­dung gebe und ein Anspruch auf die Durch­füh­rung von Prü­fun­gen bestehe, was jeden­falls die Mög­lich­keit einer Recht­fer­ti­gung der Daten­ver­ar­bei­tung über Art. 6 Abs. 1 UAbs. 1 Buchst. e) DS-GVO eröff­ne. Da Prä­senz­prü­fun­gen der­zeit aber mög­lich sei­en, ent­fal­le die­se Mög­lich­keit. Statt­des­sen müs­se eine Video­auf­sicht nun auf die frei­wil­li­ge Ein­wil- ligung der Prüf­lin­ge gestützt wer­den (vgl. Art. 6 Abs. 1 UAbs. 1 Buchst. e) DS-GVO), was für die Prü­fungs­be- hör­den auf­grund der Wider­rufs­mög­lich­keit mit recht­li- cher Unsi­cher­heit ver­bun­den sei (vgl. Art. 7 Abs. 3 DS-GVO).13

IV. Resü­mee und Ausblick

Der Ein­satz künst­li­cher Intel­li­genz in Prü­fungs­si­tua­tio- nen stellt das mate­ri­el­le Prü­fungs­recht vor kei­ne all­zu gro­ßen Her­aus­for­de­run­gen. Wenn ein Prüf­ling ein KI- Sys­tem ohne Kennt­lich­ma­chung ein­setzt, um eine bewer­tungs­re­le­van­te Leis­tung zu erbrin­gen, nimmt er eine sank­tio­nier­ba­re Täu­schungs­hand­lung vor. Weit­aus dif­fi­zi­ler gestal­tet sich der Nach­weis einer sol­chen Hand- lung. Trotz der Beweis­erleich­te­run­gen durch die Anwen- dung der Grund­sät­ze des Anscheins­be­wei­ses ist die Fest- stel­lung eines unzu­läs­si­gen KI-Ein­sat­zes schon heu­te mit erheb­li­chem Auf­wand ver­bun­den, der vor­aus­sicht­lich mit wach­sen­der Kom­ple­xi­tät und Leis­tungs­fä­hig­keit der Sys­te­me wei­ter anwach­sen wird. Vor die­sem Hin­ter- grund soll­ten Hoch­schu­len neue Prü­fungs­for­ma­te in den Blick neh­men, die einen stär­ke­ren Fokus auf eine Leis­tungs­er­brin­gung in Prä­senz oder in münd­li­chen Prü­fun­gen legen.

Zunächst aber gilt es, KI-Sys­te­me rechts­kon­form in den Hoch­schul­all­tag zu inte­grie­ren. Dabei sind die Rege­lun- gen der KI-VO zu beach­ten, die im Som­mer in Kraft tre- ten wird. Ins­be­son­de­re der Ein­satz von KI-Sys­te­men zu Bewer­tungs­zwe­cken oder im Zulas­sungs­ver­fah­ren wird von der KI-VO als hoch­ris­kant klas­si­fi­ziert. Um die pflich­ten­rei­che Anbie­ter­rol­le zu ver­mei­den, soll­ten Hoch­schu­len KI-Sys­te­me für klar defi­nier­te Auf­ga­ben- fel­der lizen­sie­ren und ihr Per­so­nal anwei­sen, die Sys­te- me aus­schließ­lich zu den vor­ge­ge­be­nen Zwe­cken ein­zu- set­zen. Sofern sie durch die­se Maß­nah­men in der Betrei- ber­rol­le ver­blei­ben, müs­sen die Hoch­schu­len vor allem für ein aus­rei­chen­des Maß an KI-Kom­pe­tenz sor­gen und eine Grund­rech­te-Fol­gen­ab­schät­zung durchführen.

Die ein­gangs zitier­te Bit­kom-Stu­die zeigt, dass KI- Sys­te­me an deut­schen Hoch­schu­len längst der Rea­li­tät ent­spre­chen. Mit der Tagung wur­de nun auch der Grund­stein für deren ver­ant­wor­tungs­be­wuss­ten und rechts­si­che­ren Ein­satz gelegt. In sei­nen Schluss­wor­ten wies Epping dar­auf hin, dass die prü­fungs­recht­li­che Be- hand­lung künst­li­cher Intel­li­genz damit aller­dings nicht abge­schlos­sen sei. Bei ent­spre­chen­dem Inter­es­se der Teil­neh­men­den beab­sich­ti­ge der Ver­ein zur För­de­rung des deut­schen und inter­na­tio­na­len Wis­sen­schafts­rechts e.V. des­halb, im kom­men­den Jahr eine Anschluss­ver­an- stal­tung zu orga­ni­sie­ren, in der dann wei­te­re Erkennt- nis­se zum KI-Ein­satz an Hoch­schu­len mit Inter­es­sier­ten geteilt wer­den sollen.

Moritz Köh­ler ist wis­sen­schaft­li­cher Mit­ar­bei­ter der Köl­ner For­schungs­stel­le für Medi­en­recht und Dok­to- rand bei Prof. Dr. Rolf Schwartmann.

13 Ver­tie­fend wur­de auf Die­te­rich, NVwZ 2021, 511 (515 ff.) hin­ge­wie- sen.