Menü Schließen
Klicke hier zur PDF-Version des Beitrags!

I. Ein­lei­tung

1. Gene­ra­ti­ve KI „über­rollt“ uni­ver­si­tä­res Ler­nen, Leh­ren und Prüfen

a) Per­spek­ti­ve der Studierenden

b) Per­spek­ti­ve der Hochschule

c) Per­spek­ti­ve der Lehrenden

d) Zwi­schen­fa­zit

2. Ein­ord­nung gene­ra­ti­ver KI im Prüfungswesen

a) Anknüp­fungs­punkt „zuge­las­se­ne Hilfsmittel“

b) Anknüp­fungs­punkt „eigen­stän­di­ge Prüfungsleistung“

c) Fazit

3. Recht­li­che Herausforderungen

a) de lege lata

b) de lege ferenda

II. Recht­li­che Eckpunkte

1. Rele­van­te recht­li­che Anforderungen

a) Grund­rech­te (Art. 12 Abs. 1, Art. 3 Abs. 1, Art. 5 Abs. 3 GG)

b) Rechts­staat­li­che Anfor­de­run­gen, insb. Gesetzesvorbehalt

c) Ein­fach­ge­setz­li­ches Prüfungsrecht

d) Sat­zungs­recht (Prü­fungs­ord­nun­gen)

e) Daten­schutz­recht

2. Per­spek­ti­visch: „KI-Recht“

III. Eck­punk­te zur Sys­te­ma­tik des Ein­sat­zes gene­ra­ti­ver KI

1. Begriff­li­che Annäherung

a) Kei­ne Defi­ni­ti­on von Künst­li­cher Intelligenz

b) Zulas­sung, Ein­schrän­kung oder Ver­bot „tech­ni­scher Hilfs­mit­tel“ bei der Vor­be­rei­tung, Durch­füh­rung und (Täu­schungs-) Kon­trol­le von Prüfungen

2. Über­sicht der Anwen­dungs­sze­na­ri­en I – Per­spek­ti­ve der Studierenden

a) Vor­be­mer­kung: Unter­schei­dung von beauf­sich­tig­ten Prü­fun­gen (z.B. Klau­su­ren) und unbe­auf­sich­tig­ten schrift­li­chen Arbei­ten (Bache­lor­ar­bei­ten etc.)

b) Digi­ta­le Anwen­dun­gen für „unter­stütz­tes Lernen“

c) Gene­ra­ti­ve KI als Recher­che-Tool zu Prüfungsaufgaben

d) Gene­ra­ti­ve KI zur for­ma­len Ver­bes­se­rung eigen­stän­dig erstell­ter Texte

e) Gene­ra­ti­ve KI als Instru­ment zu Inspi­ra­ti­on und Vor­ent­wurf einer Aufgabenlösung

f) Gene­ra­ti­ve KI als Co-Erstel­le­rin einer Prüfungsleistung

3. Über­sicht der Anwen­dungs­sze­na­ri­en II – Per­spek­ti­ve der Hochschule

a) Ein­satz von KI-Detek­to­ren zur Täu­schungs­kon­trol­le und Auf­de­ckung des KI-Ein­sat­zes durch Studierende

b) Exkurs: Ein­satz von KI zur Klausuraufsicht

c) Exkurs: Ein­satz von KI zum Lehr-/Lern-Moni­to­ring

d) Exkurs: Ein­satz gene­ra­ti­ver KI in der Hochschulverwaltung

4. Über­sicht der Anwen­dungs­sze­na­ri­en III – Per­spek­ti­ve der Lehrenden

a) Ein­satz von gene­ra­ti­ver KI zur Unter­stüt­zung der Lehre

b) Ein­satz von gene­ra­ti­ver KI zur Erstel­lung von Prüfungsaufgaben

c) Ein­satz von gene­ra­ti­ver KI als Bestand­teil inno­va­ti­ver Lehr- und Prüfungsformate

IV. Leit­ge­dan­ken zum rechts­si­che­ren Ein­satz gene­ra­ti­ver KI im Prüfungskontext

1. Dis­clai­mer („work in progress“)

2. Regu­lie­rungs­be­darf

3. Ver­hält­nis­mä­ßi­ger Aus­gleich von Lehr- und Lern­frei­heit mit Chancengerechtigkeit

V. Fazit

I. Einleitung

1. Generative KI „überrollt“ universitäres Lernen, Lehren und Prüfen

Seit das US-ame­ri­ka­ni­sche Unter­neh­men Ope­nAI im Novem­ber 2022 sei­ne KI-Anwen­dung ChatGPT[1] nicht nur einer brei­ten (welt­wei­ten) Öffent­lich­keit vor­stell­te, son­dern auch zur kos­ten­lo­sen Nut­zung frei­gab, lös­te dies einen regel­rech­ten Hype aus, der spä­tes­tens seit dem Beginn des Jah­res 2023 auch Deutsch­land erreich­te. Damit erleb­te Künst­li­che Intel­li­genz (KI) ihren „iPho­ne-Moment“, weil die­se tech­ni­sche Inno­va­ti­on ähn­lich wie Smart­phones seit 2007 für vie­le Men­schen intui­tiv bedien­bar wird. ChatGPT ist ein fort­schritt­li­cher, natur­sprach­ba­sier­ter Chat­bot und basiert auf einer Klas­se von künst­li­chen neu­ro­na­len Netz­wer­ken (sog. Trans­for­mer-Archi­tek­tur), die die Sprach­ver­ar­bei­tung (NLP – Natu­ral Lan­guage Pro­ces­sing) in den letz­ten Jah­ren auf ein Neu­es Effi­zi­enz- und damit auch Qua­li­täts­ni­veau geho­ben haben. KI-gestütz­te Chat­bots wie ChatGPT haben eine Viel­zahl von Fähig­kei­ten, die es ihnen ermög­li­chen, auf mensch­li­che Spra­che zu reagie­ren und eine Kon­ver­sa­ti­on auf­recht­zu­er­hal­ten. So kann ChatGPT Fra­gen in ver­schie­de­nen Spra­chen (auch Deutsch) beant­wor­ten und sei­ne Ant­wor­ten in der fol­gen­den Inter­ak­ti­on ver­tie­fen. Die Anwen­dung kann auch aus dem Kon­text einer Kon­ver­sa­ti­on, also aus deren bis­he­ri­gem Ver­lauf, ler­nen und ist damit in der Lage, künf­ti­ge Inter­ak­tio­nen inner­halb der­sel­ben Kon­ver­sa­ti­on zu ver­bes­sern. Dabei wirkt es wie ein zwar sehr talen­tier­tes, über gro­ßes Wis­sen ver­fü­gen­des, aber doch viel­fach auch uner­fah­re­nes, unge­bil­de­tes und lern­be­dürf­ti­ges (digi­ta­les) Assis­tenz­sys­tem, des­sen beein­dru­cken­des Sprach­mo­dell eine mas­si­ve Wis­sens­ba­sis zuwei­len auch dazu ver­wen­det, plau­si­ble For­mu­lie­run­gen für sach­lich fal­sche Aus­sa­gen zu for­mu­lie­ren. Damit sind zugleich die größ­ten Vor­tei­le und Chan­cen und die größ­ten Nach­tei­le und Risi­ken beschrie­ben: Bei rich­ti­gem, reflek­tier­tem und ver­ant­wor­tungs­be­wuss­tem Ein­satz bie­tet ChatGPT eine gro­ße Hil­fe bei text­ba­sier­ten Arbeits­pro­zes­sen, die schnel­ler, genau­er und effi­zi­en­ter wer­den kön­nen – ein eher unkri­ti­scher Umgang mit sol­chen KI-Text­ge­ne­ra­to­ren bis hin zu unge­prüf­ter Ver­wen­dung sei­ner Ergeb­nis­se kann jedoch je nach Trag­wei­te der feh­ler­haf­ten Text­in­hal­te fata­le Fol­gen haben. Ver­gleich­ba­res gilt für mul­ti­mo­da­le Anwen­dun­gen, also Bil­der, Bewegt­bild (Vide­os) und wei­te­ren Con­tent. Die­se tech­ni­sche Ent­wick­lung hat auch für Hoch­schu­len aller­größ­te Bedeu­tung: Zum einen, weil Stu­die­ren­de ChatGPT wie selbst­ver­ständ­lich nut­zen (kön­nen), zum ande­ren, weil es die ver­ant­wor­tungs­vol­le Auf­ga­be von Wis­sen­schaft ist, die mit die­ser Ent­wick­lung ein­her­ge­hen­den Dis­rup­tio­nen zu erken­nen, ein­zu­ord­nen und die rich­ti­gen Schluss­fol­ge­run­gen für Leh­re und Stu­di­um, Prü­fung und Arbeits­welt zu zie­hen. Dabei sind unter­schied­li­che Per­spek­ti­ven einzunehmen.

a) Perspektive der Studierenden

Aus Sicht der Stu­die­ren­den gilt, dass ein Tool wie ChatGPT so oder so – zumin­dest von einem Teil – ein­ge­setzt wird, ob nun zur Arbeits­er­leich­te­rung, mit Täu­schungs­ab­sicht oder auch ein­fach des­halb, weil gene­ra­ti­ve KI schon bald ein selbst­ver­ständ­li­cher Bestand­teil gro­ßer Tei­le des Arbeits­le­bens und sei­ner Wert­schöp­fungs­ket­ten sein wird: Kann und darf man das im Stu­di­um igno­rie­ren? Haben Stu­die­ren­de nicht einen Anspruch dar­auf, dass die Hoch­schu­len sie auf ihr künf­ti­ges Berufs­le­ben ange­mes­sen vor­be­rei­ten – und zwar unter den künf­ti­gen Bedin­gun­gen, nicht nach Maß­ga­be über­kom­me­ner Curricula?

b) Perspektive der Hochschule

Für die Hoch­schu­len stel­len sich – vice ver­sa – grund­le­gen­de Fra­gen, wie sie die durch gene­ra­ti­ve KI noch ein­mal beschleu­nig­te digi­ta­le Trans­for­ma­ti­on ins­be­son­de­re der Arbeits­welt in ihren Stu­di­en- und Prü­fungs­struk­tu­ren berück­sich­ti­gen kön­nen. Ganz kurz­fris­tig müs­sen sie aber auch dar­auf reagie­ren, dass Prü­fungs­er­geb­nis­se durch den Ein­satz gene­ra­ti­ver KI ver­fälscht sein kön­nen. Kön­nen oder müs­sen Hoch­schu­len sol­che inno­va­ti­ven Anwen­dun­gen am Ende sogar zumin­dest im Prü­fungs­ge­sche­hen ver­bie­ten? Wie aber kon­trol­liert man dies?

c) Perspektive der Lehrenden

Die Leh­ren­den wie­der­um sind jene Akteu­re, die einer­seits den Bedürf­nis­sen der Stu­die­ren­den Rech­nung tra­gen müs­sen, ande­rer­seits Vor­ga­ben der Hoch­schul­lei­tung umset­zen sol­len, soweit dies etwa der Unter­bin­dung von Täu­schungs­hand­lun­gen bzw. der Her­stel­lung von Chan­cen­ge­rech­tig­keit dient. Bei alle­dem muss ihr eige­ner Gestal­tungs­spiel­raum in fach­li­cher und didak­ti­scher Hin­sicht erhal­ten blei­ben. Dies bie­tet ein brei­tes Spek­trum an Reak­ti­ons­mög­lich­kei­ten: von der pro­ak­ti­ven eige­nen Nut­zung gene­ra­ti­ver KI bis zur Ent­wick­lung von Bewer­tungs­maß­stä­ben in Bezug auf die neue Mensch-Maschine-Interaktion.

d) Zwischenfazit

Die mit dem Ein­satz gene­ra­ti­ver KI ver­bun­de­nen hoch­schul­re­le­van­ten Fra­gen sind viel­schich­tig. Auch wenn sich etwa die Ebe­nen not­wen­di­ger Stu­di­en­re­for­men, Anpas­sun­gen der Prü­fungs­ord­nun­gen, Kon­troll­fra­gen und stra­te­gi­schen Aus­rich­tun­gen zum Teil über­schnei­den, soll doch der Schwer­punkt die­ses Auf­sat­zes auf der Regu­lie­rung in einer all­ge­mei­nen Prü­fungs­ord­nung beschränken.

2. Einordnung generativer KI im Prüfungswesen

a) Anknüpfungspunkt „zugelassene Hilfsmittel“

Gene­ra­ti­ve KI kann als ein (tech­ni­sches) Hilfs­mit­tel ange­se­hen wer­den, wel­ches die Prü­fungs­teil­neh­men­den bei der Erstel­lung einer (schrift­li­chen) Prü­fungs­leis­tung auf unter­schied­li­che Arten unter­stüt­zen kann, je nach­dem wie und bis zu wel­chem Punkt man es ein­setzt (hier­zu näher unten III.2). Die mög­li­che „Unter­stüt­zungs­leis­tung“ reicht von ein­fa­chen Erklä­run­gen einer Prü­fungs­auf­ga­be über Recher­chen und sti­lis­ti­sche Text­vor­schlä­ge bis zur Erstel­lung eines kom­plet­ten Textentwurfs.

Damit ver­eint ein Tool wie ChatGPT letzt­lich die Funk­tio­na­li­tät von Such­ma­schi­nen, Daten­ban­ken, Schreib­pro­gram­men und Unter­stüt­zungs­leis­tun­gen, die bis­her von ande­ren Per­so­nen vor­ge­nom­men wur­den (Kor­rek­tur­le­sen, Sprachop­ti­mie­rung, „Spar­rings­part­ner“). Genau hier ist anzu­set­zen, wenn man die Gren­zen des Ein­sat­zes gene­ra­ti­ver KI im Prü­fungs­kon­text bestim­men und regu­la­to­risch fest­hal­ten will. Anknüp­fungs­punkt ist inso­fern das in der jewei­li­gen Hoch­schul­prü­fung „zuge­las­se­ne Hilfs­mit­tel“. Auch wenn die Prü­fungs­ord­nun­gen der Hoch­schu­len regel­mä­ßig jede Nut­zung eines nicht aus­drück­lich zuge­las­se­nen Hilfs­mit­tels als Täu­schungs­hand­lung bewer­ten, ist hier­bei zu dif­fe­ren­zie­ren. Gera­de bei unbe­auf­sich­tig­ten Prü­fungs­for­ma­ten, wie Semi­nar- oder Haus­ar­bei­ten, wer­den nicht die zuge­las­se­nen Hilfs­mit­tel (posi­tiv) benannt, son­dern viel­mehr uner­laub­te Hand­lungs­wei­sen, wie die Bear­bei­tung durch eine ande­re Per­son (nega­tiv) aus­ge­schlos­sen. Nach­dem Sys­te­me wie ChatGPT vie­le der bis­her zuge­las­se­nen oder zumin­dest tole­rier­ten Hilfs­mit­tel (Such­ma­schi­nen, Über­set­zungs­leis­tun­gen o.ä.) umfasst, ist nicht gene­rell davon aus­zu­ge­hen, dass die Nut­zung von ChatGPT per se die eines uner­laub­ten Hilfs­mit­tels ist.[2] Auf wel­cher Norm­ebe­ne eine Ein­schrän­kung von ChatGPT im Rah­men der zuge­las­se­nen Hilfs­mit­tel über­haupt regu­liert wer­den kann oder soll und wie sich dies wie­der­um zum Gestal­tungs­spiel­raum der Leh­ren­den ver­hält, bleibt zu unter­su­chen (hier­zu unten II.1 b und IV.3).

b) Anknüpfungspunkt „eigenständige Prüfungsleistung“

Neben den „zuge­las­se­nen Hilfs­mit­teln“ stellt die Eigen­stän­dig­keit der Prü­fungs­leis­tung einen wei­te­ren Anknüp­fungs­punkt für eine mög­li­che Regu­lie­rung dar. Dies ergibt sich dar­aus, dass gene­ra­ti­ve KI kein her­kömm­li­ches Hilfs­mit­tel wie Fach­li­te­ra­tur oder ein Rechen­pro­gramm dar­stellt, des­sen Ein­satz die Eigen­stän­dig­keit der eigent­li­chen Prü­fungs­leis­tung nicht in Fra­ge stel­len wür­de. Viel­mehr lie­gen die gene­ra­ti­ver KI zugrun­de­lie­gen­de Metho­de des maschi­nel­len Ler­nens und der dar­aus ent­ste­hen­de Leis­tungs­um­fang im Rah­men des­sen, was zumin­dest bei her­kömm­li­chen Prü­fun­gen der zu bewer­ten­den Leis­tung des Kan­di­da­ten ent­spricht. Je nach­dem, wie man die zu erbrin­gen­de Prü­fungs­leis­tung genau bestimmt bzw. vor­gibt, kann aus dem Ein­satz gene­ra­ti­ver KI die Schluss­fol­ge­rung gezo­gen wer­den, dass die Prü­fungs­leis­tung nicht mehr oder noch eigen­stän­dig von dem Prü­fungs­kan­di­da­ten erbracht wurde.

c) Fazit

Der Ein­satz gene­ra­ti­ver KI durch Prü­fungs­teil­neh­men­de ent­wer­tet die Prü­fungs­leis­tung nicht a prio­ri, er ändert jedoch den tat­säch­li­chen Kon­text des Prü­fungs­ge­sche­hens. Es kommt daher ent­schei­dend dar­auf an, wie in der jewei­li­gen Prü­fung die „zuge­las­se­nen Hilfs­mit­tel“ bestimmt wur­den und was genau die zu erbrin­gen­de (eigen­stän­di­ge) Prü­fungs­leis­tung dar­stel­len soll. Genau hier kann und soll­te die Regu­lie­rung sei­tens der Hoch­schu­le anset­zen, dies auch in Ver­bin­dung mit den ent­spre­chen­den Vor­ga­ben der Leh­ren­den, was die (eigen­stän­di­ge) Prü­fungs­leis­tung ist und wel­che (tech­ni­schen) Hilfs­mit­tel zuge­las­sen werden.

3. Rechtliche Herausforderungen

a) de lege lata

Der Ein­satz bzw. die Nut­zung gene­ra­ti­ver KI wirft viel­fäl­ti­ge Rechts­fra­gen auf und berührt dabei zahl­rei­che rele­van­ten Rechts­nor­men des aktu­ell gel­ten­den Rechts („de lege lata“). Im Prü­fungs­kon­text umfasst dies beson­ders die von den Hoch­schu­len zu beach­ten­den Grund­rech­te aller Akteu­re, aber auch die all­ge­mei­nen Prü­fungs­grund­sät­ze, die zum Teil in Prü­fungs­ord­nun­gen und dar­über hin­aus im Hoch­schul­recht ver­an­kert sind. Weil es hier expli­zit auch um die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten geht, spielt das Daten­schutz­recht, allen vor­an die Daten­schutz­grund­ver­ord­nung (DSGVO) eine wich­ti­ge Rol­le (hier­zu näher II.)

b) de lege ferenda

Es emp­fiehlt sich, dar­über hin­aus auch jene Rechts­vor­schrif­ten in den Blick zu neh­men, die der­zeit noch kei­ne Gel­tungs­kraft haben, the­ma­tisch aber durch­aus ein­schlä­gig sind. Das betrifft beson­ders die sog. KI-Ver­ord­nung (engl. Arti­fi­ci­al Intel­li­gence Act) der EU. Zwar wir die­se („de lege feren­da“) vor­aus­sicht­lich erst im Juni 2024 in Kraft tre­ten und dann auf­grund einer aus­drück­lich nor­mier­ten Über­gangs­pha­se erst suk­zes­si­ve Gel­tung erlan­gen. Es wäre aber fahr­läs­sig, dies gar nicht erst in die Über­le­gun­gen ein­zu­be­zie­hen, weil man sonst eine Prü­fungs­ord­nung und eine neue Prü­fungs­pra­xis schafft, die kur­ze Zeit spä­ter wie­der zu ändern wäre.

II. Rechtliche Eckpunkte

Beim Umgang mit gene­ra­ti­ver KI im Prü­fungs­kon­text sind sowohl ver­fas­sungs­recht­li­che als auch ein­fach­ge­setz­li­che und unter­ge­setz­li­che Nor­men zu beach­ten. In die­sem Bei­trag wer­den die­se in ihrer Bedeu­tung und in ihrem ein­schlä­gi­gen Inhalt dar­ge­stellt. Eine ver­tief­te Ana­ly­se bleibt wei­te­ren Bei­trä­gen vor­be­hal­ten, nicht zuletzt in einer Anschluss­for­schung, die der vor­lie­gen­de Bei­trag ansto­ßen möchte.

1. Relevante rechtliche Anforderungen

a) Grundrechte (Art. 12 Abs. 1, Art. 3 Abs. 1, Art. 5 Abs. 3 GG)

Von beson­de­rer Bedeu­tung sind die ein­schlä­gi­gen Grund­rech­te, an die zumin­dest staat­li­che Hoch­schu­len gebun­den sind (Art. 1 Abs. 3 GG).

So folgt aus Art. 12 Abs. 1 GG (Berufs­frei­heit, Aus­bil­dungs­frei­heit), dass den Stu­die­ren­den, die in einem bestimm­ten Stu­di­en­gang ein­ge­schrie­ben sind, ein berufs­qua­li­fi­zie­ren­der Abschluss mit ent­spre­chen­den Prü­fun­gen nicht vor­ent­hal­ten wer­den darf. Das hat­te gera­de wäh­rend der Pan­de­mie eine beson­de­re Bedeu­tung, weil die­ser Prü­fungs­an­spruch nur durch das Ange­bot elek­tro­ni­scher Fern­prü­fun­gen auf­recht­erhal­ten wer­den konn­te.[3] Dar­über hin­aus ist aber zu beden­ken, dass sowohl die Hoch­schu­len und ihre Fakul­tä­ten als auch die Leh­ren­den selbst inner­halb hoch­schul­ge­setz­li­cher Vor­ga­ben einen Gestal­tungs­spiel­raum bei der Aus­ge­stal­tung der Prü­fungs­for­ma­te haben. Poin­tiert gesagt: Die Stu­die­ren­den haben kei­nen grund­recht­lich fun­dier­ten Anspruch auf inno­va­ti­ve Lehr­in­hal­te und Prü­fungs­be­din­gun­gen, solan­ge Leh­re und Prü­fung nicht kom­plett an der Lebens­wirk­lich­keit vor­bei­ge­hen. Inso­fern könn­te die Bil­li­gung des Ein­sat­zes gene­ra­ti­ver KI bei Hoch­schul­prü­fun­gen zwar bil­dungs- und arbeits­markt­po­li­tisch wün­schens­wert sein – dies nicht zu bil­li­gen wäre aber noch kei­ne Ver­let­zung von Art. 12 Abs. 1 GG.

Im Mit­tel­punkt der Grund­rechts­bin­dung von Hoch­schu­len in Bezug auf das Prü­fungs­ge­sche­hen steht der Gleich­heits­satz (Art. 3 Abs. 1 GG), hier ver­stan­den als die Gewähr­leis­tung von Chan­cen­gleich­heit. Der Grund­rechts­schutz der Prü­fungs­teil­neh­men­den besteht beson­ders dar­in, dass eine fai­re, für alle glei­che Prü­fungs­si­tua­ti­on her­zu­stel­len ist. Danach soll nie­mand einen unbe­rech­tig­ten Vor­teil etwa durch Täu­schungs­hand­lun­gen erlan­gen, weil ansons­ten Unglei­ches (unter­schied­li­che Leis­tungs­stär­ken) gleich­be­han­delt wür­de (im Sin­ne einer ver­gleich­bar guten Note, die nur durch Nut­zung nicht zuge­las­se­ner Hilfs­mit­tel erlangt wur­de), ohne dass ein sach­li­cher Grund dies recht­fer­tigt. Auch hier muss man aller­dings berück­sich­ti­gen, dass eine „ech­te Chan­cen­gleich­heit“ ohne­hin nicht her­stell­bar ist – zu groß sind schon die fak­ti­schen Unter­schie­de der Teil­neh­men­den, etwa in Bezug auf deren finan­zi­el­le Mög­lich­kei­ten, Lern­ver­hält­nis­se oder bestimm­te kogni­ti­ve Fähig­kei­ten. So ver­steht sich die grund­recht­li­che Per­spek­ti­ve auf Chan­cen­gleich­heit auch eher im Sin­ne einer zumut­ba­ren Opti­mie­rung der Prü­fungs­um­stän­de[4] und einer Ver­mei­dung von Will­kür.[5]

Zu beach­ten ist schließ­lich auch die Lehr­frei­heit (als Aus­druck der Wis­sen­schafts­frei­heit, Art. 5 Abs. 3 GG), die den Leh­ren­den ein Mini­mum an prü­fungs­di­dak­ti­schen Ent­schei­dun­gen gewährt. Vor die­sem Hin­ter­grund darf die Hoch­schu­le Prü­fungs­in­hal­te und Prü­fungs­for­ma­te nur all­ge­mein vor­ge­ben, ohne den Grund­satz „wer lehrt, der prüft“ aus­zu­he­beln. Ins­be­son­de­re muss es bei ent­spre­chen­den Vor­ga­ben einen sach­li­chen Grund geben, dies zen­tral zu regeln. 

Die genann­ten Grund­rech­te ste­hen zuwei­len auch in einem Span­nungs­ver­hält­nis. So könn­te zur Opti­mie­rung der Chan­cen­gleich­heit auf eine Prü­fungs­form und eine Prü­fungs­um­ge­bung hin­ge­wirkt wer­den, die sich durch mög­lichst weni­ge Varia­blen und damit Mög­lich­kei­ten für Unter­schie­de zwi­schen den Stu­die­ren­den aus­zeich­net. Dies wäre z.B. bei einer Prü­fung ohne zuge­las­se­ne Hilfs­mit­tel und aus­schließ­lich geschlos­se­ne Fra­ge­stel­lun­gen, die nur eine kor­rek­te Lösung zulas­sen, der Fall. Gleich­wohl kön­nen anders aus­ge­stal­te­te Prü­fun­gen, die auch den Umgang mit in der Pra­xis sowie­so ver­füg­ba­ren Hilfs­mit­teln ein­be­zie­hen, dem Berufs­qua­li­fi­zie­rungs­ziel bes­ser gerecht werden.

b) Rechtsstaatliche Anforderungen, insb. Gesetzesvorbehalt

Die Aus­ge­stal­tung einer Hoch­schul­prü­fung ist nicht allei­ne Sache der Hoch­schu­len oder der Leh­ren­den. Viel­mehr bedarf es gesetz­li­cher Vor­ga­ben, soweit etwa Grund­rech­te wesent­lich betrof­fen sind (Wesent­lich­keits­theo­rie des BVerfG). Das bedeu­tet: gera­de eine Rege­lung des Ein­sat­zes gene­ra­ti­ver KI berührt sowohl Art. 12 Abs. 1 GG als auch Art. 3 Abs. 1 GG oder Art. 5 Abs. 3 GG. Sowohl eine pau­scha­le Erlaub­nis als auch ein pau­scha­les Ver­bot müss­ten ent­we­der im Hoch­schul­ge­setz ver­an­kert wer­den oder es müss­te eine Ermäch­ti­gung an den Ver­ord­nungs­ge­ber bzw. Sat­zungs­ge­ber erteilt wer­den, dies nach Maß­ga­be bestimm­ter gesetz­li­cher Anfor­de­run­gen zu regeln. In ähn­li­cher Wei­se hat­te etwa der baye­ri­sche Gesetz­ge­ber 2020 eine Ver­ord­nungs­er­mäch­ti­gung zur Ein­füh­rung elek­tro­ni­scher Fern­prü­fun­gen geschaf­fen, nach­dem die Pan­de­mie Prä­senz­prü­fun­gen wesent­lich erschwer­te. Auf die­ser Grund­la­ge ent­stand wie­der­um die Baye­ri­sche Fern­prü­fungs­er­pro­bungs­ver­ord­nung, die zum Vor­bild für das Fern­prü­fungs­recht in ganz Deutsch­land wur­de.[6]

Ob etwas Ähn­li­ches bei der Regu­lie­rung der prü­fungs­recht­li­chen Anfor­de­run­gen an den Ein­satz gene­ra­ti­ver KI gelingt, ist frag­lich, weil der Hand­lungs­druck kaum gese­hen wird bzw. zu spü­ren ist. Auch wenn eine gesetz­li­che Rah­men­set­zung unter dem Aspekt des Geset­zes­vor­be­halts not­wen­dig erscheint, wäre schon die Rege­lung in einer unter­ge­setz­li­chen Norm, etwa der „All­ge­mei­nen Prü­fungs­ord­nung“ auf Hoch­schul­ebe­ne ein rechts­staat­li­ches „Plus“ gegen­über dem jet­zi­gen Rechtszustand.

c) Einfachgesetzliches Prüfungsrecht

Auf der Ebe­ne des ein­fa­chen Geset­zes­rechts fin­den sich Ansät­ze für das Prü­fungs­recht ins­be­son­de­re in den Lan­des­hoch­schul­ge­set­zen. Die dort zu fin­den Vor­schrif­ten zu Prü­fun­gen und Prü­fungs­ord­nun­gen[7] regeln inso­weit nur all­ge­mei­ne Grund­sät­ze wie die Art und die Bewer­tung von Prü­fungs­leis­tun­gen – auf Beson­der­hei­ten einer Mensch-Maschi­ne-Inter­ak­ti­on wie beim Ein­satz gene­ra­ti­ver KI in Prü­fun­gen gehen die­se Vor­schrif­ten aber (nach­voll­zieh­bar) nicht ein.

Wenn man ins­be­son­de­re die Ermäch­ti­gung zur Rege­lung in Prü­fungs­ord­nun­gen der Hoch­schu­le[8] sehr groß­zü­gig aus­legt, könn­te man zumin­dest einst­wei­len auf die Sat­zungs­ebe­ne aus­wei­chen, um den Rah­men für den Ein­satz gene­ra­ti­ver KI zu regeln.

d) Satzungsrecht (Prüfungsordnungen)

Auch in den bestehen­den Rah­men­prü­fungs­ord­nun­gen der Hoch­schu­len für den Bache­lor-Stu­di­en­gang bzw. für den Mas­ter-Stu­di­en­gang fin­den sich bis­lang kei­ne expli­zi­ten Rege­lun­gen zum Umgang mit (gene­ra­ti­ver) KI im Prü­fungs­kon­text. Dies wäre aller­dings der rich­ti­ge Ort für die eine oder ande­re Klar­stel­lung. Dies betrifft ins­be­son­de­re (am Bei­spiel einer Bache­lor-Ord­nung der Uni­ver­si­tät Frei­burg[9]):

  • § 6: Fach­spe­zi­fi­sche Bestimmungen
  • § 12: Bachelorprüfung
  • § 13: Studienleistungen
  • § 14: Stu­di­en­be­glei­ten­de Prüfungsleistungen
  • § 17: Stu­di­en­be­glei­ten­de schrift­li­che Prüfungsleistungen
  • § 18: Online-Prüfungen
  • § 18a: Daten­ver­ar­bei­tung bei Online-Prüfungen
  • § 21: Bachelorarbeit
  • § 23: Rück­tritt, Täu­schung, Ordnungsverstoß

Dort könn­ten Ein­zel­hei­ten zu den zuge­las­se­nen Hilfs­mit­teln, zur Eigen­stän­dig­keit der Leis­tung im Rah­men einer Mensch-Maschi­ne-Inter­ak­ti­on, zu den Bewer­tungs­maß­stä­ben, zu den Gren­zen der KI-Nut­zung u.a.m. gere­gelt werden.

e) Datenschutzrecht

Weil der Ein­satz gene­ra­ti­ver KI immer auch mit der Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten ein­her­geht, sind die Anfor­de­run­gen des Daten­schutz­rechts, ins­be­son­de­re der DSGVO zu beach­ten. Hier­zu zäh­len etwa die all­ge­mei­nen Grund­sät­ze (Art. 5 DSGVO), die Not­wen­dig­keit einer Rechts­grund­la­ge (Art. 6 DSGVO), die Gestal­tung eines Ein­wil­li­gungs­pro­zes­ses (Art. 7 ff. DSGVO), all­ge­mei­ne Trans­pa­renz­an­for­de­run­gen (Art. 12 DSGVO) und Infor­ma­ti­ons­pflich­ten (Art. 13 ff. DSGVO) sowie das Ver­bot einer auto­ma­ti­sier­ten Prü­fungs­ent­schei­dung (Art. 22 DSGVO). Hin­zu kommt ggf. das Erfor­der­nis einer Daten­schutz­fol­gen­ab­schät­zung (Art. 35 DSGVO).

Wel­che genau­en Anfor­de­run­gen gel­ten, hängt stark von dem Ein­satz­sze­na­rio ab: Geht es um die Nut­zung der KI durch die Stu­die­ren­den im Rah­men regis­trier­ter Nut­zer­kon­ten oder um den KI-Ein­satz durch die Hoch­schu­le im Rah­men von Lehr­ver­an­stal­tun­gen oder zur Täuschungskontrolle?

In ers­ter Linie hat der Anbie­ter von Sys­te­men gene­ra­ti­ver KI (also etwa das Unter­neh­men Ope­nAI im Fall von ChatGPT) die Anfor­de­run­gen der DSGVO (sowie künf­tig der KI-Ver­ord­nung) ein­zu­hal­ten. Weil dies zumin­dest in Fra­ge gestellt wer­den kann, hat­te etwa die Daten­schutz­auf­sichts­be­hör­den in Ita­li­en ChatGPT zwi­schen­zeit­lich ver­bo­ten; die deut­sche Daten­schutz­kon­fe­renz hat Ope­nAI einen umfang­rei­chen Fra­gen­ka­ta­log zur Beant­wor­tung über­mit­telt, um den Sach­ver­halt zu klä­ren, bevor etwa­ige Auf­sichts­maß­nah­men ergrif­fen wer­den. Ob Hoch­schu­len für den Fall, dass sie sol­che Sys­te­me gene­ra­ti­ver KI gleich­sam „offi­zi­ell“ in ihr Prü­fungs­ge­sche­hen (bzw. auch über­ge­ord­net in die Leh­re) ein­bin­den, Ver­ant­wort­li­che i.S.d. DSGVO wer­den, bleibt zu klä­ren. Inso­weit wären die Maß­stä­be zu prü­fen, die der EuGH in sei­ner Ent­schei­dung zu den Face­book-Fan­pages vor­ge­ge­ben hat[10]. Zwei­fel­los daten­schutz­recht­lich rele­vant wäre dem­ge­gen­über der Ein­satz von sog. KI-Detek­to­ren, weil bei der Kon­trol­le von Prü­fungs­ar­bei­ten per­so­nen­be­zo­ge­ne Daten der Stu­die­ren­den ver­ar­bei­tet wer­den.[11] Hier­zu bedürf­te es einer aus­drück­li­chen gesetz­li­chen Ermäch­ti­gungs­grund­la­ge (die der­zeit fehlt), weil die Ein­wil­li­gung in sol­chen Fäl­len nicht frei­wil­lig erteilt wer­den kann.[12] Außer­dem sind die stren­gen Anfor­de­run­gen des Art. 22 DSGVO[13] zu beach­ten, wenn und soweit ein nega­ti­ves Prü­fungs­er­geb­nis unmit­tel­bar oder mit­tel­bar auf das Ergeb­nis des Prüf­vor­gangs des KI-Detek­tors gestützt wird.

2. Perspektivisch: „KI-Recht“

Der­zeit ist der KI-Ein­satz in öffent­lich-recht­li­chen Kon­tex­ten (wie eben inner­halb einer staat­li­chen Hoch­schu­le) kaum regu­liert – am ehes­ten grei­fen, wie gese­hen, noch daten­schutz­recht­li­che Anfor­de­run­gen. Dies wird sich ändern, sobald die euro­päi­sche KI-Ver­ord­nung (KI-VO), die gera­de das Tri­log­ver­fah­ren durch­lau­fen hat, in Kraft getre­ten ist und Gel­tung bean­sprucht. Wel­che Aus­wir­kun­gen dies für den Ein­satz gene­ra­ti­ver KI in Stu­di­um, Leh­re und Prü­fung haben wird, hängt auf­grund des risi­ko­ba­sier­ten Regu­lie­rungs­an­sat­zes wie­der­um von dem jewei­li­gen Ein­satz­sze­na­rio ab. Es ist emp­feh­lens­wert, die­se Ent­wick­lung bei der eige­nen Regu­lie­rung im Auge zu behal­ten. Im Rah­men der Tri­log­ver­hand­lun­gen kam es zuletzt noch­mals zu umfas­sen­den Ände­run­gen, ins­be­son­de­re hin­sicht­lich der der KI-VO zugrun­de­lie­gen­den Begriffs­de­fi­ni­ti­on von KI-Sys­te­men, sowie der Regu­lie­rung gene­ra­ti­ver KI.[14] Die in der bis­her ver­füg­ba­ren eng­li­schen Ver­si­on als „gene­ral pur­po­se AI models“ bezeich­ne­ten KI-Sys­te­me wer­den noch­mals einer eige­nen Risi­ko­be­wer­tung unter­zo­gen und „gene­ral pur­po­se AI models with sys­te­mic risk“ umfas­sen­der gere­gelt. Die Vor­ga­ben der KI-VO rich­ten sich hier­bei vor­der­grün­dig an die Anbie­ter der KI-Sys­te­me, jedoch eben­so an die Betrei­ber, die Ein­füh­rer, Händ­ler und die End­nut­zen­den.[15] Somit wirkt sich die Nut­zung einer mög­li­cher­wei­se euro­pa­rechts­wid­ri­gen Platt­form auch für die­je­ni­gen aus, die eine sol­che Nut­zung dul­den, erlau­ben oder gar aus­drück­lich in ihrem Prü­fungs­sys­tem ver­an­kern. Neben der Fra­ge, wie gene­ra­ti­ve KI durch die KI-VO regu­liert ist, steht im jewei­li­gen Ein­satz­sze­na­rio die Zuord­nung zu einer der durch die KI-VO vor­ge­se­he­nen Risi­ko­grup­pen im Vor­der­grund. Gera­de die sog. Hoch­ri­si­ko-KI-Sys­te­me, zu denen gem. Art. 6 Abs. 2 KI-VO i.V.m. Anhang III Nr. 3 eben­so KI-Sys­te­me im Kon­text von all­ge­mei­ner und beruf­li­cher Bil­dung zäh­len, wer­den durch die Ver­ord­nung umfas­send regu­liert. Alle­mal ist schon jetzt anzu­ra­ten, For­mu­lie­run­gen so zu wäh­len, die der dyna­mi­schen Ent­wick­lung in die­sem Sek­tor Rech­nung tragen.

III. Eckpunkte zur Systematik des Einsatzes generativer KI

1. Begriffliche Annäherung

a) Keine Definition von Künstlicher Intelligenz

Auch wenn sich die emp­foh­le­ne Regu­lie­rung des Ein­sat­zes gene­ra­ti­ver KI (wie etwa ChatGPT) zumin­dest auf der Ebe­ne der Prü­fungs­ord­nun­gen mit einer Soft­ware befasst, die (schon vom Namen her) mit „Künst­li­cher Intel­li­genz“ zu tun hat, ist es weder mög­lich noch rat­sam, eine Legal­de­fi­ni­ti­on von KI auf­zu­neh­men. Eine sol­che gleich­sam abschlie­ßen­de Defi­ni­ti­on schei­tert schon dar­an, dass es weder in der Wis­sen­schaft noch in der Rechts­pra­xis einen Kon­sens dar­über gibt, was KI genau ist und wie man es so defi­niert, dass es alles Wesent­li­che umfasst und sich gegen­über ver­wand­ten IT-Tech­no­lo­gien trenn­scharf abgren­zen lässt.

Dies gelingt nicht ein­mal der KI-Ver­ord­nung, deren Art. 3 Nr. 1 einer der zen­tra­len Dis­kus­si­ons­punk­te im Tri­log­ver­fah­ren war[16] und nun­mehr lautet: 

„AI sys­tem‘ is a machi­ne-based sys­tem desi­gned to ope­ra­te with vary­ing levels of auto­no­my and that may exhi­bit adap­ti­ve­ness after deploy­ment and that, for expli­cit or impli­cit objec­ti­ves, infers, from the input it recei­ves, how to gene­ra­te out­puts such as pre­dic­tions, con­tent, recom­men­da­ti­ons, or decis­i­ons that can influence phy­si­cal or vir­tu­al environments“.

Die Daten­ethik­kom­mis­si­on der Bun­des­re­gie­rung ver­zich­te­te in ihrem Abschluss­be­richt 2019 auf eine Defi­ni­ti­on von KI und lie­fer­te statt­des­sen fol­gen­de Beschreibung 

„Sam­mel­be­griff für die­je­ni­gen Tech­no­lo­gien und ihre Anwen­dun­gen, die durch digi­ta­le Metho­den auf der Grund­la­ge poten­zi­ell sehr gro­ßer und hete­ro­ge­ner Daten­sät­ze in einem kom­ple­xen und die mensch­li­che Intel­li­genz gleich­sam nach­ah­men­den maschi­nel­len Ver­ar­bei­tungs­pro­zess ein Ergeb­nis ermit­teln, dass ggf. auto­ma­ti­siert zur Anwen­dung gebracht wird.“[17]

Schon hier wird deut­lich, dass es zwar bestimm­te prä­gen­de Merk­ma­le gibt, über die man sich ver­stän­di­gen kann – eben­so aber vie­le offe­ne Flan­ken, die einen Inter­pre­ta­ti­ons­spiel­raum las­sen (und ange­sichts der Dyna­mik der tech­ni­schen Ent­wick­lung viel­leicht auch las­sen müs­sen). So gese­hen geht es bei KI annä­he­rungs­wei­se um maschi­nel­les Ler­nen auf der Grund­la­ge gro­ßer Daten­sät­ze, wor­aus auto­ma­ti­siert Ergeb­nis­se ermit­telt wer­den, die nicht unbe­dingt bereits Bestand­teil einer mensch­li­chen Ein­ga­be in den algo­rith­mi­schen Pro­zess ent­spre­chen. Damit ist gleich­sam ein qua­si schöp­fe­ri­scher infor­ma­ti­ons­tech­ni­scher Pro­zess umschrie­ben, der an mensch­li­che Krea­ti­vi­tät erin­nert. Genau die­se Nähe inno­va­ti­ver Com­pu­ter­leis­tun­gen zu mensch­li­cher Leis­tungs­be­schrei­bung ist es, die das Prü­fungs­we­sen her­aus­for­dert. Was ist eine geis­ti­ge mensch­li­che Leis­tung noch wert, wenn sie eine Maschi­ne eben­so erbrin­gen kann?

b) Zulassung, Einschränkung oder Verbot „technischer Hilfsmittel“ bei der Vorbereitung, Durchführung und (Täuschungs-) Kontrolle von Prüfungen

Statt all­ge­mein und etwas dif­fus mit dem (Rechts-) Begriff der KI zu ope­rie­ren, bie­tet es sich an, an den Begriff der „tech­ni­schen Hilfs­mit­tel“ anzu­knüp­fen. Bis­lang ist die Zulas­sung von Hilfs­mit­teln Sache der Prü­fen­den in ihrem jewei­li­gen Ver­ant­wor­tungs­be­reich. So kön­nen etwa in Klau­su­ren der Mathe­ma­tik, Infor­ma­tik oder ähn­li­chen tech­ni­schen Dis­zi­pli­nen Taschen­rech­ner, For­mel­samm­lun­gen oder auch bestimm­te Daten­ban­ken oder Pro­gram­me genutzt wer­den. Noch wei­ter­ge­hend öff­net man bei sog. Open Book-Klau­su­ren die Mög­lich­keit, auf Tei­le oder das gesam­te Lern­ma­te­ri­al zurück­zu­grei­fen oder sogar dar­über­hin­aus­ge­hen­de Recher­chen wäh­rend der Prü­fungs­zeit zu erlau­ben. Wel­che Hilfs­mit­tel zuge­las­sen wer­den, hängt auch vom jewei­li­gen Prü­fungs­fach und des­sen Anfor­de­run­gen ab. Je mehr es etwa auf die Beherr­schung bestimm­ter Metho­den zur Anwen­dung von Wis­sen ankommt, um so eher mag es ver­tret­bar sein, das Wis­sen nicht als Prä­senz­wis­sen zu ver­lan­gen und (mit) abzu­fra­gen, son­dern statt­des­sen die Ver­hält­nis­se abzu­bil­den, die die Absol­ven­ten in der spä­te­ren Arbeits­pra­xis vor­fin­den. Dort aber kann man viel­fach auf schnell erreich­ba­res Wis­sen (etwa in Daten­ban­ken) zurück­grei­fen, es wird also nicht ver­langt, dass man dies gleich­sam „aus­wen­dig“ auf­sa­gen könn­te. Auch vor die­sem Hin­ter­grund wäre es aber ver­fehlt, auf jeg­li­ches Ler­nen von Fak­ten zu verzichten.

Ohne ein sta­bi­les Fun­da­ment an prä­sen­tem Wis­sen wird man auch die Sys­te­me zum Wis­sens­a­bruf nur unvoll­kom­men bedie­nen kön­nen. So kann etwa ein Geset­zes­kom­men­tar hilf­reich sein, um einen kom­ple­xen juris­ti­schen Fall zu lösen. Inner­halb kur­zer Zeit wird man damit aber wenig anfan­gen kön­nen, wenn man nicht genau weiß, wonach man sucht.

Nimmt man dies als Aus­gangs­la­ge, kann und muss bei der Fra­ge, inwie­weit so etwas wie gene­ra­ti­ve KI auch im Kon­text von Hoch­schul­prü­fun­gen zuge­las­sen wer­den kann, mehr­fach unter­schie­den werden:

Eine ers­te Unter­schei­dung betrifft die Art der Prü­fung. Bereits aus prü­fungs­di­dak­ti­schen Grün­den wird man zunächst zwi­schen Klau­su­ren unter Auf­sicht und schrift­li­chen Arbei­ten wie Semi­nar­re­fe­ra­ten, Bache­lor- oder Mas­ter­ar­bei­ten unter­schei­den müs­sen. Schon weil etwa­ige Kon­troll­maß­nah­men im letzt­ge­nann­ten Fall ungleich schwe­rer umzu­set­zen wären, soll die­ser im Mit­tel­punkt die­ses Auf­sat­zes ste­hen. Inwie­weit man die dar­aus resul­tie­ren­den Emp­feh­lun­gen dann auf Auf­sichts­klau­su­ren über­tra­gen könn­te, wäre spä­ter zu diskutieren.

Eine zwei­te Unter­schei­dung betrifft den Zeit­punkt des gene­ra­ti­ven KI-Ein­sat­zes. So kann man zwi­schen der Vorbereitung/Einarbeitung (Vor­feld), der Tex­terstel­lung (Prü­fungs­leis­tung) und der spä­te­ren Bewer­tung (Kon­trol­le) unterscheiden.

  • Was die Vor­be­rei­tung der Prü­fungs­leis­tung betrifft (das Ein­ar­bei­ten in eine Auf­ga­ben­stel­lung, Recher­chen, das Erschlie­ßen von Wis­sen und Metho­dik etc.), kann es kaum eine Ein­schrän­kung geben. So zählt es zur (auch grund­recht­lich geschütz­ten) „Stu­dier­frei­heit“ (Art. 12 Abs. 1 i.V.m. Art. 5 Abs. 3 GG), dass Stu­die­ren­de weit­ge­hend selbst ent­schei­den kön­nen, auf wel­che Wei­se sie sich den Prü­fungs­stoff erschlie­ßen (Besuch von Vorlesungen/Übungen, Selbst­stu­di­um, pri­va­ter Repe­ti­tor, Lek­tü­re von wis­sen­schaft­li­chen Lehr­bü­chern oder Skrip­ten, Nut­zung von Lern­soft­ware etc.). Inso­fern hat es im Lau­fe der letz­ten Jahr­zehn­te ohne­hin schon einen Wan­del gege­ben: Wäh­rend es frü­her unent­behr­lich war, Lite­ra­tur­re­cher­chen für wis­sen­schaft­li­che Arbei­ten in Biblio­the­ken vor­zu­neh­men, lässt sich dies heu­te bequem von einem Lap­top mit Inter­net­zu­gang über zahl­rei­che Daten­ban­ken erle­di­gen. Schon die dort inte­grier­ten Such­ma­schi­nen neh­men einen Teil der Recher­che­skills ab, die man sich frü­her durch Grund­kur­se und ste­ti­ge Übung erst ange­eig­net hat. Soll­te das frü­her ein Bestand­teil von wis­sen­schaft­li­cher Leis­tungs­er­brin­gung gewe­sen sein (was man auch bestrei­ten könn­te), hät­te sich die­ser still­schwei­gend ver­ab­schie­det, wäre durch die tech­ni­sche Ent­wick­lung über­holt wor­den, ohne dass dies durch eine Prü­fungs­re­form nor­ma­tiv abge­seg­net wor­den wäre. So lau­tet das Zwi­schen­er­geb­nis: Die Nut­zung gene­ra­ti­ver KI zu Zwe­cken der Recher­che, zur wei­te­ren Erschlie­ßung von rele­van­tem Wis­sen oder ggf. auch zur Hil­fe­stel­lung bei Kon­zep­ti­on, Glie­de­rung oder ers­ten Ent­wür­fen kann und soll­te kaum ver­bo­ten wer­den. Aus Grün­den der Rechts­si­cher­heit kann man dies dann aber auch aus­drück­lich zulas­sen – nicht zuletzt, um Chan­cen­gleich­heit zwi­schen jenen, die ohne eine sol­che Zulas­sung bei der Nut­zung zögern, und jenen, die inso­fern kei­ne Scheu haben, her­zu­stel­len. Wenn dem wie­der­um so ist, wird man natür­lich all das, was mehr oder weni­ger von der Soft­ware erle­digt wird oder wer­den kann, spä­ter nicht in die Bewer­tung ein­flie­ßen las­sen. Es wird als selbst­ver­ständ­lich ange­se­hen.[18]
  • Ent­schei­dend ist bei einer schrift­li­chen Prü­fungs­auf­ga­be, die ohne Auf­sicht über einen gewis­sen Zeit­raum in eige­ner Ver­ant­wor­tung der zu Prü­fen­den erbracht wird, die Erstel­lung des Tex­tes, der letzt­lich von den Prü­fern bewer­tet wer­den soll. Hier besteht der eigent­li­che Regu­lie­rungs­be­darf. Ob und inwie­weit man die Nut­zung gene­ra­ti­ver KI auch hier zulas­sen oder ihre Zulas­sung eher ein­schrän­ken möch­te, hängt stark davon ab, was als Prü­fungs­leis­tung gel­ten soll. Hier zeich­net sich ein Para­dig­men­wech­sel ab. Wäh­rend man frü­her davon aus­ge­gan­gen ist, dass das „Schrei­ben“ (For­mu­lie­ren) einer Arbeit (Refe­rat, Bache­lor­ar­beit etc.) durch die Stu­die­ren­den höchst­per­sön­lich erfolgt – was dann auch Gegen­stand der „Eigen­stän­dig­keits­er­klä­rung“[19] war – , muss heu­te erwo­gen wer­den, ob man nicht Ent­wür­fe durch gene­ra­ti­ve KI zulas­sen will und den Schwer­punkt der Bewer­tung nun­mehr auf die inhalt­li­che Qua­li­tät legen möch­te, die Prü­fungs­leis­tung damit schwer­punkt­mä­ßig in der Qua­li­täts­prü­fung sowie den indi­vi­du­el­len Ergän­zun­gen läge.[20]

2. Übersicht der Anwendungsszenarien I – Perspektive der Studierenden

Für die wei­te­re Dis­kus­si­on kann es nütz­lich sein, sich die wesent­li­chen Anwen­dungs­sze­na­ri­en vor Augen zu füh­ren, damit die­se Dis­kus­si­on nicht pau­schal und damit ver­zerrt geführt wird. Dabei gilt es nach den ver­schie­de­nen Per­spek­ti­ven (Stu­die­ren­de, Hoch­schu­le, Leh­ren­de) zu differenzieren.

a) Vorbemerkung: Unterscheidung von beaufsichtigten Prüfungen (z.B. Klausuren) und unbeaufsichtigten schriftlichen Arbeiten (Bachelorarbeiten etc.)

  • Bei unbe­auf­sich­tig­ten schrift­li­chen Arbei­ten soll­te man gene­ra­ti­ve KI bis zu einem bestimm­ten Nut­zungs­grad (sie­he die nach­fol­gen­den Anwen­dungs­sze­na­ri­en) zulas­sen: Zum einen dürf­te die Kon­trol­le eines Ver­bots rechts­kon­form nur schwer mög­lich sein. Zum ande­ren gibt es gute Grün­de, die Nut­zung gene­ra­ti­ver KI zum Gegen­stand eines pra­xis­ori­en­tier­ten Stu­di­ums mit Blick auf Bedürf­nis­se des Arbeits­mark­tes zu machen. Ein sol­cher pro­ak­ti­ver Umgang mit einer inno­va­ti­ven Tech­no­lo­gie stellt deren Chan­cen und nicht ein­sei­tig die Risi­ken in den Mittelpunkt.
  • Für beauf­sich­tig­te Prü­fun­gen bie­tet es sich dem­ge­gen­über – zumin­dest als Regel­fall – an, den Ein­satz gene­ra­ti­ver KI zu unter­sa­gen. Zum einen lässt sich dies bei Auf­sichts­prü­fun­gen leich­ter kon­trol­lie­ren. Zum ande­ren hät­te man eine grö­ße­re Band­brei­te an Prü­fungs­for­ma­ten, weil bestimm­te Lern­in­hal­te und Metho­den doch die höchst­per­sön­li­che Erbrin­gung der Prü­fungs­leis­tung im gesam­ten Umfang erfordern.

Bei den unbe­auf­sich­tig­ten schrift­li­chen Arbei­ten muss wie­der­um unter­schie­den wer­den, ob das „tech­ni­sche Hilfs­mit­tel“ im Vor­feld der eigent­li­chen Prü­fungs­leis­tung steht oder zu des­sen Bestand­teil wird.

b) Digitale Anwendungen für „unterstütztes Lernen“

Sowohl recht­lich als auch prak­tisch pro­blem­los ist die Nut­zung von digi­ta­len Anwen­dun­gen für „unter­stütz­tes Ler­nen“. Damit sind sämt­li­che Soft­ware-Anwen­dun­gen gemeint, die von den Stu­die­ren­den ein­ge­setzt wer­den, um den Lern­pro­zess zu unter­stüt­zen: Das reicht von eBooks oder Pod­casts über fach­be­zo­ge­ne Daten­ban­ken und spe­zi­fi­scher Lern­soft­ware bis zu gene­ra­ti­ver KI wie ChatGPT, die man als digi­ta­len Assis­ten­ten zu Lern­zwe­cken ein­set­zen kann. Dies gilt nicht nur außer­halb der Prü­fun­gen, son­dern auch, wenn man die Anwen­dun­gen nutzt, um sich den (mög­li­cher­wei­se bis­lang nicht oder nur unvoll­kom­men erschlos­se­nen) Prü­fungs­stoff zu erschlie­ßen. Auch wenn man sich bei der Nut­zung bereits in der Prü­fungs­pha­se befin­det, fin­det die kon­kre­te Nut­zung im Sin­ne eines „unter­stüt­zen­den Ler­nens“ noch im Vor­feld der eigent­li­chen Prü­fungs­leis­tung statt.

c) Generative KI als Recherche-Tool zu Prüfungsaufgaben

Einen Schritt wei­ter geht man, wenn gene­ra­ti­ve KI kon­kret bezo­ge­nen auf eine bestimm­te Prü­fungs­auf­ga­be ein­ge­setzt wird, ins­be­son­de­re zu Recher­chen mit Blick auf die kon­kre­te Fra­ge­stel­lung. Damit befin­det man sich in einer Pha­se, die nach her­kömm­li­chem Ver­ständ­nis bereits zur Leis­tung gezählt wird, die in der Prü­fung zu erbrin­gen ist (gera­de bei wis­sen­schaft­li­chen Haus­ar­bei­ten, Bache­lor- oder Mas­ter­ar­bei­ten). Nach dem vor­ste­hend skiz­zier­ten Para­dig­men­wech­sel könn­te man die­se Recher­che­ar­beit aller­dings auch aus der Beschrei­bung der bewer­te­ten Prü­fungs­leis­tung her­aus­neh­men und sich der moder­nen Mög­lich­kei­ten inno­va­ti­ver Anwen­dun­gen der gene­ra­ti­ven KI bedie­nen. Die eigent­li­che Prü­fungs­leis­tung wür­de dann erst dar­an anschlie­ßen.[21]

d) Generative KI zur formalen Verbesserung eigenständig erstellter Texte

Auf einer gedach­ten „Eigen­stän­dig­keits-Ska­la“ der Mensch-KI-Inter­ak­ti­on lässt sich die nächst­hö­he­re Stu­fe dort ein­ord­nen, wo die KI bereits am Prü­fungs­text selbst ein­ge­setzt wird, dies aber nur zur for­ma­len Ver­bes­se­rung des ansons­ten eigen­stän­dig erstell­ten Tex­tes. Ein sol­cher Ein­satz gene­ra­ti­ver KI scheint schon des­halb ver­tret­bar, weil er gar nicht weit weg von dem her­kömm­li­chen Vor­ge­hen ein­zu­stu­fen ist, wonach die eige­ne Haus­ar­beit durch ande­re Per­so­nen redi­giert oder in ein „Schreib­bü­ro“ gege­ben wird, wo sie auf Recht­schrei­bung, Gram­ma­tik und Stil über­prüft wird.[22]

e) Generative KI als Instrument zu Inspiration und Vorentwurf einer Aufgabenlösung

In eine „Grau­zo­ne“ kommt man dann, wenn gene­ra­ti­ve KI als Instru­ment zu Inspi­ra­ti­on und Vor­ent­wurf einer Auf­ga­ben­lö­sung ein­ge­setzt wird: Einer­seits bekommt die KI nun eine „Rol­le“, die bereits sehr nahe an der regel­mä­ßi­gen Prü­fungs­leis­tung ein­zu­ord­nen ist. Ande­rer­seits wird es nun schwer, die „Antei­le“ von Mensch und KI hin­rei­chend abzu­gren­zen. Wenn man dies zulas­sen woll­te, könn­te man auch gleich auf die nächs­te Stu­fe gehen.

f) Generative KI als Co-Erstellerin einer Prüfungsleistung

Der „mutigs­te“, viel­leicht aber auch der recht­lich am bes­ten umsetz­ba­re und prü­fungs­di­dak­tisch inno­va­tivs­te Schritt wäre es, gene­ra­ti­ve KI als Co-Erstel­le­rin einer Prü­fungs­leis­tung zuzu­las­sen – auch um kei­nen Zwei­fel dar­an zu las­sen, dass damit ein neu­es Leit­bild der „Eigen­stän­dig­keit“ der (unbe­auf­sich­tig­ten, schrift­li­chen) Prü­fungs­leis­tung geschaf­fen wird, das der inno­va­ti­ven Ent­wick­lung Rech­nung trägt und den gewan­del­ten Pra­xis­an­for­de­run­gen genü­gen will: Wenn näm­lich künf­tig in der Berufs­pra­xis ohne­hin gene­ra­ti­ve KI ein­ge­setzt wird, soll­ten Hoch­schu­len dies weder ver­bie­ten noch igno­rie­ren, son­dern pro­ak­tiv einsetzen.

Eine Abgren­zung der eigent­li­chen Prü­fungs­leis­tung wäre eben­so mög­lich: Die­se bestün­de in der wis­sen­schaft­li­chen Über­ar­bei­tung des KI-Ent­wurfs, beson­ders mit Blick auf Quel­len, die die KI nicht berück­sich­tigt hat, aber auch um Feh­ler („Hal­lu­zi­na­tio­nen“) zu ver­bes­sern und jenen wis­sen­schaft­li­chen Ansprü­chen zu genü­gen, die mit der Auf­ga­ben­stel­lung expli­zit genannt und gefor­dert wer­den. Je grö­ßer der errechnete/geschätzte „Workload“ der KI ist, um so mehr kann von den Stu­die­ren­den an Qua­li­täts­ma­nage­ment und Opti­mie­rung ver­langt wer­den. Ein­ge­reich­te Arbei­ten, die genau dies nicht erken­nen las­sen, wer­den den Anfor­de­run­gen nicht genügen.

3. Übersicht der Anwendungsszenarien II – Perspektive der Hochschule

a) Einsatz von KI-Detektoren zur Täuschungskontrolle und Aufdeckung des KI-Einsatzes durch Studierende

Lässt eine Hoch­schu­le bzw. Prü­fen­de den KI-Ein­satz nicht wie im vor­ge­stell­ten Sin­ne zu, so stellt sich die Fra­ge, wie ein uner­laub­ter KI-Ein­satz der Stu­die­ren­den auf­ge­deckt und prü­fungs­recht­lich nach­ge­wie­sen wer­den kann. Hier­bei liegt zunächst der Ein­satz von KI-Detek­to­ren zur Täu­schungs­kon­trol­le nahe. Solch einem „KI-Ein­satz zur Auf­de­ckung eines KI-Ein­sat­zes“ ste­hen indes gra­vie­ren­de rechts­staat­li­che Beden­ken ent­ge­gen. Sog. KI-Detek­to­ren wer­ben u.a. damit, dass sie die Erstel­lung eines Tex­tes durch KI-Sys­te­me mit einer gewis­sen Wahr­schein­lich­keit bezif­fern und dem­nach als Indiz für eine KI-gestütz­te Bear­bei­tung her­an­ge­zo­gen wer­den kön­nen. Dabei arbei­ten die­se Pro­gram­me wie­der­um anhand intrans­pa­ren­ter, mit mensch­li­chen Sin­nen nicht nach­voll­zieh­ba­ren Para­me­tern. Stützt sich eine Hoch­schu­le bei der Annah­me eines Täu­schungs­ver­suchs auf das aus­ge­ge­be­ne Ergeb­nis, so genügt dies nicht den aus Art. 20 Abs. 3 GG fol­gen­den rechts­staat­li­chen Grund­sät­zen an Trans­pa­renz, Nach­voll­zieh­bar­keit und Vor­her­seh­bar­keit staat­li­cher Ent­schei­dun­gen. Die KI-Soft­ware zur Auf­de­ckung des vor­he­ri­gen KI-Ein­sat­zes stellt wie­der­um eine Black­box dar, deren Ergeb­nis nicht ohne wei­te­res dar­zu­le­gen, nach­zu­voll­zie­hen und damit über­prüf­bar ist. Wei­ter muss beach­tet wer­den, dass eine solch grund­rechts­in­va­si­ve Maß­nah­me der Hoch­schu­le nach der Wesent­lich­keits­theo­rie des BVerfG[23] einer ent­spre­chen­den Rechts­grund­la­ge bedarf, die die wesent­li­chen Vor­ga­ben für den Ein­satz einer sol­chen Soft­ware regelt.[24]Aus daten­schutz­recht­li­cher Sicht ist im Kon­text des Ein­sat­zes von KI-Detek­to­ren zudem Art. 22 DSGVO zu beach­ten. Nach der jüngs­ten EuGH-Recht­spre­chung wur­de das Vor­lie­gen einer „auto­ma­ti­sier­ten Ent­schei­dung im Ein­zel­fall“ i.S.v. Art. 22 Abs. 1 DSGVO für den SCHUFA-Score bejaht.[25] Begrün­det wur­de dies damit, dass der auf per­so­nen­be­zo­ge­ne Daten einer Per­son gestütz­ter Wahr­schein­lich­keits­wert maß­geb­lich für die Ent­schei­dung Drit­ter sei. Scoring ist auch nach die­ser Recht­spre­chung wei­ter­hin zuläs­sig, setzt jedoch vor­aus, dass Betrof­fe­ne über die invol­vier­te Logik des Algo­rith­mus infor­miert wer­den müs­sen.[26] Dies muss auch für den Fall der KI-Detek­to­ren gel­ten, wenn die­se die prü­fungs­recht­li­che Ent­schei­dung bezüg­lich eines unzu­läs­si­gen KI-Ein­sat­zes und die dar­an knüp­fen­de Fol­ge des Nicht­be­stehens maß­geb­lich beein­flus­sen. Bestrei­tet man hin­ge­gen, dass ein sol­cher Score Ein­fluss auf die Prü­fungs­ent­schei­dung hät­te, so muss von dem Ein­satz bereits aus Grün­den der Ver­hält­nis­mä­ßig­keit von Vorn­her­ein abge­se­hen werden.

Unge­ach­tet des­sen ist zu fra­gen, wie ein uner­laub­ter KI-Ein­satz grund­sätz­lich auf­ge­deckt und nach­ge­wie­sen wer­den kann. Im prü­fungs­recht­li­chen Ver­fah­ren gilt der Grund­satz, dass eine Täu­schungs­hand­lung durch die Hoch­schu­len nach­zu­wei­sen ist.[27] Dies umfasst sowohl die objek­ti­ve Täu­schungs­hand­lung als auch den sub­jek­ti­ven Wil­len, sich einen unzu­läs­si­gen Vor­teil zu ver­schaf­fen, eine fahr­läs­si­ge Täu­schungs­hand­lung kommt daher eben­falls nicht in Betracht.[28] Rei­chen die Beweis­mit­tel für die Fest­stel­lung bzw. die hin­rei­chen­de Gewiss­heit einer Täu­schung nicht aus, so muss die Leis­tung nach den übli­chen Maß­stä­ben bewer­tet wer­den.[29] Bei unbe­auf­sich­tig­ten Prü­fungs­ar­bei­ten kann die Täu­schungs­hand­lung indes nicht durch etwa­iges Auf­sichts­per­so­nal beob­ach­tet wer­den, son­dern muss im Nach­hin­ein fest­ge­stellt wer­den. Hier­für kom­men auch im Prü­fungs­recht die Grund­sät­ze des Bewei­ses des ers­ten Anscheins zur Anwen­dung. Dem­nach kann auf­grund all­ge­mei­ner Erfah­rungs­wer­te ein Rück­schluss auf eine frag­li­che Tat­sa­che (hier: Täu­schungs­hand­lung) gezo­gen wer­den, wenn es sich um einen typi­schen Sach­ver­halt han­delt. Der Prüf­ling wie­der­um kann dies ent­kräf­ten, indem er die erst­haf­te Mög­lich­keit eines aty­pi­schen Gesche­hens­ab­laufs dar­legt.[30] Bereits auf der ers­ten Stu­fe – dem typi­schen Sach­ver­halt – stellt sich das Pro­blem, dass es schlicht an ver­gleich­ba­ren „typi­schen“ Gesche­hens­ab­läu­fen und damit auch ent­spre­chen­den Erfah­rungs­wer­ten man­gelt. Wäh­rend bis­her ins­be­son­de­re auf­grund iden­ti­scher Abga­ben – inklu­si­ve der (Tipp-)Fehler – auf eine uner­laub­te Zusam­men­ar­beit geschlos­sen wer­den konn­te, ändern sich die Umstän­de durch die elek­tro­ni­sche Bear­bei­tung, neue Prü­fungs­mo­di und nun­mehr den mög­li­chen KI-Ein­satz.[31] Ein KI-Sys­tem wird hier­bei bei iden­ti­scher Ein­ga­be unter­schied­li­che Aus­ga­ben her­vor­brin­gen, sodass ein KI-gene­rier­tes Ergeb­nis nicht direkt repro­du­zier­bar ist. Etwa­ige wei­te­re denk­ba­re Para­me­ter, wie ein bestimm­ter Schreib­stil, Feh­ler oder eben­so die Feh­ler­lo­sig­keit eines Tex­tes sind eben­falls nicht geeig­net, hin­rei­chen­de Indi­zi­en für einen KI-Ein­satz dar­zu­stel­len.[32] Gera­de das Abstel­len auf eine beson­ders gute Bear­bei­tung wür­de den Prü­fungs­ge­dan­ken ad absur­dum füh­ren: Bestraft wür­den hier­bei gera­de beson­ders gute Stu­die­ren­de. Auch ein Ver­gleich mit den bis­he­ri­gen Leis­tun­gen eines Stu­die­ren­den kann, bei einer nun­mehr deut­lich bes­se­ren Leis­tung, unter dem Grund­satz der Chan­cen­gleich­heit nicht als Indiz für eine Täu­schungs­hand­lung her­hal­ten.[33] Bei der Her­an­zie­hung von durch Soft­ware ermit­tel­ter Wahr­schein­lich­keits­wer­te ergibt sich wie­der­um das Pro­blem der Intrans­pa­renz und damit ein rechts­wid­ri­ger Aus­schluss der Berück­sich­ti­gung aty­pi­scher Gesche­hens­ab­läu­fe. Der Umstand, dass die bis­he­ri­gen Mecha­nis­men zur nach­träg­li­chen Täu­schungs­auf­de­ckung bei KI-gene­rier­ten Tex­ten an ihre Gren­zen sto­ßen, mag im Ein­zel­fall zu unbe­frie­di­gen­den Ergeb­nis­sen füh­ren, darf jedoch nicht zu einem Absen­ken der Anfor­de­run­gen an den Anscheins­be­weis füh­ren. Eine sol­che Ver­schie­bung der Maß­stä­be tas­tet die gel­ten­den Beweis­last­re­geln an und wür­de letzt­lich zum Nach­teil aller Prü­fungs­teil­neh­men­den füh­ren, die im Zwei­fel ihre (gute) Leis­tung zu begrün­den hät­ten. Gelingt es ihnen nicht, einen aty­pi­schen Ver­lauf dar­zu­le­gen, wür­de eine Leis­tungs­stei­ge­rung dann zu ihrem Nach­teil gerei­chen.[34] Dies erscheint ins­be­son­de­re vor dem Hin­ter­grund, dass die Hoch­schu­len die Prü­fun­gen gestal­ten – und damit über das Ver­fah­ren, die kon­kre­te Prü­fungs­auf­ga­be und die zuge­las­se­nen Hilfs­mit­tel bestim­men – unge­recht. Denn sie haben es mit ihrem Gestal­tungs­spiel­raum in der Hand, fai­re Prü­fungs­be­din­gun­gen zu schaf­fen und damit Auf­ga­ben zu stel­len, die sich im Zwei­fel nicht ohne Wei­te­res durch KI lösen las­sen oder die Bewer­tungs­maß­stä­be an eine erlaub­te Co-Krea­ti­on anzupassen.

Es mag nicht aus­zu­schlie­ßen sein, dass in ganz bestimm­ten Prü­fungs­si­tua­tio­nen auf­grund der kon­kre­ten Auf­ga­ben­stel­lung und den Umstän­den des Ein­zel­falls den­noch aus den äuße­ren Fak­to­ren einer Prü­fungs­leis­tung Rück­schlüs­se auf einen KI-Ein­satz mög­lich sind. Die­se Ein­zel­fäl­le kön­nen jedoch nicht dar­über hin­weg­täu­schen, dass – ins­be­son­de­re ohne prü­fungs­di­dak­ti­sche Anpas­sun­gen – der Ein­satz von KI durch die Stu­die­ren­den in der Regel nicht nach­voll­zo­gen und belegt wer­den kann. Ein etwa­iges Ver­bot kann daher nicht durch­ge­setzt wer­den und begeg­net schon des­halb rechts­staat­li­chen Zweifeln.

Davon unbe­nom­men bleibt die Mög­lich­keit, mit­tels (KI-)Software Ver­stö­ße gegen die wis­sen­schaft­li­che Pra­xis, wie bspw. Pla­gia­te, auf­zu­de­cken, da die­se nach­voll­zo­gen wer­den kön­nen.[35]

b) Exkurs: Einsatz von KI zur Klausuraufsicht

Nur kurz erwähnt sei die wei­te­re Mög­lich­keit, KI ein­zu­set­zen, um bei beauf­sich­tig­ten Prü­fun­gen Täu­schungs­ver­su­che auf­zu­de­cken, ins­be­son­de­re mit bestimm­ten Proc­to­ring-Funk­tio­nen. Dies ist recht­lich sehr pro­ble­ma­tisch. Einer­seits geht ein sol­cher Ein­satz stets mit tief­grei­fen­den Grund­rechts­ein­grif­fen ein­her, sodass hier­für zunächst eine ent­spre­chen­de Rechts­grund­la­ge geschaf­fen wer­den müss­te.[36] Ande­rer­seits stellt sich hier­bei eben­falls die Pro­ble­ma­tik der feh­len­den Nach­voll­zieh­bar­keit sol­cher Sys­te­me, wenn sie bspw. einen „Täu­schungs­score“ aus­ge­ben, sodass prü­fungs­recht­li­che Ent­schei­dun­gen hier­auf nicht gestützt wer­den kön­nen. Ins­ge­samt sind die rechts­kon­for­men Ein­satz­sze­na­ri­en daher sehr beschränkt.[37]

c) Exkurs: Einsatz von KI zum Lehr-/Lern-Monitoring

Außer­halb des Prü­fungs­ge­sche­hens kommt KI zuwei­len auch dort zum Ein­satz, wo indi­vi­dua­li­sier­te Lehr­an­ge­bo­te auf den Ein­zel­nen zuge­schnit­ten wer­den sol­len. Weil dies nicht ohne spe­zi­fi­sche Pro­fil­da­ten umge­setzt wer­den kann, sind an die­ser Stel­le stren­ge daten­schutz­recht­li­che Anfor­de­run­gen ein­zu­hal­ten und die Daten­ver­ar­bei­tung auf eine ent­spre­chen­de Rechts­grund­la­ge zu stüt­zen, wobei frag­lich ist, ob dies im Kon­text von staat­li­cher Hoch­schu­le und Stu­die­ren­den allein durch eine Ein­wil­li­gung zu errei­chen wäre. Dar­über hin­aus sind ins­be­son­de­re die dies­be­züg­lich in der KI-VO vor­ge­se­he­nen Vor­ga­ben für Hoch­ri­si­ko­sys­te­me relevant.

d) Exkurs: Einsatz generativer KI in der Hochschulverwaltung

Ganz all­ge­mein kann gene­ra­ti­ve KI auch in der Hoch­schul­ver­wal­tung ein­ge­setzt wer­den, wie dies der­zeit auch in der all­ge­mei­nen Ver­wal­tung[38], aber eben­so bei Kran­ken­kas­sen oder Unter­neh­men dis­ku­tiert wird. Auch hier­bei gel­ten die all­ge­mei­nen daten­schutz­recht­li­chen Rege­lun­gen, sodass es unter ande­rem zu hin­ter­fra­gen gilt, wie die all­ge­mei­nen Daten­schutz­grund­sät­ze des Art. 5 DSGVO (z.B. Zweck­bin­dung und Daten­spar­sam­keit) in die­sem Zusam­men­hang umge­setzt wer­den können.

4. Übersicht der Anwendungsszenarien III – Perspektive der Lehrenden

a) Einsatz von generativer KI zur Unterstützung der Lehre

Gene­ra­ti­ve KI kann nicht nur durch Stu­die­ren­de ein­ge­setzt wer­den. Auch für Leh­ren­de erge­ben sich zahl­rei­che Vor­tei­le. So kön­nen sie gene­ra­ti­ve KI wie ande­re digi­ta­le Unter­stüt­zungs­sys­te­me zur Vor­be­rei­tung ihrer Leh­re ein­set­zen, Text­bau­stei­ne für die eige­ne Kom­mu­ni­ka­ti­on ent­wer­fen oder Check­lis­ten anle­gen las­sen. Im Sin­ne eines digi­ta­len Assis­tenz­sys­tems sind die Ein­satz­mög­lich­kei­ten auch im Bereich der Leh­re vielfältig.

b) Einsatz von generativer KI zur Erstellung von Prüfungsaufgaben

Dies gilt eben­so für das Prü­fungs­ge­sche­hen selbst. So ist denk­bar, dass Leh­ren­de ent­spre­chen­de Anwen­dun­gen ein­set­zen, um Prü­fungs­auf­ga­ben erstel­len zu las­sen. Von den Prü­fen­den erstell­te Prü­fungs­auf­ga­ben unter­lie­gen grund­sätz­lich dem Urhe­ber­rechts­schutz. Tritt nun eine gene­ra­ti­ve KI hin­zu, so kann es an der not­wen­di­gen per­sön­li­chen geis­ti­gen Schöp­fung i.S.d. § 2 Abs. 2 UrhG feh­len. Ähn­lich der Eigen­stän­dig­keit der Prü­fungs­leis­tung müss­te abge­wo­gen wer­den, ob es sich hier noch – z.B. durch Anpas­sun­gen der Vor­schlä­ge – um eine eige­ne schöp­fe­ri­sche Leis­tung des Prü­fen­den han­delt oder eben nicht mehr. Die urhe­ber­recht­li­chen Fra­gen von gene­ra­ti­ver KI sind aktu­ell noch Bestand­teil des rechts­wis­sen­schaft­li­chen Dis­kur­ses[39] und kön­nen daher nicht abschlie­ßend beant­wor­tet wer­den. Fol­gen eines feh­len­den urhe­ber­recht­li­chen Schut­zes wir­ken sich indes nicht auf das Prü­fungs­ge­sche­hen an sich aus, son­dern kön­nen nach­ge­la­gert, z.B. bei der Fra­ge, ob Stu­die­ren­de Alt­prü­fun­gen ver­viel­fäl­ti­gen dür­fen, rele­vant wer­den. Auch wenn gene­ra­ti­ve KI bei der Auf­ga­ben­stel­lung unter­stüt­zend ein­ge­setzt wird, ver­bleibt es bei der Ver­ant­wor­tung des Prü­fen­den für eine den prü­fungs­recht­li­chen Vor­ga­ben ent­spre­chen­de Auf­ga­ben­stel­lung und anschlie­ßen­de Bewertung.

c) Einsatz von generativer KI als Bestandteil innovativer Lehr- und Prüfungsformate

Schließ­lich kann eine Soft­ware wie ChatGPT auch selbst Bestand­teil inno­va­ti­ver Prü­fungs­for­ma­te wer­den, womit sich der Kreis zur Per­spek­ti­ve der Stu­die­ren­den schließt. Sie kann dabei gezielt in der Leh­re ein­ge­setzt wer­den, um den Umgang mit ihr zu schu­len aber auch Schwä­chen und Risi­ken auf­zu­zei­gen. Das sog. Promp­ten hat maß­geb­li­chen Ein­fluss auf die durch ChatGPT aus­ge­ge­be­nen Ergeb­nis­se und stellt damit eine Fähig­keit dar, die für eine effi­zi­en­te Bewäl­ti­gung, der sich im Berufs­le­ben stel­len­den Auf­ga­ben durch­aus för­der­lich ist bzw. mit­un­ter sogar erwar­tet wird. Auch das Promp­ten kann daher im Sin­ne einer inno­va­ti­ven und pra­xis­ori­en­tier­ten Aus­bil­dung Teil von Leh­re und sogar Prü­fun­gen sein. Denk­bar ist etwa, dass Stu­die­ren­de bei der Erstel­lung einer Haus- oder Semi­nar­ar­beit gezielt zum Ein­satz einer gene­ra­ti­ven KI ange­hal­ten wer­den, dabei ihre Prompts und anschlie­ßen­den Bear­bei­tungs­schlei­fen doku­men­tie­ren müssen.

IV. Leitgedanken zum rechtssicheren Einsatz generativer KI im
Prüfungskontext

1. Disclaimer („work in progress“)

Der vor­lie­gen­de Bei­trag dient zur ers­ten Ori­en­tie­rung für einen rechts­si­che­ren Ein­satz gene­ra­ti­ver KI im Prü­fungs­kon­text. Die­se The­ma­tik wirft zahl­rei­che, zum Teil ganz neue Rechts­fra­gen auf, die einer ver­tief­ten Behand­lung bedür­fen. Auch wenn man auf der Grund­la­ge der hier for­mu­lier­ten Erkennt­nis­se und Emp­feh­lun­gen Anpas­sun­gen in den jewei­li­gen Prü­fungs­ord­nun­gen vor­nimmt, gilt es doch, die tech­ni­sche Ent­wick­lung und die wei­te­re Klä­rung offe­ner Rechts­fra­gen im Auge zu behal­ten und agil zu reagieren.

2. Regulierungsbedarf

Aktu­ell besteht eine erheb­li­che Rechts­un­si­cher­heit im Hin­blick auf den Umgang mit tech­ni­schen Inno­va­tio­nen in Stu­di­um, Leh­re und Prü­fung. Es erscheint wenig hilf­reich, sich von Sei­ten der Hoch­schu­le oder der Fakul­tä­ten in die­ser Situa­ti­on pas­siv abwar­tend zu ver­hal­ten: Zum einen ent­stün­de so ein Fli­cken­tep­pich an Ein­zel­lö­sun­gen nach Ein­schät­zung der Leh­ren­den; zum ande­ren wären auch die Stu­die­ren­den allei­ne gelas­sen in ihrer Ent­schei­dung, bis zu wel­chem Grad sie gene­ra­ti­ve KI bei der Anfer­ti­gung von Haus­ar­bei­ten, Semi­nar­re­fe­ra­ten, Bache­lor- oder Mas­ter­ar­bei­ten nut­zen dür­fen oder sol­len. Dies wirkt sich auch auf die Chan­cen­gleich­heit aus, weil die stu­den­ti­schen Leis­tun­gen in sol­chen Prü­fun­gen immer weni­ger ver­gleich­bar werden.

Ins­be­son­de­re genügt es nicht, ein pau­scha­les Ver­bot der Nut­zung gene­ra­ti­ver KI aus einer all­ge­mei­nen Stu­di­en- und Prü­fungs­ord­nung her­zu­lei­ten, wonach die Nut­zung unzu­läs­si­ger Hilfs­mit­tel als Täu­schungs­ver­such zu wer­ten sei („es ist jedes Hilfs­mit­tel ver­bo­ten, das nicht aus­drück­lich zuge­las­sen ist“). Im Gegen­satz zu Auf­sichts­ar­bei­ten gibt es bei häus­li­chen Arbei­ten kei­ne Posi­tiv­lis­te zuge­las­se­ner Hilfs­mit­tel, so dass man davon auch nicht abwei­chen kann. Das zeigt schon die unbe­strit­te­ne Zuläs­sig­keit der Nut­zung von Such­ma­schi­nen oder Dik­tier–  und Recht­schreib­pro­gram­men, die eben­falls KI-basiert sind.

Dabei schlägt auch eine Beru­fung auf Grund­sät­ze „guter wis­sen­schaft­li­cher Pra­xis“ fehl. Ange­sichts der Tat­sa­che, dass all­ge­mein zugäng­li­che Anwen­dun­gen gene­ra­ti­ver KI erst seit kur­zem exis­tie­ren, kann sich eine sol­che wis­sen­schaft­li­che Pra­xis noch gar nicht her­aus­ge­bil­det haben. Man müss­te also mit Ana­lo­gien arbei­ten, etwa dem Pla­gi­ats­ver­bot oder der ver­bo­te­nen Nut­zung eines „Ghost­wri­ters“. Dies beträ­fe aber nur die voll­stän­di­ge Über­nah­me frem­der Tex­te bzw. deren feh­len­de Kenn­zeich­nung. Was aber ist in dem Fall, dass ChatGPT nur als Chat­part­ner ein­ge­setzt wird, so wie man schon immer (juris­ti­sche) Haus­ar­bei­ten mit Kom­mi­li­to­nen dis­ku­tiert hat, gemein­sam Lösungs­skiz­zen erstellt hat etc.? Allein dies zeigt bereits, dass die inno­va­ti­ven Mög­lich­kei­ten des Ein­sat­zes gene­ra­ti­ver KI eine Neu­jus­tie­rung der Anfor­de­run­gen an die Eigen­stän­dig­keit einer Leis­tung for­dern, die nur der demo­kra­tisch legi­ti­mier­te Gesetz­ge­ber leis­ten kann.

Auch aus ver­fas­sungs­recht­li­cher Sicht besteht Regu­lie­rungs­be­darf: Die pau­scha­le oder ein­zel­fall­be­zo­ge­ne Erlaub­nis oder Dul­dung bzw. das mehr oder weni­ger weit­rei­chen­de Ver­bot der Nut­zung gene­ra­ti­ver KI bei schrift­li­chen Prü­fungs­ar­bei­ten berüh­ren die Grund­rech­te aus Art. 12 Abs. 1, 5 Abs. 3, 3 Abs. 1 sowie Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG. Sowohl ein akti­ves Tätig­wer­den im Rah­men der Prü­fungs­ge­stal­tung als auch ein schlich­tes Unter­las­sen sind damit grund­rechts­we­sent­lich, so dass es recht­li­cher Rege­lun­gen bedarf. Hier wäre eine ent­spre­chen­de Ermäch­ti­gungs­norm in dem jewei­li­gen Hoch­schul­ge­setz gebo­ten, um Details durch eine Rechts­ver­ord­nung oder zumin­dest auf Sat­zungs­ebe­ne der Prü­fungs­ord­nun­gen zu regeln. Inso­fern soll­ten die Hoch­schu­len aber nicht auf den Lan­des­ge­setz­ge­ber war­ten, son­dern selbst regu­lie­rend tätig wer­den, um ein gewis­ses Maß an Rechts­si­cher­heit und Ori­en­tie­rung für Stu­die­ren­de und Leh­ren­de zu bie­ten. Die Hoch­schu­len haben inso­weit eine eige­ne Ver­ant­wor­tung, einen ver­fas­sungs­kon­for­men Zustand herzustellen.

3. Verhältnismäßiger Ausgleich von Lehr- und Lernfreiheit mit Chancengerechtigkeit

Wenn man vor dem Hin­ter­grund des sowohl ver­fas­sungs­recht­lich als auch hoch­schul- und bil­dungs­po­li­tisch begrün­de­ten Regu­lie­rungs­be­darfs Regeln für den Ein­satz gene­ra­ti­ver KI in Prü­fun­gen auf­stel­len will, gibt es nie „die“ eine rich­ti­ge Lösung. Viel­mehr muss die Rege­lung am Ende eines gestal­ten­den Abwä­gungs­pro­zes­ses ste­hen, der sowohl die Lehr­frei­heit der Leh­ren­den als auch die Lern­frei­heit der Stu­die­ren­den in den Blick nimmt und eine Ver­bes­se­rung der Chan­cen­ge­rech­tig­keit inner­halb der Prü­fungs­ko­hor­ten anstrebt.

Dabei kön­nen die fol­gen­den Eck­punk­te hand­lungs­lei­tend sein:

  • Gene­ra­ti­ver KI wird von gro­ßen Tei­len in der Wis­sen­schaft eine prä­gen­de Rol­le in der gegen­wär­ti­gen digi­ta­len Trans­for­ma­ti­on von Staat, Wirt­schaft und Gesell­schaft zuge­schrie­ben. Sie ist kein blo­ßer Hype, son­dern ein Disruptionsfaktor.
  • Gene­ra­ti­ve KI hat erheb­li­chen Ein­fluss auf zahl­rei­che Berufs­bil­der. Sie anzu­wen­den und bes­ten­falls zu beherr­schen (auch unter Berück­sich­ti­gung von Qua­li­täts­de­fi­zi­ten, Her­aus­for­de­run­gen im sach­ge­rech­ten Umfang, recht­li­chen und ethi­schen Impli­ka­tio­nen), hat eine rele­van­te cur­ri­cu­la­re Bedeutung.
  • Ein Ver­bot der Nut­zung gene­ra­ti­ver KI im Vor­feld der Erstel­lung von Prü­fungs­tex­ten bei Haus­ar­bei­ten, Semi­nar­re­fe­ra­ten, Bache­lor- oder Mas­ter­ar­bei­ten ist rechts­kon­form nicht über­prüf­bar und schon des­halb rechtswidrig.
  • Ein Ver­bot der Nut­zung gene­ra­ti­ver KI bei der Erstel­lung ent­spre­chen­der Prü­fungs­tex­te ist weder durch sog. KI-Detek­to­ren noch durch wei­te­re objek­ti­ve Para­me­ter, die einen ers­ten Anschein einer Täu­schungs­hand­lung begrün­den kön­nen, mög­lich, damit nicht über­prüf­bar und schon des­halb rechtswidrig.
  • Die kon­kre­te Gestal­tung von Prü­fungs­for­ma­ten unter­liegt einem Gestal­tungs­spiel­raum der Leh­ren­den, der durch fach­di­dak­ti­sche und fach­spe­zi­fi­sche Beson­der­hei­ten geprägt ist. Bei der Bemes­sung von Schwie­rig­keits­grad, Workload und Lern­zie­len einer Prü­fungs­auf­ga­be ist zu berück­sich­ti­gen, dass sowohl ein Ver­bot als auch eine still­schwei­gen­de Dul­dung der Nut­zung gene­ra­ti­ver KI dazu füh­ren wird, dass ein Teil der Stu­die­ren­den sol­che Sys­te­me gleich­wohl nutzt, ein ande­rer Teil aber nicht. Es bedarf des­halb sach­li­cher Über­le­gun­gen dahin­ge­hend, wie in die­sem Fall Chan­cen­ge­rech­tig­keit her­ge­stellt wird.
  • Will man die Nut­zung gene­ra­ti­ver KI bei häus­li­chen schrift­li­chen Prü­fungs­auf­ga­ben grund­sätz­lich zulas­sen, bedarf es einer dif­fe­ren­zier­ten Dar­stel­lung der zuge­las­se­nen (tech­ni­schen) Hilfs­mit­tel und einer trans­pa­ren­ten Infor­ma­ti­on über die Bewer­tungs­maß­stä­be im Hin­blick auf die ver­blei­ben­de Eigen­stän­dig­keit der erbrach­ten Prü­fungs­leis­tung. Die Prü­fungs­zie­le müs­sen den neu­en tech­ni­schen Mög­lich­kei­ten ange­passt werden.
  • Im Zeit­al­ter einer selbst­ver­ständ­li­chen Nut­zung gene­ra­ti­ver KI ver­la­gert sich die eigen­stän­di­ge mensch­li­che Leis­tung im Tex­terstel­lungs­pro­zess auf die qua­li­täts­ori­en­tier­te Prü­fung maschi­nell erstell­ter Text­ent­wür­fe und die Ergän­zung von Text­tei­len (ein­schließ­lich trans­pa­ren­ter Quel­len­an­ga­ben), an deren Erstel­lung die KI der­zeit noch schei­tert. Mensch und Maschi­ne avan­cie­ren zu Co-Pro­du­zen­ten. Leh­re und Prü­fung berück­sich­ti­gen die­sen Paradigmenwechsel.

V. Fazit

Gene­ra­ti­ve KI ist gekom­men, um zu blei­ben. Auch und gera­de im Kon­text von Wis­sen­schaft, Stu­di­um und Leh­re. Über­eil­te Ver­bo­te durch ein­zel­ne Uni­ver­si­tä­ten, wie der Sci­en­ce­Po in Paris oder der Uni­ver­si­tät Tübin­gen, haben nur noch anek­do­ti­schen Wert. Längst haben die Hoch­schu­len die gro­ße Chan­ce erkannt, die in der Inte­gra­ti­on die­ser Tech­no­lo­gien in den Wis­sen­schafts­be­trieb steckt – auch des­halb, weil Hoch­schu­len die Ver­bin­dung zur (Berufs-) Pra­xis nicht ver­lie­ren dür­fen, ohne ihren Bil­dungs­auf­trag zu ver­nach­läs­si­gen. Es geht aber weit über die­se prak­ti­schen Über­le­gun­gen hin­aus: Hoch­schu­len waren schon immer ein Ort kri­ti­scher Reflek­ti­on, Inno­va­tio­nen in dem Kon­text einer Wer­te­ord­nung zu betrach­ten. Das ist beim The­ma Künst­li­che Intel­li­genz drin­gen­der denn je. Denn den enor­men Chan­cen ste­hen auch Risi­ken gegen­über. Die­se rich­tig ein­ord­nen zu kön­nen, bedarf es einer fun­dier­ten Beschäf­ti­gung und Aus­ein­an­der­set­zung in Anse­hung kon­kre­ter Anwen­dun­gen und ihrer Fol­gen. Das gelingt nur, wenn man über und mit (gene­ra­ti­ver) KI forscht und sich die Ein­ord­nung des unmit­tel­bar Erleb­ten zunut­ze macht. Die im vor­lie­gen­den Bei­trag ange­stell­ten recht­li­chen Über­le­gun­gen die­nen dazu, die­ser unver­zicht­ba­ren Befas­sung einen Ord­nungs­rah­men zu geben. Ord­nung der Wis­sen­schaft dient in Zei­ten von Künst­li­cher Intel­li­genz immer auch der Bewah­rung von Sou­ve­rä­ni­tät, des Mensch­li­chen im Technischen.

Prof. Dr. Dirk Heck­mann ist Inha­ber des Lehr­stuhls für Recht und Sicher­heit der Digi­ta­li­sie­rung an der Tech­ni­schen Uni­ver­si­tät Mün­chen. Neben­amt­lich wirkt er als Direk­tor am Baye­ri­schen For­schungs­in­sti­tut für Digi­ta­le Trans­for­ma­ti­on (www.bidt.digital) und als Ver­fas­sungs­rich­ter am Baye­ri­schen Verfassungsgerichtshof.

Sarah Rach­ut ist wis­sen­schaft­li­che Mit­ar­bei­te­rin am Lehr­stuhl für Recht und Sicher­heit der Digi­ta­li­sie­rung (Prof. Dr. Dirk Heck­mann) an der Tech­ni­schen Uni­ver­si­tät Mün­chen und Geschäfts­füh­re­rin der For­schungs­stel­le TUM Cen­ter for Digi­tal Public Ser­vices. Sie forscht und lehrt zu ver­fas­sungs­recht­li­chen Fra­gen der Digi­ta­li­sie­rung, schwer­punkt­mä­ßig in den Berei­chen E‑Government, E‑Health und E‑Education.


[1] Dis­clai­mer: Die­ser Auf­satz ver­wen­det ChatGPT des US-ame­ri­ka­ni­schen Unter­neh­mens Ope­nAI pars pro toto für die neue­re Gene­ra­ti­on von Lar­ge Lan­guage Models, die ins­be­son­de­re der auto­ma­ti­sier­ten Gene­rie­rung von Tex­ten die­nen. Es gibt mehr als die­ses eine Pro­dukt (z.B. Jas­per, Goog­le Bard oder Per­ple­xi­ty), aber ChatGPT hat den größ­ten Bekannt­heits­grad, kommt wahr­schein­lich auch am häu­figs­ten zum Ein­satz und kann damit die hier auf­ge­wor­fe­nen The­men pla­ka­tiv adressieren.

[2] Nicht über­zeu­gend hin­ge­gen Birn­baum, NVwZ 2023, 1127, 1128: „Dass KI aus sich her­aus kein erlaub­tes Hilfs­mit­tel ist, ver­steht sich, ohne dass es dafür einer geson­der­ten Rege­lung in einer Prü­fungs­ord­nung bedarf. Jeg­li­che Hilfs­mit­tel sind ver­bo­ten, die die not­wen­di­ge Eigen­leis­tung des Prüf­lings sub­sti­tu­ie­ren.“. Die­se Begrün­dung setzt vor­aus, was erst begrün­det wer­den müss­te: „Ver­bo­ten ist, was ver­bo­ten sein soll­te“ Sie ist damit nicht trag­fä­hig, auch weil pau­schal von „KI“ gespro­chen wird, obwohl es zahl­rei­che Arten und Anwen­dun­gen von Künst­li­cher Intel­li­genz gibt.

[3] Hier­zu Heckmann/Rachut, E‑Klausur und Elek­tro­ni­sche Fern­prü­fung, 2023, S. 150 ff.

[4] S. hier­zu etwa zu den aus dem Gleich­heits­grund­satz fol­gen­den Vor­ga­ben für die Gestal­tung von Prü­fun­gen Heckmann/Rachut, E‑Klausur und Elek­tro­ni­sche Fern­prü­fung, 2023, S. 166 ff.

[5] Vgl. Jere­mi­as, in: Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 402 f.

[6] Grund­le­gend hier­zu Heckmann/Rachut, E‑Klausur und Elek­tro­ni­sche Fern­prü­fung, 2023. Vgl. auch Rach­ut, E‑Klausur und elek­tro­ni­sche Fern­prü­fung: Tech­no­lo­gi­scher Fort­schritt und Prü­fungs­kul­tur­wan­del im Spie­gel des Rechts — Ein Werk­statt­be­richt, ODW 2023, S. 89 ff.

[7] Vgl. etwa §§ 32, 32a Hoch­SchG BW („Die Prü­fungs­ord­nun­gen ent­hal­ten Rege­lun­gen zum Prü­fungs­ver­fah­ren und den Prü­fungs­an­for­de­run­gen, ins­be­son­de­re über … 3. die Bewer­tung von Prü­fungs­leis­tun­gen.“); Art. 84 Abs. 3 Bay­HIG („Die Prü­fungs­ord­nung regelt die wesent­li­chen Fra­gen im Hin­blick auf Prü­fungs­an­for­de­run­gen und Prü­fungs­ver­fah­ren, ins­be­son­de­re 1. den Zweck der Prü­fung, die Gegen­stän­de der Prü­fung und die Anfor­de­run­gen in der Prü­fung, … 10. die Grund­sät­ze für die Bewer­tung der ein­zel­nen Prüfungsleistungen“).

[8] Zum Bei­spiel § 32 Abs. 3 Hoch­SchG BW, Art. 84 Abs. 3 Satz 1 BayHIG.

[9] https://www.jsl.uni-freiburg.de/informationen_fuer_studierende_web/pruefungsordnungen/bachelor_of_science/b_sc__pruefungsordnung_aktuell_rahmenordnung.pdf

[10] Hier­zu auch Pasch­ke, Social Media-Nut­zung von Hoch­schu­len vor dem Aus? Ver­fas­sungs­recht­li­che Ana­ly­se der Unter­sa­gungs­ver­fü­gung des BfDI gegen das BPA vom 17.02.2023, ODW 2023, S. 165 ff.

[11] Vgl. zu den recht­li­chen Beden­ken gegen­über KI-Sys­te­men, die vor­ge­ben, Abwei­chun­gen vom Stan­dard­ver­hal­ten als Indiz für einen Täu­schungs­ver­such in Prü­fun­gen zu mes­sen Rachut/Besner, Künst­li­che Intel­li­genz und Proc­to­ring Soft­ware — Ein­satz­fel­der und recht­li­cher Rah­men im Kon­text von elek­tro­ni­schen Fern­prü­fun­gen an Hoch­schu­len. MMR 2021, S. 851 ff.

[12] S. u.a. Nehlsen/Fleck, DSRITB 2023, 15, 20 f.; sowie all­ge­mein für die Taug­lich­keit der Ein­wil­li­gung im Ver­hält­nis Hoch­schu­le und Stu­die­ren­de im Prü­fungs­kon­text Heckmann/Rachut, E‑Klausur und Elek­tro­ni­sche Fern­prü­fung, 2023, S. 181 f.

[13] Hier sind auch die Ein­schrän­kun­gen für auto­ma­ti­sier­te Ent­schei­dun­gen zu berück­sich­ti­gen, die der EuGH kürz­lich in sei­nem Urteil v. 7.12.2023 (C‑634–21, „Schufa“) CR 2024, 29 ff. mit Anm. Ker­ke­mey­er, vor­ge­nom­men hat.

[14] Die Regu­lie­rung von gene­ra­ti­ver KI wur­de zwi­schen­zeit­lich in Art. 28a und Art. 28b KI-VO‑E vor­ge­se­hen, wobei die sog. „Basis­mo­del­le“ (engl. foun­da­ti­on models) im Mit­tel­punkt stan­den. Die nun­mehr im Tri­log abge­stimm­te Fas­sung sieht hin­ge­gen Rege­lun­gen in den Art. 52a ff. KI-VO für „gene­ral pur­po­se AI models“ vor und führt hier­bei eine eige­nen Risi­ko­stu­fe („gene­ral pur­po­se AI models with sys­te­mic risk“) ein.

[15] Bomhard/Siglmüller, RDi 2024, 45, 46.

[16] Zu den ver­schie­de­nen begriff­li­chen Annä­he­run­gen s. z.B. Bron­ner, juris­PR-ITR 15/2023 Anm. 2.

[17] Gut­ach­ten der Daten­ethik­kom­mis­si­on, 2019, S. 34.

[18] An die­ser Stel­le könn­te die Fra­ge auf­ge­wor­fen wer­den, ob es mit dem Grund­satz der Chan­cen­ge­rech­tig­keit ver­ein­bar ist, wenn man die Nut­zung gene­ra­ti­ver KI zumin­dest im Vor­feld der Prü­fungs­leis­tung zulässt (was bekannt­lich man­ches ver­ein­facht), obwohl viel­leicht nicht jeder Zugang zu der ent­spre­chen­den Soft­ware hat. Dem lässt sich ent­geg­nen, dass es eine abso­lu­te Gleich­heit zwi­schen den Stu­die­ren­den nicht geben kann. Viel­mehr ist durch ent­spre­chen­de Ver­fah­rens­vor­ga­ben und die jeweils ange­leg­ten Bewer­tungs­kri­te­ri­en dafür Sor­ge zu tra­gen, dass alle über mög­lichst ver­gleich­ba­re Prü­fungs­be­din­gun­gen ver­fü­gen. Nicht aus­zu­schlie­ßen und auch hin­zu­neh­men ist dabei, dass bestimm­te Stu­die­ren­de durch ihre indi­vi­du­el­len Umstän­de z.B. über einen bes­se­ren oder schnel­le­ren Com­pu­ter ver­fü­gen, sich Lite­ra­tur kau­fen kön­nen, statt die­se (mög­li­cher­wei­se mit War­te­zeit) aus der Biblio­thek aus­lei­hen zu müs­sen oder sich schlicht bestimm­te Fähig­kei­ten tech­ni­sche ange­eig­net haben, die ihnen gegen­über ande­ren einen Effi­zi­enz­vor­teil brin­gen. Inzwi­schen gibt es vie­le gene­ra­ti­ve KI-Sys­te­me, auf die Stu­die­ren­de kos­ten­los oder gegen die Zah­lung eines klei­nen ein­ma­li­gen oder monat­li­chen Betrags zugrei­fen kön­nen. Ein aus­drück­li­cher Hin­weis auf die gestat­te­te Nut­zung kann daher viel­mehr zu einer Anglei­chung der tat­säch­li­chen Prü­fungs­be­din­gun­gen füh­ren, als es unter­schied­li­che Bedin­gun­gen schafft. Wei­ter­füh­rend zum Grund­satz der Chan­cen­ge­rech­tig­keit im Hoch­schul- und Prü­fungs­kon­text Heckmann/Rachut, E‑Klausur und Elek­tro­ni­sche Fern­prü­fung, 2023, S. 89 ff., 166 ff.

[19] Bei­spiel: „Hier­mit erklä­re ich an Eides statt, dass ich die vor­lie­gen­de schrift­li­che Haus­ar­beit XXX an der Lud­wig-Maxi­mi­li­ans-Uni­ver­si­tät Mün­chen im WS 2023/24 selb­stän­dig ver­fasst und kei­ne ande­ren als die von mir im Lite­ra­tur­ver­zeich­nis ange­ge­be­nen Wer­ke / Hilfs­mit­tel benutzt habe. Die Stel­len der Arbeit, die ande­ren Wer­ken dem Wort­laut oder dem Sin­ne nach ent­nom­men sind, wur­den in jedem Fall unter Anga­be der Quel­len (ein­schließ­lich des World Wide Web und ande­rer elek­tro­ni­scher Text- und Daten­samm­lun­gen) kennt­lich gemacht. Dies gilt auch für bei­gege­be­ne Zeich­nun­gen, bild­li­che Dar­stel­lun­gen, Skiz­zen und der­glei­chen sowie mut­ter­sprach­li­ches Gegen­le­sen der ohne frem­de Hil­fe ver­fass­ten Arbeit.“

[20] Aktu­ell hängt die Qua­li­tät des KI-gene­rier­ten Tex­tes noch sehr stark von der Qua­li­tät der Prompts ab, sodass auch dar­in ein gewis­se, durch­aus anspruchs­vol­le Teil­leis­tung gese­hen wer­den kann. Indes ist davon aus­zu­ge­hen, dass sich die Sys­te­me ste­tig ver­bes­sern und in naher Zukunft auch schwä­che­re mensch­li­che Ein­ga­ben zu qua­li­ta­tiv hoch­wer­ti­gen Ergeb­nis­sen füh­ren können.

[21] Birn­baum, NVwZ 2023, 1127, 1128 lässt eine ande­re Ansicht erken­nen und will bereits das Auf­bau­en auf einer Glie­de­rung oder einem Ent­wurf als Täu­schung qua­li­fi­zie­ren: „Die Täu­schung im Rechts­sin­ne ist eher tech­ni­scher Natur: Der als Prü­fungs­leis­tung her­ein­ge­reich­te Text darf weder unmit­tel­bar noch mit­tel­bar eine „text­li­che Über­nah­me“ der KI-Aus­ar­bei­tung sein.“. Damit wird letzt­lich ein stren­ge­rer Maß­stab ange­legt, als dies bis­lang bei Haus­ar­bei­ten der Fall war.

[22] A.A. wohl Brin­baum, NVwZ 2023, 1127, 1128, der eine rele­van­te Täu­schungs­hand­lung im Rah­men von nicht beauf­sich­tig­ten Prü­fun­gen bereits dann bejaht, wenn nicht mehr aus­schließ­lich die eige­ne Intel­li­genz des Prüf­lings bei der Prü­fungs­be­ar­bei­tung zum Ein­satz kommt, sodass jeg­li­cher Ein­satz einer „künst­li­chen“ sowie „nicht-künst­li­chen Intel­li­genz“ eine Täu­schungs­hand­lung dar­stel­len soll.

[23] S. bereits 2. I. b.; im Detail zur Bedeu­tung der Wesent­lich­keits­theo­rie im Kon­text elek­tro­ni­scher (Fern-)Prüfungen s. Heckmann/Rachut, E‑Klausur und Elek­tro­ni­sche Fern­prü­fung, 2023, S. 145 ff.

[24] Vgl. hier­zu v.a. im Hin­blick auf den Ein­satz von sog. Pla­gi­ats­soft­ware, Nehlsen/Fleck, DSRITB 2023, 15, 20 ff.

[25] EuGH, Urt. 7.12.2023 – C‑634/21 – SCHUFA Hol­ding u.a. (Scoring).

[26] Rad­tke, MMR 2024, 153, 157.

[27] Jere­mi­as, in: Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 236, 869.

[28] Jere­mi­as, in: Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 237.

[29] Jere­mi­as, in: Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 236.

[30] BVerwG, Beschluss vom 23.1.2018 – 6 B 67/17 = NJW 2018, 1896; Jere­mi­as, in: Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 237, 870 m.w.N.

[31] Vgl. zur Über­trag­bar­keit der Grund­sät­ze des ers­ten Anscheins auf geän­der­te Prü­fungs­for­ma­te Rach­ut, juris­PR-ITR 19/2023 Anm. 4; Mor­gen­roth, OdW 2022, 273, 274.

[32] Vgl. hier­zu auch Tege­thoff, juris­PR-BVerwG 12/2018 Anm. 3, wonach bei dem Ver­gleich mit einer Mus­ter­lö­sung nicht allein die inhalt­li­che bzw. qua­li­ta­ti­ve Ähn­lich­keit aus­rei­chend ist, son­dern sich dar­über hin­aus Über­ein­stim­mun­gen in ein­zel­nen For­mu­lie­run­gen sowie dem Auf­bau und der Gedan­ken­füh­rung not­wen­dig sind; A.A. VG Mün­chen, Beschl. v. 28.11.2023 – M 3 E 23.4371, wobei das Gericht hier­bei auf die durch die Bewer­ten­den dar­ge­leg­te beson­de­re Struk­tu­riert­heit, Prä­gnanz, Inhalts­dich­te, das Feh­len von gedank­li­chen Brü­chen sowie eine feh­ler­freie Ortho­gra­phie und Rechts­schrei­bung abstellt.

[33] Vgl. hier­zu Jere­mi­as, in: Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 237, wonach bis­her aus­schließ­lich auf Prü­fungs­ar­bei­ten ande­rer Prü­fungs­teil­neh­men­den sowie Über­ein­stim­mung mit der Mus­ter­lö­sung oder ähn­li­chen Doku­men­ten abge­stellt wird; eben­so konn­te ein Stu­dent die Neu­be­wer­tung sei­ner Prü­fungs­leis­tung nicht auf­grund der gro­ßen Dis­kre­panz der Bewer­tung zu sei­nen bis­her (sehr) guten Prü­fungs­leis­tun­gen for­dern, VG Ans­bach, Urteil vom 14. April 2016 – AN 2 K 15.02220 – juris Rn. 33; nicht über­zeu­gend hin­ge­gen VG Mün­chen, Beschl. v. 28.11.2023 – M 3 E 23.4371 Rn. 40, das in sei­ner Ent­schei­dung auf eine ver­gleich­ba­re Essay­auf­ga­be aus dem vor­he­ri­gen Semes­ters des­sel­ben Kan­di­da­ten abstellt und damit die Leis­tungs­stei­ge­rung als recht­fer­ti­gungs­be­dürf­tig einstuft.

[34] Da die blo­ße Mög­lich­keit eines alter­na­ti­ven Gesche­hens nicht reicht, vgl. Jere­mi­as, in: Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 871,  – mit­hin auch hier durch­aus hohe Anfor­de­run­gen an die Dar­le­gung des aty­pi­schen Ver­laufs gestellt wer­den – müs­sen die­se Anfor­de­run­gen erst recht bereits auf der ers­ten Stu­fe des Anscheins­be­wei­ses durch die Hoch­schu­le erfüllt werden.

[35] S. hier­zu Nehlsen/Fleck, DSRITB 2023, 15.

[36] Vgl. zum Bedürf­nis einer Rechts­grund­la­ge Heckmann/Rachut, E‑Klausur und Elek­tro­ni­sche Fern­prü­fung, 2023, S. 144 ff.

[37] Vgl. hier­zu Rachut/Besner, MMR 2021, 851 ff.; EuGH, Urteil v. 7.12.2023 (C‑634–21, „Schufa“) CR 2024, 29.

[38] Zum KI-Ein­satz in der öffent­li­chen Ver­wal­tung vgl. den Über­blick bei Heckmann/Rachut, Digi­ta­le Ver­wal­tung, in: Heckmann/Paschke, juris Pra­xis­kom­men­tar Inter­net­recht, 8. Aufl. 2024, Kap. 5 Rn. 1166 ff.

[39] Vgl. Schack, NJW 2024, 113 ff.; de la Duran­taye, ZUM 2023, 645 ff.; Hoe­ren, MMR 2023, 81 ff.