Menü Schließen
Klicke hier zur PDF-Version des Beitrags!

I. Ein­lei­tung

Künst­li­che Intel­li­genz (KI) ist in aller Mun­de, nicht

zuletzt auf­grund der jüngst von der EU beschlossenen

Ver­ord­nung zur Fest­le­gung har­mo­ni­sier­ter Vorschriften

für künst­li­che Intel­li­genz (KI-VO). Damit ver­sucht sich

die EU an einem aus­dif­fe­ren­zier­ten Regel­werk hinsicht-

lich des Inver­kehr­brin­gens und der Ver­wen­dung von KI-

Sys­te­men.

Dass der Ein­satz von KI tief­grei­fen­de Ände­run­gen in

der Arbeits­welt, aber auch in ande­ren Berei­chen wie der

Kunst- und Kul­tur­sze­ne mit sich brin­gen wird, ist inzwi-

schen offen­kun­dig. Ein wei­te­rer Bereich, der durch KI-

Sys­te­me vor Her­aus­for­de­run­gen gestellt wird, ist der

Hoch­schul­be­trieb: KI ver­än­dert For­schung und Lehre,

wie sie bis­lang prak­ti­ziert wurden.1 Eine Stu­die des Digi-

tal­ver­ban­des Bit­kom fand her­aus, dass zwei Drit­tel aller

Stu­die­ren­den ChatGPT ken­nen und in der Vergangen-

heit bereits genutzt haben.2 Unter Schü­le­rin­nen und

Schü­lern sind es laut einer reprä­sen­ta­ti­ven Befragung

von 14–20-Jährigen in Deutsch­land bereits 74%, die KI-

Sys­te­me zum Ler­nen, im Unter­richt oder für Hausaufga-

ben nutzen.3 Die Rele­vanz von KI an Hoch­schu­len wird

also in Zukunft wohl noch steigen.

Die­se Zah­len wer­fen eine Viel­zahl recht­li­cher Fragen

auf: Wel­che gesetz­li­chen Rege­lun­gen befas­sen sich mit

dem Ein­satz von KI im Hoch­schul­be­reich? Wel­che Pro-

ble­me wer­den adres­siert, wel­che offen­ge­las­sen? Und: Be-

steht noch wei­te­rer Regelungsbedarf?

Die­ser Bei­trag unter­sucht die der­zei­ti­ge Rechtslage

und gibt einen Aus­blick hin­sicht­lich mög­li­cher weiterer

recht­li­cher Ent­wick­lun­gen. Dazu wird eine differenzie-

ren­de Betrach­tung vor­ge­nom­men: Unter­sucht wird der

Ein­satz von KI-Sys­te­men sowohl auf Studierenden-

(dazu II.) als auch auf Hoch­schul­sei­te (dazu III.). Es sol-

len prü­fungs­recht­li­che sowie daten­schutz­recht­li­che As-

pek­te in den Blick genom­men wer­den. Beson­de­res Au-

gen­merk soll dabei auf die KI-VO der EU gelegt werden.

In einem Fazit wer­den Hand­lungs­emp­feh­lun­gen für

Hoch­schu­len und deren Ange­hö­ri­ge ausgesprochen

(dazu IV.).

II. Ein­satz von KI auf Studierendenseite

Auf Stu­die­ren­den­sei­te kommt der Ein­satz von künstli-

cher Intel­li­genz in meh­re­ren Berei­chen in Betracht: Zum

einen kann KI beim eigen­stän­di­gen Ler­nen bzw. der

Prü­fungs­vor­be­rei­tung unter­stüt­zen. Da es Studierenden

selbst über­las­sen ist, wie sie Lehr­ver­an­stal­tung vor- bzw.

nach­ar­bei­ten und sich auf Prü­fun­gen vor­be­rei­ten, erge-

ben sich hier­bei kei­ne gro­ßen recht­li­chen Probleme.

Ungleich mehr Raum für juris­ti­sche Erör­te­rung bie-

tet der Ein­satz von KI-Sys­te­men beim Able­gen von Prü-

fun­gen, z.B. Klau­su­ren, Refe­ra­ten oder Hausarbeiten.

1. Recht­li­cher Rahmen

Wenig über­ra­schend ent­hal­ten die deut­schen Lan-

des­hoch­schul­ge­set­ze bis­lang kei­ne Rege­lun­gen zum Ein-

satz von KI-Sys­te­men durch Stu­die­ren­de in Prüfungen.

Auch in der KI-VO der EU spielt die­se Kon­stel­la­ti­on kei-

ne Rol­le. Folg­lich obliegt es den Hoch­schu­len selbst, in

Prü­fungs- und Stu­di­en­ord­nun­gen Rege­lun­gen zum Ein-

satz von KI bei Prü­fungs­leis­tun­gen zu erlas­sen. Solche

spe­zi­fi­schen Rege­lun­gen fin­den sich längst nicht in allen

Prüfungsordnungen.4

Wo Spe­zi­al­ge­set­ze feh­len, muss grund­sätz­lich auf ge-

nere­l­le Rege­lun­gen zurück­ge­grif­fen wer­den, hier auf all-

gemei­nes Prü­fungs­recht. Dem­nach liegt eine Täu-

schungs­hand­lung vor, wenn eine selb­stän­di­ge und regu-

läre Prü­fungs­leis­tung vor­ge­spie­gelt wird, obwohl uner-

laub­te oder nicht offen geleg­te Hil­fen genutzt wurden.5

2. Über­tra­gung des all­ge­mei­nen Prü­fungs­rechts auf den

KI-Ein­satz

Bei Prä­senz­prü­fun­gen zieht das Ver­bot zur Nutzung

unzu­läs­si­ger tech­ni­scher Hilfs­mit­tel, unter das eindeutig

Rolf Schwart­mann, Son­ja Kurth und Moritz

Köh­ler

Der Ein­satz von KI an Hoch­schu­len – eine rechtliche

Betrach­tung

1

Vgl. zur The­ma­tik den Pod­cast „Von Schum­me­lei bis Chan­ce — KI

an der Hoch­schu­le“, Prof. Dr. Rolf Schwart­mann im Gespräch mit

Lisa Becker und Ursu­la Kals, F.A.Z. Beruf & Chan­ce v. 10.6.2024,

abruf­bar auf allen gän­gi­gen Plattformen.

2

Bit­kom, Pres­se­infor­ma­ti­on v. 21.3.2024, https://www.bitkom.org/

Pres­se/­Pres­se­infor­ma­ti­on/­So-digi­tal-sind-Deutsch­lands-Hoch-

schulen#_ (zuletzt abge­ru­fen am 22.05.2024).

3

Voda­fone Stif­tung, Pres­se­infor­ma­ti­on v. 13.3.2024, https://www.

vodafone-stiftung.de/jugendstudie-kuenstliche-intelligenz (zu-

letzt abge­ru­fen am 22.05.2024).

4

Bit­kom, Pres­se­infor­ma­ti­on v. 21.3.2024, https://www.bitkom.org/

Pres­se/­Pres­se­infor­ma­ti­on/­So-digi­tal-sind-Deutsch­lands-Hoch-

schulen#_ (zuletzt abge­ru­fen am 22.05.2024).

5

Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 223.

Ord­nung der Wis­sen­schaft 2024, ISSN 2197–9197O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 1 — 1 6 8

1 6 2

6

OVG NRW, Beschluss vom 16.2.2021 – 6 B 1868/20, Rn. 4.

7

https://www.bitkom.org/Presse/Presseinformation/So-digital-

sind-Deutschlands-Hochschulen#_ (zuletzt abge­ru­fen am

22.05.2024).

8

Bei­spiels­wei­se Sci­en­ces Po in Paris, vgl. https://www.tagesschau.

de/­wirt­schaf­t/chatgpt-tex­te-maschi­ne-mensch-erken­nung-101.

html (zuletzt abge­ru­fen am 23.05.2024).

9

Vgl. hier­zu Schnel­len­bach, in: Hartmer/Detmer (Hrsg.), Hoch-

schul­recht, 4. Aufl. 2022, 13. Kap. Rn. 47.

10

Vgl. Birn­baum, NVwZ 2023, 1127 (1128).

auch KI-Sys­te­me fal­len, eine kla­re recht­li­che Grenze.

Bereits das Mit­füh­ren eines Smart­phones zählt hier als

Täuschungsversuch.6 Da dies den Stu­die­ren­den in aller

Regel hin­läng­lich bekannt sein soll­te, kommt der Klau-

sur in Prä­senz in die­ser Fra­ge kei­ne beson­de­re Bedeu-

tung zu.

Inter­es­san­ter erscheint die recht­li­che Beur­tei­lung ge-

nera­ti­ver KI-Sys­te­me wie ChatGPT bei der Erstellung

von häus­li­chen Arbei­ten oder Refe­ra­ten. Die Relevanz

die­ser Fra­ge spie­gelt sich auch im Prü­fungs­all­tag wider:

Mehr als ein Vier­tel der Stu­die­ren­den in Deutschland

gibt an, bei einer Haus­ar­beit schon ein­mal auf ChatGPT

zurück­ge­grif­fen zu haben.7 Das weit­ge­hen­de Feh­len von

Rege­lun­gen in die­sem Bereich wirft die Fra­ge auf, wie

mit den neu­en Tools recht­lich umzu­ge­hen ist. Insofern

sind meh­re­re Mög­lich­kei­ten denk­bar: So lässt sich aus

dem Feh­len von Rege­lun­gen unter Rück­griff auf das all-

gemei­ne Prü­fungs­recht unter Umstän­den ein allgemei-

nes Ver­bot zur Nut­zung von KI-Sys­te­men ablei­ten. Al-

ter­na­tiv wäre eine all­ge­mei­ne Erlaub­nis denk­bar. Als

drit­te Mög­lich­keit kommt eine indi­vi­du­el­le Entschei-

dung im Ein­zel­fall in Betracht.

Ein all­ge­mei­nes Ver­bot der KI-Nut­zung, wie es an

meh­re­ren aus­län­di­schen Uni­ver­si­tä­ten beschlos­sen wur-

de,8 ist aus meh­re­ren Grün­den pro­ble­ma­tisch: Nicht jede

Ver­wen­dung text­ba­sier­ter KI-Sys­te­me mün­det in die

Aus­ga­be eines neu gene­rier­ten Tex­tes. Unter den vielfäl-

tigen Ein­satz­mög­lich­kei­ten künst­li­cher Intel­li­genz be-

steht die Opti­on, eine KI bei­spiels­wei­se nur die Gliede-

rungs­ebe­nen einer Haus­ar­beit über­ar­bei­ten zu las­sen. In

die­sem Fall ist davon aus­zu­ge­hen, dass noch eine erheb-

liche Eigen­leis­tung durch den Prüf­ling vor­liegt. Vor die-

sem Hin­ter­grund erscheint es recht­lich nicht halt­bar, auf

Grund­la­ge des all­ge­mei­nen Prü­fungs­rechts von einem

gene­rel­len Ver­bot der KI-Nut­zung auszugehen.

Wo ein all­ge­mei­nes Ver­bot fehl­geht, könn­te eine all-

gemei­ne Erlaub­nis zur Nut­zung bestehen. Eine aus-

nahms­lo­se Erlaub­nis lie­fe jedoch dem Sinn und Zweck

von Prü­fun­gen zuwi­der und bedroht zudem den Grund-

satz auf Chancengleichheit,9 der aus Art. 3 Abs. 1 GG

folgt. Sinn und Zweck von Prü­fun­gen ist der Nachweis

eines (für jede Prü­fung indi­vi­du­el­len) Studienerfolgs.

Bei Haus- und Abschluss­ar­bei­ten umfasst die­ser Erfolg

unter ande­rem die Fähig­keit, wis­sen­schaft­lich zu arbei-

ten. Hier­bei spielt die per­sön­li­che und eigenständige

Anfer­ti­gung der Arbeit ohne frem­de Hil­fe eine besonde-

re Rol­le. Die Prüf­lin­ge sol­len unter Beweis stel­len, dass

sie in der Lage sind, ein bestimm­tes The­ma u.a. durch

Text­struk­tur, Quel­len­re­cher­che und kri­ti­sche Auseinan-

der­set­zung mit Lite­ra­tur wis­sen­schaft­lich aufzuarbeiten.

Wird eine kom­plet­te Auf­ga­ben­stel­lung oder das indivi-

duel­le The­ma der Arbeit mit dem Zusatz „Ver­fas­se eine

Haus­ar­beit zum The­ma x mit maxi­mal y Sei­ten“ als

Prompt in Pro­gram­me wie ChatGPT ein­ge­ge­ben und

der aus­ge­ge­be­ne Text ganz oder zu einem gro­ßen Teil

über­nom­men, so wird das beschrie­be­ne Anforderungs-

pro­fil völ­lig aus­ge­höhlt. Mit­hin kann die Verwendung

künst­li­cher Intel­li­genz den Sinn und Zweck einer Prü-

fung voll­stän­dig kon­ter­ka­rie­ren. Auch eine allgemeine

Erlaub­nis zur Ver­wen­dung von KI-Sys­te­men ist also

recht­lich nicht zulässig.

Ent­schei­dend für die Ableh­nung sowohl einer allge-

mei­nen Erlaub­nis als auch eines all­ge­mei­nen Ver­bots ist

damit die Viel­zahl an Anwen­dungs­sze­na­ri­en von KI-

Sys­te­men: Gegen ein all­ge­mei­nes Ver­bot spricht der

Umstand, dass die Sys­te­me in eng umgrenz­ten Aufgaben

als Assis­tenz­sys­te­me ein­ge­setzt wer­den kön­nen, ohne

dem jewei­li­gen Prüf­ling einen unzu­läs­si­gen Vor­teil zu

ver­schaf­fen. Gegen eine all­ge­mei­ne Erlaub­nis spricht,

dass die Sys­te­me zur voll­au­to­no­men Über­nah­me der

Prü­fungs­leis­tung ein­ge­setzt wer­den kön­nen, was einen

Ver­gleich mit den Prü­fungs­leis­tun­gen ande­rer Prüflinge

unmög­lich macht. Ent­schei­dend wird sein, ob der kon-

kre­te Ein­satz des KI-Sys­tems einen Vor­teil mit Blick auf

bewer­tungs­re­le­van­te Kri­te­ri­en verschafft.10 Welche

Form des Ein­sat­zes von den Prü­fern im Ein­zel­fall als

ent­spre­chend vor­teil­haft ver­stan­den wird, ist allerdings

nicht ersicht­lich. Folg­lich bewe­gen sich Stu­die­ren­de, die

KI-Sys­te­me bei Haus- und Abschluss­ar­bei­ten nutzen,

nach der­zei­ti­ger Rechts­la­ge in einer rechtlichen

Grau­zo­ne.

Dabei stellt sich auch die Fra­ge, ob der Prüf­ling den

Vor­wurf der Täu­schung abwen­den kann, indem er den

Ein­satz der KI offen­legt. Dazu ist zunächst festzustellen,

dass hin­ter einem KI-gene­rier­ten Ergeb­nis kei­ne geistige

Eigen­leis­tung einer iden­ti­fi­zier­ba­ren Per­son steht, so-

dass ein blo­ßer Ver­weis auf den KI-Ein­satz nicht geeig-

net ist, die geis­ti­ge Leis­tung im Sin­ne einer zitierfähigen

Quel­le zuzu­ord­nen. Durch Anga­be des Hilfs­mit­tels kann

der Prüf­ling aber zumin­dest den Vor­wurf der Täu-Schwart­man­n/K­ur­th/­Köh­ler · Der Ein­satz von KI an Hoch­schu­len 1 6 3

11

Die­te­rich im Rah­men einer Ver­an­stal­tung des Ver­eins zur Förde-

rung des deut­schen & inter­na­tio­na­len Wis­sen­schafts­rechts zum

The­ma „Aktu­el­les zu digi­ta­len Prü­fun­gen – Wel­che Zukunft hat

KI?“. Der Tagungs­be­richt hier­zu erscheint in der kommenden

Aus­ga­be der OdW.

12

Schnel­len­bach, in: Hartmer/Detmer (Hrsg.), Hoch­schul­recht, 4.

Aufl. 2022, 13. Kap. Rn. 51.

13

Mor­gen­roth, Hoch­schul­stu­di­en­recht und Hochschulprüfungs-

recht, 3. Aufl. 2021, Rn. 455 ff.

14

Zimmerling/Brehm, Prü­fungs­recht, 2. Aufl. 2001, Rn. 623.

15

BVerwG, Beschluss vom 23.1.2018 – 6 B 67/17, Rn. 7; Sächs. OVG,

Beschluss vom 16.2.2022 – 2 B 274/21, Rn. 10; VG Köln, Urteil

vom 6.12.2022 – 6 K 1428/22, Rn. 42.

schungs­hand­lung abwen­den. Für die prak­ti­sche Umset-

zung wur­de vor­ge­schla­gen, der Prü­fungs­leis­tung ein

Pro­to­koll des KI-Ein­sat­zes anzu­hän­gen und in den rele-

van­ten Text­pas­sa­gen dar­auf zu verweisen.11 Dar­aus erge-

ben sich zwar Schwie­rig­kei­ten für den wissenschaftli-

chen Dis­kurs, der prü­fungs­recht­lich rele­van­te Maßstab

der Eigen­stän­dig­keit sei aber durch die Offen­le­gung ge-

wahrt. Unab­hän­gig von der Fra­ge der Täu­schung kann

sich die Beru­fung auf KI-gene­rier­te Inhal­te allerdings

nega­tiv auf die Bewer­tung der Prüfungsleistung

aus­wir­ken.

3. Neue Prü­fungs­ord­nun­gen und ‑for­men

Dass der Ein­satz von KI je nach Nut­zung im Einzelfall

erlaubt bzw. unter­sagt ist, ist bereits jetzt geleb­te Praxis

an vie­len deut­schen Uni­ver­si­tä­ten. Das Letztentschei-

dungs­recht hat in der Regel der Prü­fer bzw. die Prüferin.

Gleich­wohl trägt das Risi­ko der Nut­zung der einzelne

Stu­die­ren­de. Im Sin­ne der Rechts­si­cher­heit besteht folg-

lich ein hohes Inter­es­se dar­an, dass Prüf­lin­ge bereits vor

Anfer­ti­gung einer Haus- oder Abschluss­ar­beit wissen,

wel­cher Hilfs­mit­tel sie sich bedie­nen dür­fen und welche

unzu­läs­sig sind. Es liegt inso­weit in der Verantwortung

der Hoch­schu­le, Täu­schun­gen prä­ven­tiv abzuwehren

und sicher­zu­stel­len, dass die Prü­fungs­leis­tung eigen-

stän­dig ohne uner­laub­te Hilfs­mit­tel erbracht wird.12

Daher stellt sich die Fra­ge, ob die­ser Zustand der Rechts-

unsi­cher­heit hin­ge­nom­men wer­den sollte.

Aus dem Umstand, dass de lege lata prä­zi­se Regelun-

gen zur Ein­he­gung von KI-Nut­zung durch Studierende

feh­len, könn­te das Erfor­der­nis zur genau­en Normierung

in Prü­fungs­ord­nun­gen folgen.

Dem mag man ent­ge­gen­hal­ten, dass Fäl­le der Ver-

wen­dung uner­laub­ter Hilfs­mit­tel bereits jetzt durch all-

gemei­nes Prü­fungs­recht bzw. die ein­schlä­gi­gen Prü-

fungs­ord­nun­gen hin­rei­chend erfasst sind. Die Vorgabe,

dass Haus- und Abschluss­ar­bei­ten eigen­stän­dig und

ohne frem­de Hil­fe anzu­fer­ti­gen sind, führt zu dem

Schluss, dass Prüf­lin­ge ver­pflich­tet sind, bei Prüfungen

nicht zu täuschen.13 Dies könn­te – auch im Hin­blick auf

den Ein­satz von KI-Sys­te­men – als aus­rei­chend erachtet

wer­den.

Es sind aber gewis­se Zwei­fel ange­bracht, ob Studie-

ren­de allein anhand die­ser Anga­ben ein­deu­tig ermitteln

kön­nen, wel­che Funk­tio­nen von KI-Sys­te­men sie im De-

tail anwen­den dür­fen und wel­che nicht. Es damit bewen-

den zu las­sen, dass die ein­zu­rei­chen­de Arbeit am Ende

eine eigen­stän­di­ge Leis­tung dar­stel­len muss, wird der

kom­ple­xen Aus­ge­stal­tung unter­schied­li­cher KI-Anwen-

dun­gen nicht gerecht und lässt außer Acht, dass die

Gren­zen zwi­schen ein­zel­nen Funk­tio­nen flie­ßend sein

kön­nen. Die­ses Risi­ko allein den Stu­die­ren­den aufzu-

bür­den, wo die Ent­schei­dungs­ge­walt über Zulässigkeit

oder Unzu­läs­sig­keit allein bei der Hoch­schu­le als Prü-

fungs­be­hör­de liegt, erscheint nicht ange­mes­sen und

führt zu einer Rechts­un­si­cher­heit, die nicht hingenom-

men wer­den sollte.

Als Aus­weg bie­tet es sich an, Prü­fungs­ord­nun­gen zu

prä­zi­sie­ren und dem Stand der Tech­nik anzupassen.

Dazu könn­ten auch die Lan­des­hoch­schul­ge­set­ze derart

ange­passt wer­den, dass sie Hoch­schu­len ver­pflich­ten, in

ihren Prü­fungs­ord­nun­gen detail­lier­te Nutzungsregelun-

gen für KI auf­zu­stel­len. Bis sich hier eine prüfungsrecht-

lich belast­ba­re Pra­xis her­aus­ge­bil­det hat, dürf­te es sinn-

voll sein, wenn die Pra­xis sich mit modi­fi­zier­ten Prü-

fungs­for­men behilft. So kommt in Betracht, Hausarbei-

ten mit münd­li­chen Prü­fun­gen zu kom­bi­nie­ren und

Teil­no­ten zu ver­ge­ben, wobei eine stär­ke­re Gewichtung

auf den münd­li­chen Bei­trag gelegt wer­den kann. Denk-

bar ist auch, dass der Ein­satz von KI bewusst zum Prü-

fungs­ge­gen­stand gemacht wird. Gestat­ten Prüfungsord-

nung und Prü­fer den Ein­satz von KI oder ord­nen ihn gar

an, dann müs­sen Prüf­lin­ge den Ein­satz der KI, ihre

Prompts und die Ant­wor­ten der KI offen­le­gen und do-

kumen­tie­ren, damit im Rah­men der Prü­fung bewertet

wer­den kann, ob und inwie­weit die Prüf­lin­ge die KI als

(erlaub­tes) Hilfs­mit­tel unter deren Kon­trol­le eingesetzt

haben. Hier kommt es auf die kon­kre­ten Umstän­de der

Auf­ga­ben­stel­lung an.

4. Beweis­recht­li­che Fragen

Ein wei­te­res Pro­blem­feld offen­bart sich ange­sichts des

gericht­li­chen Nach­wei­ses einer uner­laub­ten Verwen-

dung von KI-Sys­te­men. Die Beweis­last für Täuschungs-

hand­lun­gen trägt die Prüfungsbehörde,14 also die Hoch-

schu­le. Für den Nach­weis von Täu­schun­gen im Rahmen

schrift­li­cher Prü­fun­gen gel­ten vor Gericht die Grundsät-

ze des Anscheinsbeweises.15 Dazu muss die nachzuwei‑O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 1 — 1 6 8

1 6 4

16

Kraft, in: Eyer­mann, Ver­wal­tungs­ge­richts­ord­nung, 16. Aufl. 2022,

§ 108 Rn. 38.

17

VG Mün­chen, Beschluss vom 28.11.2023 – M 3 E 23.4371, NJW

2024, 1052; eben­so VG Mün­chen, Beschluss vom 8. 5. 2024 – M 3

E 24.1136, Beck­RS 2024, 11848, Rn. 31 ff.

18

So auch Heckmann/Rachut, OdW 2024, 85 (95).

19

Welt.de v. 25.7.2023, https://www.welt.de/wirtschaft/webwelt/

artic­le246448574/ChatGPT-an-der-Uni-Was-bei-KI-im-

Studium-erlaubt-ist-und-was-nicht.html (zuletzt abge­ru­fen am

23.05.2024).

20

Spiegel.de v. 1.2.2023, https://www.spiegel.de/netzwelt/apps/chatg-

pt-kos­ten­lo­ses-tool-soll-ki-gene­rier­te-tex­te-erken­nen-hel­fen-a-

b8a8e596-9adf-44de-bfb0-e736a1416­b6e (zuletzt abge­ru­fen am

23.05.2024).

21

Heckmann/Rachut, OdW 2024, 85 (94); mit dem Gedan­ken der

feh­len­den Nach­voll­zieh­bar­keit bereits Schwart­mann, RDV 2023,

48 (48 f.).

22

Die Antrags­geg­ne­rin im s‌ päte­ren Ver­fah­ren vor dem VG Mün-

chen geht bei einem Index­wert von unter 30% im Regel­fall nicht

von einem KI-Ein­satz aus, VG Mün­chen, Beschluss vom 8.5.2024

- M 3 E 24.1136, Beck­RS 2024, 11848, Rn. 34.

23 Engl. gene­ral pur­po­se AI (im Fol­gen­den: GPAI-Sys­te­me), zur

Defi­ni­ti­on vgl. die Begriffs­be­stim­mung zu GPAI-Model­len in

Art. 3 Nr. 63 KI-VO.

24

Zu den genau­en Ver­bo­ten s. Art. 5 KI-VO.

sen­de Tat­sa­che zunächst auf einen typi­schen Sachverhalt

gestützt wer­den kön­nen, der nach all­ge­mei­ner Erfah-

rung den Schluss zulässt, dass die strei­ti­ge Tat­sa­che vor-

liegt; dar­über hin­aus dür­fen kei­ne tat­säch­li­chen Umstän-

de vor­lie­gen, die ein aty­pi­sches Gesche­hen im Einzelfall

ernst­haft mög­lich erschei­nen lassen.16

Im ver­hält­nis­mä­ßig neu­en Bereich der Täuschung

mit­tels KI-Ein­sat­zes war das VG Mün­chen bereits vom

Vor­lie­gen einer Täu­schungs­hand­lung anhand des Be-

wei­ses des ers­ten Anscheins über­zeugt – im konkreten

Fall zu Unguns­ten eines Studienbewerbers.17 Dies wirft

meh­re­re Pro­ble­me auf: Einer­seits konn­ten sich in der

kur­zen Zeit­span­ne, in der Text­ge­ne­rie­rung durch KI

mög­lich ist, noch über­haupt kei­ne all­ge­mei­nen Erfah-

rungs­sät­ze herausbilden.18 Ande­rer­seits ist der Nachweis,

dass ein Text von KI erstellt wur­de, bis­lang kaum verläss-

lich mög­lich – weder durch Computersysteme,19 etwa in

Form von spe­zi­el­ler „Pla­gi­ats­soft­ware“, noch durch

Men­schen. Nicht sel­ten stuft künst­li­che Intel­li­genz von

Men­schen ver­fass­te Tex­te als KI-gene­riert ein.20 Insbe-

son­de­re darf der Vor­wurf einer Täuschungshandlung

nicht allei­ne auf das Ergeb­nis einer KI-basier­ten Plagi-

ats­soft­ware gestützt wer­den, da deren Ergeb­nis wieder-

um den Anfor­de­run­gen an Trans­pa­renz, Nachvollzieh-

bar­keit und Vor­her­seh­bar­keit nicht genügt.21 Solange

eine sol­che Ana­ly­se kei­ne ver­läss­li­chen Ergeb­nis­se lie-

fert, erscheint es immer ernst­haft mög­lich, dass im Ein-

zel­fall ein aty­pi­sches Gesche­hen vor­liegt und der An-

scheins­be­weis nicht als erbracht ange­se­hen werden

kann. Letzt­lich geht es hier um die aus Ghostwriter-Fäl-

len bekann­te Nach­weis­pro­ble­ma­tik; mit dem Unter-

schied, dass die KI als „Ghost­wri­ter“ sehr viel leich­ter zu

beschaf­fen ist und die Para­me­ter für die Erbrin­gung des

Nach­wei­ses bei auto­no­men Sys­te­men bis auf Weiteres

ein Rät­sel blei­ben dürf­ten: Die Maß­stä­be für das konkret

gene­rier­te Ergeb­nis sind nicht erkenn­bar und Grenzwer-

te im Sin­ne eines Pro­zent­sat­zes, ab dem ein Text wahr-

schein­lich unter Zuhil­fe­nah­me von KI ent­stan­den ist,22

muten eher will­kür­lich an.

III. Ein­satz von KI auf Hochschulseite

Neben dem Ein­satz von KI durch Stu­die­ren­de spielt die

Ver­wen­dung sei­tens der Hoch­schu­len eine wich­ti­ge Rol-

le. Meh­re­re Ein­satz­mög­lich­kei­ten sind denk­bar: KI kann

bei­spiels­wei­se zur Erstel­lung von Lehr­plä­nen und Lehr-

mate­ria­li­en her­an­ge­zo­gen wer­den. Dar­über hinaus

kommt ein Ein­satz künst­li­cher Intel­li­genz als „Tuto­rin“,

die Stun­den kon­zi­piert, in Betracht. Schließ­lich ist die

Ver­wen­dung von KI bei der Noten­ver­ga­be zumindest

tech­nisch möglich.

1. Recht­li­cher Rahmen

Auch in die­sem Bereich stellt sich die Fra­ge nach der

recht­li­chen Ein­ord­nung. Wie schon beim Ein­satz von

KI-Sys­te­men auf Stu­die­ren­den­sei­te sucht man inner-

staat­li­che (lan­des­recht­li­che) Bestim­mun­gen zur Ver-

wen­dung durch Hoch­schu­len ver­geb­lich. Allerdings

wer­den die­ser durch die euro­päi­sche KI-VO rechtliche

Gren­zen gesetzt.

Die KI-VO teilt KI-Sys­te­me in drei Kate­go­rien ein

und unter­wirft ihre Ver­wen­dung je nach Ein­stu­fung ei-

nem eige­nen Regel­werk. KI-Sys­te­me mit allgemeinem

Verwendungszweck23 dür­fen als ein­fa­che KI-Systeme

grund­sätz­lich frei ver­wen­det wer­den. Im Gegensatz

dazu ist der Ein­satz sog. Hoch­ri­si­ko-KI-Sys­te­me stren-

gen Regeln unter­wor­fen (vgl. Art. 6 ff. KI-VO). Zuletzt

gibt es KI-Sys­te­me, die ganz ver­bo­ten sind (z.B. Systeme

zum Social Scoring).24

a. Klas­si­fi­zie­rung des KI-Ein­sat­zes nach der KI-VO

Beim Ein­satz auf Hoch­schul­sei­te kann KI ent­we­der als

GPAI-Sys­tem oder als Hoch­ri­si­ko-KI-Sys­tem eingesetzt

wer­den. Wann ein KI-Sys­tem in der all­ge­mei­nen und

beruf­li­chen Bil­dung zu Hoch­ri­si­ko­zwe­cken eingesetzt

wird, regelt Art. 6 Abs. 2 iVm Anhang III Nr. 3 KI-VO:

Betrof­fen ist dem­zu­fol­ge der Ein­satz von KI bei der

Zulas­sung zu Bil­dungs­ein­rich­tun­gen (lit. a), zur Prü-

fungs­be­wer­tung (lit. b), zur Bewer­tung des Bil­dungs­ni-Schwart­man­n/K­ur­th/­Köh­ler · Der Ein­satz von KI an Hoch­schu­len 1 6 5

25

Schwartmann/Keber/Zenner (Hrsg.), KI-VO Leit­fa­den/­Schwart-

mann/Köhler 2. Teil 1. Kap. Rn. 131 ff., im Erscheinen.

26

Schwartmann/Keber/Zenner (Hrsg.), KI-VO Leit­fa­den/­Schwart-

mann/Köhler 2. Teil 1. Kap. Rn. 138, im Erscheinen.

27

Hier­zu bereits Schwartmann/Keber/Zenner (Hrsg.), KI-VO

Leitfaden/Schwartmann 2. Teil 1. Kap. Rn. 190 ff., im Erscheinen.

28

Schwartmann/Keber/Zenner (Hrsg.), KI-VO Leit­fa­den/­Schwart-

mann/Köhler 2. Teil 2. Kap. Rn. 9, im Erscheinen.

veaus einer Per­son (lit. c). oder bei der Überwachung

ver­bo­te­nen Ver­hal­tens im Rah­men von Prüfungen

(lit. d).

Aus­nahms­wei­se ist der Ein­satz eines KI-Sys­tems zu

den genann­ten Zwe­cken gem. Art. 6 Abs. 3 UAbs. 1 KI‑VO

nicht als hoch­ris­kant zu bewer­ten, wenn es kein erhebli-

ches Risi­ko der Beein­träch­ti­gung in Bezug auf die Ge-

sund­heit, Sicher­heit oder Grund­rech­te natür­li­cher Per-

sonen birgt, indem es unter ande­rem nicht das Ergebnis

der Ent­schei­dungs­fin­dung wesent­lich beein­flusst. Das ist

nach der abschlie­ßen­den Auf­zäh­lung in Art. 6 Abs. 3

UAbs. 2 KI-VO der Fall, wenn eine eng gefass­te Verfah-

rens­auf­ga­be durch­ge­führt, das Ergeb­nis einer zuvor ab-

geschlos­se­nen mensch­li­chen Tätig­keit ver­bes­sert, ein

Ent­schei­dungs­mus­ter oder eine Abwei­chung von einem

frü­he­ren Ent­schei­dungs­mus­ter erkannt, oder eine vor-

berei­ten­de Auf­ga­be für eine Bewer­tung durchgeführt

wer­den soll. Pro­ble­ma­tisch ist die Abgren­zung eines

Ein­sat­zes nach Art. 6 Abs. 3 KI-VO von einem her-

kömm­li­chen Ein­satz nach Art. 6 Abs. 2 iVm Anhang

III KI-VO.25 Die feh­len­de Mög­lich­keit zur Absicherung

einer ent­spre­chen­den Ein­ord­nung durch den relevanten

Akteur führt vor die­sem Hin­ter­grund zu einer erhebli-

chen Rechtsunsicherheit.26 Die­se soll durch Leitlinien

der Kom­mis­si­on ver­rin­gert werden,

Art. 6 Abs. 5 KI-VO.

b. Rol­le der Hoch­schu­le und ihres Per­so­nals nach der

KI-VO

Für Hoch­schu­len wird die KI-VO grund­sätz­lich erst

dann rele­vant, wenn sie Anbie­te­rin bzw. Betreiberin

eines KI-Sys­tems iSd KI-VO sind. Denn mit die­ser Ein-

ordung wer­den die Hoch­schu­len zu Regelungsadressa-

ten, die bestimm­te recht­li­che Pflich­ten erfül­len müssen.

„Anbie­ter“ ist nach Art. 3 Nr. 3 KI-VO eine natürli-

che oder juris­ti­sche Per­son, Behör­de, Ein­rich­tung oder

sons­ti­ge Stel­le, die ein KI-Sys­tem oder ein GPAI-Modell

ent­wi­ckelt oder ent­wi­ckeln lässt und es unter ihrem eige-

nen Namen oder ihrer Han­dels­mar­ke in Ver­kehr bringt

oder in Betrieb nimmt.

„Betrei­ber“ ist gemäß Art. 3 Nr. 4 KI-VO grundsätz-

lich eine natür­li­che oder juris­ti­sche Per­son, Behörde,

Ein­rich­tung oder sons­ti­ge Stel­le, die ein KI-Sys­tem in ei-

gener Ver­ant­wor­tung verwendet.

Regel­mä­ßig wer­den Hoch­schu­len als Betrei­ber zu

qua­li­fi­zie­ren sein, was ange­sichts des umfas­sen­den Maß-

nah­men­ka­ta­logs für Anbie­ter von Hochrisiko-KI-Syste-

men aus Art. 16 KI-VO durch­aus erstre­bens­wert ist. Zu

beach­ten ist in die­sem Zusam­men­hang aller­dings die

Vor­schrift des Art. 25 Abs. 1 Buchst. c) KI-VO, der einen

Wech­sel der Anbie­ter­rol­le ermög­licht. Dem­nach gelten

Betrei­ber und sons­ti­ge Drit­te als Anbie­ter iS der KI-VO

und haben die damit ein­her­ge­hen­den Pflich­ten zu erfül-

len, wenn sie ein KI-Sys­tem, das bis­her nicht als Hochri-

siko-KI-Sys­tem klas­si­fi­ziert war, zu hoch­ris­kan­ten Zwe-

cken iS der KI-VO ein­set­zen. Wie beschrie­ben können

GPAI-Sys­te­me wie ChatGPT bei­spiels­wei­se zur Prü-

fungs­be­wer­tung ein­ge­setzt wer­den. Sofern die Hoch-

schu­le aller­dings kei­ne Lizenz für den Ein­satz eines sol-

chen KI-Sys­tems zu hoch­ris­kan­ten Zwe­cken erworben

hat, gerät sie in die Anbie­ter­rol­le, wenn sie die Prüfungs-

bewer­tung durch KI-Sys­te­me trotz­dem zulässt. Dem

kann die Hoch­schu­le zunächst durch die angesprochene

Lizen­sie­rung eines KI-Sys­tems zur Prüfungsbewertung

und/oder ande­ren Hoch­ri­si­ko-Zwe­cken entgegenwir-

ken. Sofern ein KI-Sys­tem dage­gen ledig­lich als einfa-

ches Sys­tem lizen­siert wird, ist der Aus­spruch eines ge-

nere­l­len Ver­bots des­sen Ein­sat­zes zu hochriskanten

Zwe­cken zu emp­feh­len, um einen Wech­sel in die Anbie-

ter­rol­le zu ver­hin­dern. Beim Abse­hen von jeg­li­cher Li-

zen­sie­rung ist dage­gen zu befürch­ten, dass das Personal

pri­va­te Accounts zu beruf­li­chen Zwe­cken ein­setzt und

dabei gegen recht­li­che Bestim­mun­gen ver­stößt, die in

den Ver­ant­wor­tungs­be­reich der Hoch­schu­len fal­len. Ein

sol­ches Vor­ge­hen soll­te daher ver­mie­den werden.27

c. Ver­hält­nis der KI-VO zum sons­ti­gen Recht

Die KI-VO regu­liert ledig­lich die Ent­wick­lung und die

Imple­men­tie­rung von KI-Sys­te­men abschlie­ßend. Der

Ein­satz von KI-Sys­te­men wird in dem Gesetz hingegen

nur frag­men­ta­risch behan­delt. Dies ergibt sich zunächst

aus Erw­gr. 63 S. 1 KI-VO, der besagt, dass die Einstufung

eines KI-Sys­tems nach der KI-VO kei­ne Aus­sa­ge über

die Recht­mä­ßig­keit des Ein­sat­zes des Sys­tems nach

ande­ren Rechts­ak­ten der Uni­on oder nach nationalen

Rechts­vor­schrif­ten ent­hält. Im Geset­zes­text ergibt sich

dies zudem aus Art. 26 Abs. 3 KI-VO, wonach sonstige

Pflich­ten der Betrei­ber nach Uni­ons­recht oder nach

natio­na­lem Recht unbe­rührt bleiben.28 Hier­aus folgt,

dass beim Ein­satz von KI-Sys­te­men auch durch die

Hoch­schu­len stets das sons­ti­ge Recht berücksichtigt

wer­den muss, nament­lich etwa das Prü­fungs­recht oder

auch das Datenschutzrecht.O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 1 — 1 6 8

1 6 6

29

S. dazu wei­ter unten die Aus­füh­run­gen zum Daten­schutz­recht (II.

2. b. cc.).

30

Fischer/Jeremias/Dieterich, Prü­fungs­recht, 8. Aufl. 2022, Rn. 320 f.

2. Bewer­tung ein­zel­ner Anwendungsfälle

a. Ein­satz in der Lehre

Zunächst kön­nen KI-Sys­te­me in der Leh­re genutzt wer-

den. Beim Ein­satz in Vor­le­sun­gen, Semi­na­ren und Tuto-

rien haben Leh­ren­de wohl nichts zu befürch­ten: Sie

bewe­gen sich nicht in dem von der KI-VO abgesteckten

Hoch­ri­si­ko­be­reich. Wer­den KI-Sys­te­me genutzt, um

bei­spiels­wei­se eine Unter­richts­stun­de zu pla­nen, Lehr-

mate­ria­li­en zu über­set­zen oder einen Lehr­plan zu erstel-

len, ist die Hoch­schu­le bzw. die ein­zel­ne Lehr­per­son als

Betrei­be­rin des KI-Sys­tems anzu­se­hen, unter­liegt aber

als Betrei­be­rin eines ein­fa­chen KI-Sys­tems keinen

beson­de­ren Pflich­ten nach der KI-VO. Ande­re Pflichten

auf Uni­ons- oder natio­nal­staat­li­cher Ebe­ne blei­ben hier-

von aus­drück­lich unbe­rührt (vgl. Art. 26 Abs. 3 KI-VO).

Hin­zu tre­ten beim Ein­satz von ein­fa­chen KI-Systemen

die all­ge­mei­nen Betrei­ber­pflich­ten nach der KI-VO.

Dem­nach müs­sen Betrei­ber gem. Art. 4 KI-VO ein hin-

rei­chen­des Maß an KI-Kom­pe­tenz ver­mit­teln. Sie haben

also die Fähig­kei­ten, Kennt­nis­se und das Ver­ständ­nis zu

ver­mit­teln, die es ermög­li­chen, KI-Sys­te­me sachkundig

ein­zu­set­zen sowie sich der Chan­cen und Risi­ken von KI

und mög­li­cher Schä­den, die sie ver­ur­sa­chen können,

bewusst zu wer­den, vgl. Art. 3 Nr. 36 KI-VO. Die allge-

mei­nen Trans­pa­renz­pflich­ten für beson­de­re KI-Systeme

nach Art. 50 KI-VO dürf­ten für die Hoch­schu­len zumin-

dest in ihrer Rol­le als Betrei­ber dage­gen grundsätzlich

nicht rele­vant werden.

b. Ein­satz zur Prüfungsbewertung

Inter­es­sant ist vor allem der Ein­satz von KI zur Prü-

fungs­be­wer­tung, schon wegen der poten­zi­ell hohen Pra-

xis­re­le­vanz.

aa. Bewer­tung nach KI-Verordnung

Wie gezeigt, gilt der Ein­satz von KI zur Leistungsbewer-

tung gemäß Art. 6 Abs. 2 iVm Anhang III Nr. 3 KI-VO

als hoch­ris­kant, sofern nicht die Aus­nah­me des

Art. 6 Abs. 3 ein­greift. Kommt es hier­nach zu einem

hoch­ris­kan­ten Ein­satz, sind zwei unter­schied­li­che Sze-

nari­en denk­bar: Zum einen kann die Bewer­tung mittels

spe­zi­el­ler Soft­ware­sys­te­me erfol­gen, die zur Notenverga-

be kon­zi­piert wur­den und die des­halb von vornherein

als hoch­ris­kant ein­ge­stuft wer­den müs­sen. Zum anderen

kann die Hoch­schu­le ein GPAI-Sys­tem (z.B. ChatGTP)

zur Prü­fungs­be­wer­tung ein­set­zen. Bei­de Sze­na­ri­en zie-

hen unter­schied­li­che Rechts­fol­gen nach sich.

Im ers­ten Fall ist die Hoch­schu­le als Betrei­be­rin eines

(a prio­ri) Hoch­ri­si­ko-KI-Sys­tems anzu­se­hen. Als solche

tref­fen sie beson­de­re Pflich­ten nach Art. 26 KI-VO: Un-

ter ande­rem müs­sen Betrei­ber nach Art. 26 Abs. 2 KI‑VO

sicher­stel­len, dass hin­rei­chend geschul­tes Per­so­nal die

Sys­te­me beauf­sich­tigt. Sobald ein KI-Sys­tem Entschei-

dun­gen trifft, die natür­li­che Per­so­nen betref­fen, oder bei

einer sol­chen Ent­schei­dung unter­stützt, muss der Betrei-

ber die­se Per­son dar­über infor­mie­ren, dass die Entschei-

dung unter Ein­satz des Hoch­ri­si­ko-KI-Sys­tems getroffen

wur­de (Art. 26 Abs. 11 KI-VO). Außer­dem müssen

Hoch­schu­len als Ein­rich­tun­gen des öffent­li­chen Rechts

nach Art. 27 Abs. 1, 2 KI-VO vor der ers­ten Inbetrieb-

nah­me eine Grund­rech­te-Fol­gen­ab­schät­zung durchfüh-

ren, bei der u.a. die spe­zi­fi­schen Scha­dens­ri­si­ken des

Ein­sat­zes ermit­telt wer­den müs­sen. Als möglicher-

wei­se betrof­fe­ne Grund­rech­te kom­men nach

deut­schem Recht bei­spiels­wei­se der Grund­satz auf

Chan­cen­gleich­heit bei der Prüfungsbewertung

(Art 3 Abs. 1 GG) sowie die infor­ma­tio­nel­le Selbstbe-

stim­mung (Art. 2 Abs. 1 iVm Art. 1 Abs. 1 GG29) in

Betracht.

Im zwei­ten Fall – der Ver­wen­dung eines GPAI-Sys-

tems zur Leis­tungs­be­wer­tung – wird die Hochschule,

obwohl sie eigent­lich Betrei­be­rin ist, wegen der gesetzli-

chen Anord­nung in Art. 25 Abs. 1 Buchst. c) KI-VO wie

eine Anbie­te­rin behan­delt. Sie unter­liegt dann den An-

bie­ter­pflich­ten aus Art. 16 KI-VO, zu denen vor allem

Kenn­zeich­nungs- und Infor­ma­ti­ons­pflich­ten zählen.

Ver­stö­ße gegen die­se Pflich­ten sind gemäß

Art. 99 Abs. 4 Buchst. a) KI-VO bußgeldbewehrt.

bb. Bewer­tung nach Prüfungsrecht

Eine ande­re Fra­ge ist die der prü­fungs­recht­li­chen Zuläs-

sig­keit von KI zur Leis­tungs­be­wer­tung. Nach allgemei-

nem Prü­fungs­recht ist Vor­aus­set­zung einer eigenverant-

wort­li­chen Prü­fungs­ent­schei­dung, dass die erbrachte

Leis­tung durch den Prü­fer selbst, unmit­tel­bar und voll-

stän­dig erfasst und selb­stän­dig sowie eigenverantwort-

lich bewer­tet wird.30 Dass eine Prü­fungs­be­wer­tung das

Ergeb­nis einer mensch­li­chen Ent­schei­dung dar­stellt, ist

also unab­ding­bar. Dar­aus folgt die prüfungsrechtlich

nur beding­te Zuläs­sig­keit der Her­an­zie­hung eines KI-

Sys­tems: Zur Unter­stüt­zung bei der Entscheidungsfin-

dung wird der Ein­satz von KI recht­lich nicht zu bean-

stan­den sein. Eine voll­stän­di­ge Über­nah­me der Korrek-

tur ist indes nicht rechts­kon­form, denn das Ergeb­nis der

Leis­tungs­be­wer­tung müs­sen Prü­fen­de in Eigenverant-

wor­tung tra­gen. In die­sem Sin­ne zuläs­sig wäre es jeden-Schwart­man­n/K­ur­th/­Köh­ler · Der Ein­satz von KI an Hoch­schu­len 1 6 7

31

Schwart­mann, For­schung & Leh­re 2024, 352 (353), https://www.

wissenschaftsmanagement-online.de/beitrag/autonom-wie-ein-

tier-ki-hoch­schul­leh­re-und-pr-fung-16182 (zuletzt abge­ru­fen am

29.5.2024).

32

Vgl. hier­zu EuGH, Urteil vom 7.12.2023 – C‑634/21.

33

Eine all­ge­mei­ne Hand­rei­chung zur Imple­men­tie­rung von KI-

Sys­te­men durch Bil­dungs­ein­rich­tun­gen fin­det sich bei Schwart-

mann/Keber/Zenner (Hrsg.), KI-VO Leitfaden/Schwartmann 2.

Teil 1. Kap. Rn. 185 ff., im Erscheinen.

34

Bei­spiel nach Köh­ler, Blog der Köl­ner For­schungs­stel­le für

Medi­en­recht 5/2024, https://www.th-koeln.de/wirtschafts-und-

rechts­wis­sen­schaf­ten/ki-in-for­schung-und-leh­re-so-ver­mei­det-

man-fallstricke_114968.php (zuletzt abge­ru­fen am 29.5.2024).

falls, nach erfolg­ter (mensch­li­cher) Beno­tung die Ein-

schät­zung eines KI-Sys­tems zur Fun­die­rung und Präzi-

sie­rung der Noten­ver­ga­be heranzuziehen.31

cc. Bewer­tung nach Datenschutzrecht

Auch ange­sichts daten­schutz­recht­li­cher Aspek­te wirft

die Ver­wen­dung von KI zur Prü­fungs­be­wer­tung Fragen

auf. Kon­kret wird dies z.B. rele­vant, wenn Leh­ren­de oder

Prü­fen­de Namen bzw. Mail­adres­sen von Studierenden

oder gar deren Leis­tungs­ein­schät­zung in Prompts ver-

wen­den.

In die­sem Kon­text ist zu beach­ten, dass gem.

Art. 22 Abs. 1 DS-GVO eine Ent­schei­dung nicht allein

auf­grund auto­ma­ti­sier­ter Ver­ar­bei­tung erge­hen darf,

wenn sie von recht­li­cher Rele­vanz ist oder die betroffene

Per­son in ähn­li­cher Wei­se erheb­lich beeinträchtigt.32 Da-

raus lässt sich schlie­ßen, dass die betrof­fe­ne Per­son bei

ent­spre­chen­den Ent­schei­dun­gen ein Recht dar­auf hat,

dass nicht eine Maschi­ne, son­dern ein Mensch entschei-

det. Wäh­rend eine Prü­fungs­be­wer­tung regel­mä­ßig keine

recht­li­che Rele­vanz auf­weist, ist die Beein­träch­ti­gung in

ähn­li­cher Wei­se eine Fra­ge des Ein­zel­falls. Auch vor die-

sem Hin­ter­grund kann also eine rein automatisierte

Prü­fungs­be­wer­tung unzu­läs­sig sein. Dasselbe

gilt selbst­ver­ständ­lich bei Entscheidungen

über die Zulas­sung zum Hochschulstudium,

die nach der KI-VO eben­falls hoch­ris­kant ist

(Art. 6 Abs. 2 iVm Anhang III Nr. 3 Buchst. a) KI-VO).

IV. Hand­lungs­emp­feh­lun­gen für Hoch­schu­len und

deren Ange­hö­ri­ge

Der Ein­satz von KI auf Stu­die­ren­den­sei­te geschieht weit-

gehend rege­lungs­frei: Prü­fungs- und Studienordnungen

ent­hal­ten oft noch kei­ne Rege­lun­gen, und der Gesetzge-

ber scheint sich der Pro­ble­ma­tik bis­lang nicht widmen

zu wol­len. Prü­fen­de, die den Ein­satz von KI gestatten,

müs­sen Stu­die­ren­de exakt mit Blick auf den Ein­satz der

KI anlei­ten und anwei­sen und metho­di­sche Wege entwi-

ckeln, die eine von der KI abgrenz­ba­re Eigenleistung

iden­ti­fi­zier­bar und bewert­bar macht. Stu­die­ren­den ste-

hen als Infor­ma­ti­ons­quel­len aktu­ell häu­fig nur Informa-

tions­schrei­ben ihrer Hoch­schu­len zur Ver­fü­gung. Ange-

sichts der so ent­stan­de­nen Rechts­un­si­cher­heit soll­ten die

Hoch­schu­len im Inter­es­se aller Betei­lig­ten dafür Sorge

tra­gen, dass Prü­fungs­ord­nun­gen ange­passt und auf die

neu­en Tech­no­lo­gien ein­ge­stellt wer­den. Dabei sollte

expli­zit fest­ge­legt wer­den, wel­cher Ein­satz eines KI-Sys-

tems in wel­cher Prü­fungs­form zuläs­sig ist.

Auf Hoch­schul­sei­te müs­sen vor allem die Vorgaben

der KI-Ver­ord­nung beach­tet wer­den. Gera­de im Hochri-

siko­be­reich (hier beson­ders bei der Prüfungsbewertung)

set­zen KI-VO, all­ge­mei­nes Prü­fungs­recht sowie Daten-

schutz­recht dem Ein­satz von KI zu Recht Gren­zen. Für

Hoch­schu­len las­sen sich fol­gen­de Handlungsempfeh-

lun­gen zusam­men­fas­sen: Der Ein­satz von KI-Systemen

soll­te kon­trol­liert erfol­gen, da andern­falls die Gefahr be-

steht, dass die Hoch­schu­len für den beruf­li­chen Einsatz

durch Mit­ar­bei­ter auf pri­va­ten Accounts zur Verantwor-

tung gezo­gen wer­den. Dazu soll­te eine Lizen­sie­rung von

KI-Sys­te­men vor­ge­nom­men wer­den. Sofern einfache

KI-Sys­te­me wie ChatGPT lizen­siert wer­den, sollten

Hoch­schu­len ihrem Per­so­nal den Ein­satz zu Hochrisi-

ko-Zwe­cken wie der Prü­fungs­be­wer­tung ausdrücklich

unter­sa­gen, um nicht in eine Anbie­ter­rol­le zu rutschen.

Sofern ori­gi­när hoch­ris­kan­te KI-Sys­te­me lizen­siert wer-

den, wer­den die­se Pflich­ten vom ursprüng­li­chen Anbie-

ter erfüllt. Die Hoch­schu­le hat dann ledig­lich den weit-

aus klei­ne­ren Pflich­ten­ka­ta­log der Betrei­ber von Hochri-

siko-KI-Sys­te­men zu beachten.

Schließ­lich müs­sen Hoch­schu­len ihren Mitarbeitern

gem. Art. 4 KI-VO nach bes­tem Wis­sen KI-Kompetenz

ver­mit­teln, wenn sie deren Ein­satz zulas­sen. Das setzt

unter ande­rem vor­aus, dass sie ihr Per­so­nal mit­tels Schu-

lun­gen in die Lage ver­set­zen, die Zügel selbst in die Hand

zu neh­men und sie dazu anhal­ten, KI nur als Hilfsmittel,

nicht aber als Ersatz für eigen­ver­ant­wort­li­che Entschei-

dun­gen zu betrachten.33

Wel­che Aus­wir­kun­gen der KI-Ein­satz in der wissen-

schaft­li­chen Arbeit ansons­ten haben kann, hat einer der

Ver­fas­ser die­ses Bei­trags am eige­nen Leib erfahren:34

Wäh­rend der Arbeit an einem Bei­trag zur Regulierung

künst­li­cher Intel­li­genz such­te er nach einer Definition

für „algo­rith­mi­sche Sys­te­me“. Die in der Lite­ra­tur gefun-

denen Defi­ni­tio­nen, die vor­ran­gig Entscheidungsprozes-

se beto­nen, ent­spra­chen nicht sei­nen Anforderungen,

wor­auf­hin er eine eige­ne Defi­ni­ti­on ent­wi­ckel­te, die den

Ent­schei­dungs­be­griff aus­ließ. Ein spä­te­rer Ver­such, die-

se Defi­ni­ti­on mit Hil­fe eines KI-Sprach­sys­tems zu über-

prü­fen, offen­bar­te die Ten­denz der KI, bestehen­de Kon‑O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 1 — 1 6 8

1 6 8

zep­te zu repro­du­zie­ren: Unbe­merkt füg­te sie den ausge-

las­se­nen Ent­schei­dungs­be­griff wie­der ein, basie­rend auf

ihrer Daten­pro­gram­mie­rung, die eine Ver­knüp­fung zwi-

schen „algo­rith­mi­schen Sys­te­men“ und „Ent­schei­dungs-

fin­dung“ nahe­legt. Das Bei­spiel unter­streicht die Schwä-

che des Ein­sat­zes gene­ra­ti­ver KI in der Wis­sen­schaft: Sie

kann den krea­ti­ven Fort­schritt zunich­te machen, der

Kern einer wis­sen­schaft­li­chen Publi­ka­ti­on ist, wenn der

hin­ter dem Ein­satz ste­hen­de Mensch sich sei­ner Eigen-

ver­ant­wort­lich­keit nicht bewusst ist. Die recht­li­che Um-

set­zung die­ser Erkennt­nis braucht in der demokrati-

schen Gesell­schaft natur­ge­mäß Zeit. Bis der Pro­zess ab-

geschlos­sen ist, soll­ten Stu­die­ren­de eben­so wie Hoch-

schu­len die ver­lo­cken­den Vor­zü­ge des KI-Ein­sat­zes mit

Vor­sicht genießen.

Pro­fes­sor Dr. Rolf Schwart­mann ist Lei­ter der Kölner

For­schungs­stel­le für Medi­en­echt an der TH Köln, Vor-

sit­zen­der der Gesell­schaft für Daten­schutz und Daten-

sicher­heit (GDD), e.V. und Sach­ver­stän­di­ger des Deut-

schen Hoch­schul­ver­ban­des für KI- und Daten­recht. Er

ist Mit­her­aus­ge­ber und Mit­au­tor von Schwartmann/

Keber/Zenner, Pra­xis­leit­fa­den zur KI-Ver­ord­nung, der

im Juli 2024 erschei­nen wird.

Son­ja Kurth ist wis­sen­schaft­li­che Mit­ar­bei­te­rin an der

Köl­ner For­schungs­stel­le für Medienrecht.

Moritz Köh­ler ist Dok­to­rand von Rolf Schwartmann

und wis­sen­schaft­li­cher Mit­ar­bei­ter an der Köl­ner For-

schungs­stel­le für Medi­en­recht und Mit­au­tor des Pra-

xis­leit­fa­dens.