Menü Schließen
Klicke hier zur PDF-Version des Beitrags!

Nach­dem knapp drei Jah­re zuvor die EU-Kom­mis­si­on den ers­ten Ent­wurf für eine Ver­ord­nung über künst­li­che Intel­li­genz (KI-VO) vor­ge­legt hat und der Rat sowie das EU-Par­la­ment die­se Ent­wür­fe ange­passt und über­ar­bei- tet haben, ist am 13. März 2024 nun die KI-VO final beschlos­sen wor­den. Der risi­ko­ba­sier­te Ansatz, wonach die Ver­ord­nung zwi­schen inak­zep­ta­blen, hoch­ris­kan­ten und mini­mal ris­kan­ten KI-Sys­te­men unter­schei­det, wird grund­sätz­lich bei­be­hal­ten, jedoch um eine vier­te Kate- gorie, KI-Model­le mit gene­rel­lem Ver­wen­dungs­zweck, ergänzt. Kern­an­lie­gen die­ses Bei­tra­ges ist es, die wich- tigs­ten Rege­lun­gen und Vor­ga­ben der KI-VO dar­zustel- len und zu bewer­ten sowie deren Impli­ka­tio­nen für den Ein­satz und die Ent­wick­lung von KI-Sys­te­men an Hoch- schu­len herauszuarbeiten.

I. Ein­lei­tung

Mit Beschluss vom 13. März 2024 hat das EU-Par­la­ment nach vor­he­ri­ger Zustim­mung des EU-Minis­ter­ra­tes die Ver­ord­nung für Künst­li­che Intel­li­genz (KI-VO)2 ange- nom­men. Auf­bau­end auf dem Ursprungs­ent­wurf der Kommission3 setzt die KI-VO teil­wei­se auch zen­tra­le Ände­rungs­vor­schlä­ge des Rats4 und des Parlaments5 um, wozu ins­be­son­de­re die Regu­lie­rung von KI-Sys­te­men mit gene­rel­lem Ver­wen­dungs­zweck sowie umfas­sen­de Aus­nah­men für die For­schung an KI-Sys­te­men gehö­ren. Ziel der KI-VO ist gem. Art. 1 die För­de­rung ver­trau­ens- wür­di­ger und men­schen­zen­trier­ter KI bei gleich­zei­ti­ger Inno­va­ti­ons­för­de­rung. Als zen­tra­le Schutz­gü­ter werden

  1. 1  Die Autoren dan­ken Prof. Dr. Sil­ja Vöneky für ihre hilf­rei­chen Anmer­kun­gen sowie Anna-Lena Lie­der für die wert­vol­le Kor­rek- turarbeit.
  2. 2  Ver­ord­nung des Euro­päi­schen Par­la­ments und des Rates zur Fest­le­gung har­mo­ni­sier­ter Vor­schrif­ten für künst­li­che Intel­li­genz und zur Ände­rung der Ver­ord­nun­gen (EG)Nr. 300/2008, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richt­li­ni­en 2014/90/EU, (EU) 2020/1828 (Ver­ord­nung über künst­li­che Intel­li­genz), 13.06.2024, PE-CONS 24/1/24 REV 1, 2021/0106(COD).
  3. 3  Euro­päi­sche Kom­mis­si­on, Vor­schlag für eine Ver­ord­nung des

in Art. 1 KI-VO Gesund­heit, Sicher­heit und Grund­rech- te sowie kol­lek­ti­ve Rechts­gü­ter wie Demo­kra­tie, Rechts- staat­lich­keit und Umwelt­schutz benannt. Zur Errei- chung die­ser Zie­le wer­den KI-Sys­te­me in unter­schied­li- che Risi­ko­ka­te­go­rien unter­teilt: KI-Sys­te­me mit inak­zep­ta­blem Risi­ko, die in der KI-VO grds. ver­bo­ten wer­den, KI-Sys­te­me mit hohem Risi­ko, die in der Ver- ord­nung detail­lier­ten Regeln unter­wor­fen wer­den und KI-Model­le mit gene­rel­lem Ver­wen­dungs­zweck, hin- sicht­lich derer ins­be­son­de­re Risikobewertungs‑, Trans- parenz- und Infor­ma­ti­ons­pflich­ten bestehen. Beim Ein- satz von KI-Sys­te­men mit mini­ma­lem Risi­ko kön­nen bestimm­te Trans­pa­renz- und Infor­ma­ti­ons­pflich­ten bestehen, im Regel­fall sind die­se jedoch von der KI-VO nicht erfasst. In die­sem Bei­trag soll die KI-VO inhalt­lich dar­ge­stellt wer­den, ins­be­son­de­re mit Blick auf ihre Rele- vanz für den Ein­satz und die Ent­wick­lung von KI in der Wis­sen­schaft und For­schung sowie im Rah­men der Leh- re an Hochschulen.

II. Anwen­dungs­be­reich

1. Sach­li­cher Anwen­dungs­be­reich: KI-Systeme

Der Begriff des KI-Sys­tems wird nach Vor­bild der KI- Leit­li­ni­en der OECD in Art. 3 Nr. 1 KI-VO defi­niert als

“ein maschi­nen­ge­stütz­tes Sys­tem, das für einen in unter- schied­li­chem Gra­de auto­no­men Betrieb aus­ge­legt ist und das nach sei­ner Betriebs­auf­nah­me anpas­sungs­fä­hig sein kann und das aus den erhal­te­nen Ein­ga­ben für ex- pli­zi­te oder impli­zi­te Zie­le ablei­tet, wie Aus­ga­ben wie

Euro­päi­schen Par­la­ments und des Rates zur Fest­le­gung har­mo- nisier­ter Vor­schrif­ten für künst­li­che Intel­li­genz (Gesetz über Künst­li­che Intel­li­genz) und zur Ände­rung bestimm­ter Rechts­ak­te der Uni­on, 21.04.2021, COM(2021) 206 final.

4 Rat der Euro­päi­schen Uni­on, Pro­po­sal for a Regu­la­ti­on of the Euro­pean Par­lia­ment and of the Coun­cil lay­ing down har­mo- nis­ed rules on arti­fi­ci­al intel­li­gence (Arti­fi­ci­al Intel­li­gence Act) and amen­ding cer­tain Uni­on legis­la­ti­ve acts — Gene­ral approach, 14954/22, 25.11.2022.

5 Euro­päi­sches Par­la­ment, Gesetz über künst­li­che Intel­li­genz, 14.06.2023, P9_TA(2023)0236.

Dani­el Becker und Dani­el Feuerstack

Die EU-KI-Ver­ord­nung – Über­blick und Bewer­tung mit Fokus auf Ent­wick­lung und Ein­satz von KI-Sys- temen an Hoch­schu­len1

Ord­nung der Wis­sen­schaft 2024, ISSN 2197–9197

310 ORDNUNG DER WISSENSCHAFT 4 (2024), 309–316

etwa Vor­her­sa­gen, Inhal­te, Emp­feh­lun­gen oder Ent- schei­dun­gen erstellt wer­den, die phy­si­sche oder vir­tuel- le Umge­bun­gen beein­flus­sen können”.6

Ent­schei­dend für die Abgren­zung zu nicht-intel­li­gen­ter Soft­ware ist nach die­ser Defi­ni­ti­on das in Art. 3 Nr. 1 KI- VO ein­ge­führ­te Kri­te­ri­um der Autonomie.7 Auto­nom agie­ren KI-Sys­te­me gem. ErwG 12, wenn sie “bis zu einem gewis­sen Grad unab­hän­gig von mensch­li­chem Zutun agie­ren und in der Lage sind, ohne mensch­li­ches Ein­grei­fen zu arbeiten.”

Das Kri­te­ri­um der Auto­no­mie ermög­licht jedoch kei­ne trenn­schar­fe Abgren­zung zu her­kömm­li­cher, nicht-intel­li­gen­ter Software.8 So könn­ten auch auto­ma­ti- sier­te Pro­zes­se in einer Excel-Tabel­le unter den Begriff des KI-Sys­tems sub­su­miert werden,9 da sol­che Soft- warepro­gram­me zu einem gewis­sen Grad unab­hän­gig agie­ren und in der Lage sind, ohne mensch­li­ches Ein- grei­fen zu arbeiten.10 Die Defi­ni­ti­on ist jedoch ins­ge­samt als hin­rei­chend zu bewer­ten. Im Übri­gen ist ein wei­tes Ver­ständ­nis des Begrif­fes KI-Sys­tem auch nicht zu bean- stan­den, da sich auch bei regel­ba­sier­ten, nicht­ler­nen­den Algo­rith­men, sofern sie in ris­kan­ten Anwen­dungs­be­rei- chen ein­ge­setzt wer­den, die mit KI-Sys­te­men asso­zi­ier- ten Pro­ble­me stel­len können.11 Eine Ein­gren­zung des zwar weit defi­nier­ten sach­li­chen Anwen­dungs­be­rei­ches erfolgt in einem zwei­ten Schritt über den in der KI-VO ver­folg­ten risi­ko­ba­sier­ten Ansatz.

2. Per­so­nel­ler und räum­li­cher Anwendungsbereich

Der per­so­nel­le Anwen­dungs­be­reich der KI-Ver­ord­nung erfasst nach Art. 2 I KI-VO Anbie­ter und Betrei­ber von KI-Sys­te­men, soweit die­se KI-Sys­te­me in der EU auf den Markt brin­gen oder nut­zen wol­len, sowie wei­te­re Akteu- re in der KI-Wert­schöp­fungs­ket­te. Dane­ben rich­tet sich die KI-VO gem. Art. 2 Abs. 1 lit. g KI-VO auch an Betrof- fene, für die sie jedoch kei­ne Pflich­ten, son­dern lediglich

  1. 6  Bomhard/Siglmüller, RDi 2024, 45. Sie­he OECD, Recom­men­da­ti- on of the Coun­cil on Arti­fi­ci­al Intel­li­gence, OECD/LEGAL/0449, 22.5.2019, abruf­bar unter: https://legalinstruments.oecd.org/en/ instru­ment­s/OECD-LEGAL-0449.
  2. 7  Bomhard/Siglmüller, RDi 2024, 45, eben­so zum Par­la­ments­ent- wurf: Becker/Feuerstack, MMR 2024, 22, 23.
  3. 8  Hier­zu bereits zum Ursprungs­ent­wurf der Kom­mis­si­on Ebers
    et al., RDi 2021, 528, 529; Grützmacher/Füllsack, ITRB 2021, 159, 160; Ebert/Spiecker gen. Döh­mann, NVwZ 2021, 1188, 1189; Smu­ha et al., How the EU Can Achie­ve Legal­ly Trust­wor­t­hy AI, 2021,S. 14 f.; Spind­ler, CR 2021, 361, 373; Bomhard/Merkle, RDi 2021, 276, 278; Deut­scher Bun­des­rat, Vor­schlag für eine Ver­ord­nung des Euro­päi­schen Par­la­ments und des Rates zur Fest­le­gung har- moni­sier­ter Vor­schrif­ten für künst­li­che Intel­li­genz (Gesetz über künst­li­che Intel­li­genz) und zur Ände­rung bestimm­ter Rechts­ak­te der Uni­on COM(2021) 206 final, Druck­sa­che 488/21 (Beschluss),

Rech­te vor­sieht. Hoch­schu­len kön­nen dabei sowohl als Anbie­ter als auch als Betrei­ber zu qua­li­fi­zie­ren sein. Aus- weis­lich der Legal­de­fi­ni­ti­on in Art. 3 Nr. 3 KI-VO ist Anbie­ter “jede natür­li­che oder juris­ti­sche Per­son, die ein KI-Sys­tem oder ein GPAI-Modell ent­wi­ckelt oder ent­wi- ckeln lässt, um es auf dem Markt anzu­bie­ten oder in Betrieb zu neh­men”. Dies gilt auch für Hoch­schu­len, soweit die­se ent­spre­chend tätig wer­den. Als Betrei­ber wird nach Art. 3 Nr. 4 KI-VO “jede natür­li­che oder juris- tische Per­son ver­stan­den, die ein KI-Sys­tem in eige­ner Ver­ant­wor­tung und nicht im Rah­men einer rein-per­sön- lichen oder nicht-beruf­li­chen Tätig­keit ver­wen­det”. Bei Hoch­schu­len wer­den KI-Sys­te­me stets im Rah­men einer beruf­li­chen Tätig­keit ange­wen­det, so dass sie unter den Betrei­ber­be­griff sub­su­miert wer­den können.

Gemäß Art. 2 Abs. 1 lit. a KI-VO ist die­se auf Anbie­ter anwend­bar, unab­hän­gig davon, ob die­se selbst in der EU ansäs­sig sind. Des Wei­te­ren fin­det die KI-VO gemäß Art. 2 Abs. 1 lit. b KI-VO auf alle Betrei­ber von KI-Sys­te­men Anwen­dung, die ihren Sitz oder eine Nie­der­las­sung in der EU haben. Schließ­lich gilt die KI-VO auch für alle Anbie­ter und Betrei­ber, die ihren Sitz in einem Dritt­land haben, sofern der Out­put des KI-Sys­tems sich in der Uni­on auswirkt.12

3. Aus­nah­men

Von beson­de­rer Bedeu­tung für Hoch­schu­len ist zunächst die in der KI-VO imple­men­tier­te Pri­vi­le­gie­rung der For- schung durch die Bereichs­aus­nah­me nach Art. 2 Abs. 6 KI-VO13 sowie die Pri­vi­le­gie­rung nach Art. 2 Abs. 8 KI-VO.

Aus­weis­lich Art. 2 Abs. 6 KI-VO, gilt die KI-VO nicht für „KI-Sys­te­me oder KI-Model­le, ein­schließ­lich ihrer Aus­ga­be, die eigens für den allei­ni­gen Zweck der wis­sen- schaft­li­chen For­schung und Ent­wick­lung ent­wi­ckelt und in Betrieb genom­men werden“.

2021, S. 5, 7 f.; Stee­ge, MMR 2022, 926f. Zum Ent­wurf des Par­la- ments sie­he Becker/Feuerstack, MMR 2024, 22, 23; Hacker/Berz, ZRP 2023, 226, 227.

9 Vgl. zu die­sem kon­kre­ten Bei­spiel Zen­ner et al., Ein KI-Gesetz für Euro­pa, FAZ, 12.06.2023, https://www.faz.net/aktuell/wirtschaft/ digi­tec/ki-eu-par­la­ment-einigt-sich-auf-rah­men-fuer-gesetz- 18955926-p2.html.

10 Hier­zu bereits Becker/Feuerstack, MMR 2024, 22, 23 sowie Hacker/ Berz, ZRP 2023, 226, 227.

11 Smu­ha et al., How the EU Can Achie­ve Legal­ly Trust­wor­t­hy AI, 2021, S. 14 f, wobei je nach ver­wen­de­ter Tech­nik das Risi­ko einer Men­schen­rechts­ver­let­zung vari­ie­ren kann, vgl. ebd.

12 Bomhard/Siglmüller, RDi 2024, 45, 46.
13 Zur Pri­vi­le­gie­rung der Wis­sen­schaft im Kommissionsentwurf

sie­he Becker, ZfDR 2023, 164 ff.

Die begriff­li­che Ein­be­zie­hung von KI-Model­len legt nahe, dass die­se Aus­nah­me vom Anwen­dungs­be­reich auch für die durch die KI-VO umfang­reich regu­lier­ten GPAI-Model­le gel­ten soll. Ent­schei­dend ist dabei aber, dass das KI-Sys­tem oder das KI-Modell „eigens für den allei­ni­gen Zweck der wis­sen­schaft­li­chen For­schung und Ent­wick­lung ent­wi­ckelt und in Betrieb genom­men wird“. Wenn also ein KI-Sys­tem oder ein KI-Modell von Hoch- schu­len neben der For­schung auch für ande­re Zwe­cke ver­wen­det oder ent­wi­ckelt wird, kann die Pri­vi­le­gie­rung bereits ent­fal­len. Zu Abgren­zungs­pro­ble­men kann dies bei anwen­dungs­be­zo­ge­nen Dritt­mit­tel­pro­jek­ten füh­ren. Bei die­sen wird die Anwend­bar­keit der Bereichs­aus­nah- me des Art. 2 Abs. 6 KI-VO im Ein­zel­fall zu bestim­men sein. Sobald das KI-Sys­tem auch für einen wei­te­ren Zweck ent­wi­ckelt oder ver­wen­det wird, also bei­spiels- wei­se einer mög­li­chen Nut­zung in einem aus dem Pro- jekt aus­ge­glie­der­ten Start-Up mit auch wirt­schaft­li­cher Ziel­set­zung, kommt eine Pri­vi­le­gie­rung nach Art. 2 Abs. 6 KI-VO nicht mehr in Betracht. Auch bei Dual-Use- Anwen­dun­gen greift die Bereichs­aus­nah­me für die­ses KI-Sys­tem ins­ge­samt nicht mehr und die Anwend­bar- keit der KI-VO bleibt bestehen. Der Umstand, dass die Bereichs­aus­nah­me des Art. 2 Abs. 6 KI-VO die Anwend- bar­keit der­sel­ben in ihrer Gän­ze aus­schließt, spricht dabei für eine enge Aus­le­gung des allei­ni­gen Zwecks. Hier­für kann auch ange­bracht wer­den, dass unab­hän­gig von der Anwend­bar­keit des Art. 2 Abs. 6 KI-VO die Vor- feld­pri­vi­le­gie­rung wis­sen­schaft­li­cher For­schung nach Art. 2 Abs. 8 KI-VO bestehen bleibt.

Die Ein­be­zie­hung des Ent­wick­lungs­be­grif­fes deu­tet dar­auf hin, dass in Über­ein­stim­mung mit der Aus­le­gung des Grund­rechts auf For­schungs­frei­heit aus Art. 13 GRCh auch die pri­va­te sowie die anwen­dungs­ori- entier­te For­schung erfasst sein sollen.14 Zu beach­ten ist dabei, dass die Nicht­er­öff­nung des Anwen­dungs­be­reichs der KI-VO die Bin­dung an das Uni­ons­recht im Übri­gen unbe­rührt lässt.

Frag­lich ist, ob die Bereichs­aus­nah­me des Art. 2 Abs. 6 KI-VO die Leh­re erfasst. Dage­gen spricht zunächst, dass Art. 2 Abs. 6 KI-VO allein von For­schung und Ent­wick­lung spricht, nicht aber von Leh­re. Dem­ge- gen­über wird in ErwG 25 S. 1 davon gespro­chen, dass die KI-VO die Frei­heit der Wis­sen­schaft nicht unter­gra­ben soll, wor­un­ter auch die Frei­heit der Leh­re ver­stan­den wer­den kann. Im Übri­gen geht aber auch ErwG 25 allein

14 Vgl. Becker, ZfDR 2023, 164.

auf die Pri­vi­le­gie­rung wis­sen­schaft­li­cher For­schung ein, nicht aber auf die Leh­re. Dane­ben kann auch auf Art. 13 GRCh rekur­riert wer­den, der For­schungs­frei­heit und aka­de­mi­sche Frei­heit zwar in eine enge Ver­bin­dung stellt, aber als zwei ver­schie­de­ne Grund­rech­te benennt. Des Wei­te­ren spricht auch die Ein­stu­fung von Bewer- tungs­sys­te­men für Schü­ler und Stu­den­ten als Hoch­ri­si- ko-KI-Sys­te­men nach Anhang III Nr. 3 b der KI-VO für ein Ver­ständ­nis der Bereichs­aus­nah­me des Art. 2 Abs. 6 KI-VO, das die Leh­re nicht erfasst, da die­se ansons­ten sys­tem­wid­rig wäre. Im Ergeb­nis erfasst daher Art. 2 Abs. 6 KI-VO den Schutz der Leh­re nicht. Neben die Pri­vi­le­gie­rung durch die Bereichs­aus­nah­me des Art. 2 Abs. 6 KI-VO tritt die Pri­vi­le­gie­rung von Forschungs‑, Test- und Ent­wick­lungs­ak­ti­vi­tä­ten im Vor­feld des Inver- kehr­brin­gens von KI-Sys­te­men. Die­se sind nach Art. 2 Abs. 8 S. 1 KI-VO unab­hän­gig vom Akteur, nicht vom Anwen­dungs­be­reich der KI-VO erfasst und sind nach Art. 2 Abs. 8 S. 2 KI-VO im Ein­klang mit dem gel­ten­den Uni­ons­rechts durch­zu­füh­ren. Gemäß Art 2 Abs. 8 S. 3 KI-VO fin­det die Rege­lung kei­ne Anwen­dung auf Tests unter Real­be­din­gun­gen. Die Rege­lung ist dabei pri­mär als Klar­stel­lung zu ver­ste­hen, da bereits der Anbie­ter- und der Betrei­ber­be­griff eine Anwend­bar­keit der KI-VO im Vor­feld des Inver­kehr­brin­gens ausschließt.

Ins­ge­samt kann die Pri­vi­le­gie­rung, ins­be­son­de­re ge- gen­über dem ursprüng­li­chen Kommissionsentwurf15, als weit­ge­hend und ins­ge­samt als hin­rei­chend bewer­tet wer­den. Ins­be­son­de­re die wei­te Pri­vi­le­gie­rung rein wis- sen­schaft­li­cher Nut­zung von KI-Sys­te­men und KI-Mo- del­len redu­ziert die Ein­griffs­dich­te der KI-VO hin­sicht- lich der Wis­sen­schafts­frei­heit nach Art. 13 GRCh auf ein Min­dest­maß. Allein dort wo For­schen­de tat­säch­lich wie Unter­neh­mer han­deln, wer­den die­se wei­ter­hin durch die KI-VO regu­liert, was in Anbe­tracht der Zie­le der KI-VO, rele­van­te Risi­ken ein­zu­he­gen, auch gerecht­fer­tigt wer- den kann.

III. Risi­ko­ba­sier­ter Ansatz

Die KI-VO ver­folgt einen risi­ko­ba­sier­ten Ansatz. Dabei wird zwi­schen KI-Sys­te­men mit inak­zep­ta­blem Risi­ko, KI-Sys­te­men mit hohem Risi­ko, KI-Sys­te­men mit mini- malem Risi­ko und KI-Model­len mit gene­rel­lem Ver­wen- dungs­zweck unterschieden.

15 Hier­zu umfas­send Becker, ZfDR 2023, 164.

Becker/Feuerstack · Die EU-KI-Ver­ord­nung 3 1 1

312 ORDNUNG DER WISSENSCHAFT 4 (2024), 309–316

1. Ver­bo­te­ne KI-Praktiken

Soge­nann­te „KI-Prak­ti­ken“ mit einem inak­zep­ta­blen Risi­ko wer­den in Art. 5 KI-VO auf­ge­zählt und sind grund­sätz­lich ver­bo­ten. Dar­un­ter fal­len unter ande­rem mani­pu­la­ti­ve Tech­ni­ken, die das Ver­hal­ten von Per­so­nen beein­flus­sen und zu erheb­li­chen Schä­den für die­se füh- ren kön­nen (Art. 5 Abs. 1 lit. a KI-VO), die KI-basier­te Bewer­tung des sozia­len Ver­hal­tens (Social Scoring, Art. 5 Abs. 1 lit. c KI-VO), die Beur­tei­lung des Risi­kos der (erneu­ten) Straf­tat­be­ge­hung (Art. 5 Abs. 1 lit. d KI-VO) sowie die KI-basier­te bio­me­tri­sche Echt­zeit-Fern­iden­ti- fika­ti­on (Art. 5 Abs. 1 lit. h, Abs. 2–7). Für letz­te­res Ver­bot bestehen dabei aller­dings Aus­nah­men zur Auf­klä­rung und Ver­hü­tung schwe­rer Straf­ta­ten. Auch bei den ande- ren Ver­bo­ten exis­tie­ren bestimm­te Aus­nah­men, die die Ver­bots­norm etwas ver­wäs­sern und auf­grund ihrer teil- wei­sen Unbe­stimmt­heit für Rechts­un­si­cher­heit sorgen.

2. Hoch­ri­si­ko-KI-Sys­te­me

KI-Sys­te­me mit hohem Risi­ko wer­den in den Art. 6 ff. KI-VO gere­gelt und stel­len den zen­tra­len Rege- lungs­ge­gen­stand der KI-VO dar. Die Ein­ord­nung als Hoch­ri­si­ko-KI-Sys­tem hängt dabei von dem Bereich ab, in dem das KI-Sys­tem ein­ge­setzt wer­den soll. KI-Sys­te- me, die unter die im Anhang I ent­hal­te­nen Uni­ons- rechts­ak­te fal­len, wer­den gem. Art. 6 Abs. 1 KI-VO als Hoch­ri­si­ko-KI-Sys­te­me ein­ge­ord­net. Der Anhang III ent­hält zudem eine Lis­te von Anwen­dungs­be­rei­chen mit hohem Risi­ko. Für die Wis­sen­schaft und For­schung ist dabei zum einen rele­vant, dass der Ein­satz in einem die- ser Berei­che die Anwend­bar­keit der Wis­sen­schafts­pri­vi- legie­rung aus­schließt, da das KI-Sys­tem dann nicht mehr allein For­schungs­zwe­cken dient.

Zum ande­ren ent­hält Anhang III, wie bereits ge- nannt, eini­ge Anwen­dungs­be­rei­che, die unmit­tel­bar für Hoch­schu­len rele­vant sind. Dies sind unter ande­rem der Ein­satz von KI-Sys­te­men zur Zulas­sung zu Bil­dung­sein- rich­tun­gen (Annex III Nr. 3 a)), zur Bewer­tung von Prü- fungs­leis­tun­gen (Annex III Nr. 3 b)), zur Bewer­tung des Bil­dungs­ni­veaus (Annex III Nr. 3 c)) sowie zur Über­wa- chung von Schü­lern oder Stu­die­ren­den bei Prüfungen

16 Vgl. Feld­kamp et al., ZfDR 2024, 60, 93. Als Fair­ness­me­tri­ken bezeich­net man im all­ge­mei­nen ver­schie­de­ne Ver­su­che in der Infor­ma­tik, KI-Sys­te­men im Trai­nings­pro­zess Fair­ness, das heißt Gleich­be­hand­lung, anhand quan­ti­ta­ti­ver Gleich­be­hand­lungs- begrif­fe ein­zu­pro­gram­mie­ren, vgl. Gesell­schaft für Infor­ma­tik, Tech­ni­sche und recht­li­che Betrach­tun­gen algo­rith­mi­scher Ent­schei­dungs­ver­fah­ren. Stu­di­en und Gut­ach­ten im Auf­trag des Sach­ver­stän­di­gen­rats für Ver­brau­cher­fra­gen, 2018, S. 39; Verma/Rubin, Fair­ness Defi­ni­ti­ons Explai­ned, 2018 ACM/IEEE

(Annex III Nr. 3 d). Auch der Ein­satz von KI bei der Aus- wahl von (Lehr- )Per­so­nal sowie die Leis­tungs­be­wer­tung von Ange­stell­ten (Annex III Nr. 4 a) und b)) stellt einen Anwen­dungs­be­reich mit hohem Risi­ko dar, der für Hoch­schu­len im All­ge­mei­nen rele­vant sein dürfte.

Gem. Art. 9 KI-VO müs­sen für Hoch­ri­si­ko-KI-Sys­te- me Risi­ko­ma­nage­ment­sys­te­me ein­ge­rich­tet wer­den, wo- durch abseh­ba­re Grund­rechts­ri­si­ken iden­ti­fi­ziert und abge­mil­dert wer­den sol­len. Art. 10 KI-VO schreibt be- stimm­te Qua­li­täts­kri­te­ri­en für Trainings‑, Vali­die­rungs- und Test­da­ten­sät­ze vor. Dem­nach müs­sen die­se Daten- sät­ze unter ande­rem hin­rei­chend rele­vant, reprä­sen­ta­tiv und nach Mög­lich­keit frei von Feh­lern und im Hin­blick auf die beab­sich­tig­te Nut­zung voll­stän­dig und mög­lichst kon­text­sen­si­tiv sein und sind auf poten­zi­el­le Bia­ses zu unter­su­chen, die ver­bo­te­ne Dis­kri­mi­nie­run­gen zur Fol- ge haben. Die Vor­schrift adres­siert damit teil­wei­se das Pro­blem unfai­rer KI, ohne dabei jedoch kon­kre­te Fair- ness­me­tri­ken vorzuschreiben.16 Dies ist aller­dings nicht zu bean­stan­den, da sich ver­schie­de­ne Fair­ness­me­tri­ken häu­fig aus­schlie­ßen und widersprechen.17 Eben­falls kein Nach­teil ist, dass kei­ne wei­ter­ge­hen­den Vor­ga­ben an die Nicht­dis­kri­mi­nie­rung von KI-Sys­te­men ent­hal­ten sind. Fra­gen wie etwa die Recht­fer­ti­gung algo­rith­mi­scher Dis- kri­mi­nie­run­gen, sind Gegen­stand des euro­päi­schen und natio­na­len Anti­dis­kri­mi­nie­rungs­rechts. Die Beant­wor- tung ob ein Ver­stoß gegen die­se nicht-KI-spez­fi­schen Nor­men vor­liegt, hängt vom Ein­zel­fall ab und die Fest- stel­lung obliegt letzt­lich den Gerich­ten. Auf Ebe­ne einer prä­ven­ti­ven Regu­lie­rung wie der KI-VO kann der Fra­ge der Ver­hin­de­rung von Bias dabei nur mit bestimm­ten Qua­li­täts­an­for­de­run­gen an die Daten­sät­ze begeg­net wer­den. Zu kri­ti­sie­ren ist hier, dass die Anfor­de­run­gen der KI-VO sehr unbe­stimmt sind.18 Wann Daten­sät­ze hin­rei­chend reprä­sen­ta­tiv, rele­vant und feh­ler­frei sind, bleibt wei­test­ge­hend unklar und liegt damit im Ermes- sen der Anbieter.

In Art. 11 KI-VO wird zudem eine Pflicht zur tech­ni- schen Doku­men­ta­ti­on bestimm­ter Infor­ma­tio­nen auf­ge- stellt. Anhand die­ser soll den Markt­über­wa­chungs­be- hör­den nach Art. 3 Nr. 26 KI-VO gezeigt wer­den kön- nen, dass die Anfor­de­run­gen an das KI-Sys­tem eingehal-

Inter­na­tio­nal Work­shop on Soft­ware Fair­ness, 2018, S. 1; Mehrabi et al., A Sur­vey on Bias and Fair­ness in Machi­ne Lear­ning, ACM Com­pu­ting Sur­veys, Vol. 54(6), 2021, Artic­le 115, S. 11.

17 Vgl. etwa Berk et al., Fair­ness in Cri­mi­nal Jus­ti­ce Risk Assess- ments: The Sta­te of the Art, Socio­lo­gi­cal Methods & Rese­arch 50(I) (2021), 3 ff.

18 Zu die­ser Kri­tik im All­ge­mei­nen auch Bomhard/Siglmüller, RDi 2024, 45, 54.

ten wer­den. Nach Anhang IV müs­sen unter ande­rem der Zweck des Sys­tems, des­sen Funk­ti­ons­wei­se, die Ein­satz- mög­lich­kei­ten, die Hard­ware­an­for­de­run­gen, das User- Inter­face, des­sen Ent­schei­dungs­lo­gik und zen­tra­le An- nah­men, die zen­tra­len Klas­si­fi­ka­ti­ons­ent­schei­dun­gen, die zu opti­mie­ren­den Para­me­ter, mög­li­che Kom­pro­mis- se in Bezug auf die tech­ni­schen Lösun­gen, für die jewei- ligen Anfor­de­run­gen der KI-VO, die Qua­li­tät der Input- daten, ver­wen­de­te Leis­tungs­kenn­zah­len d.h. Metri­ken zur Beur­tei­lung der Leis­tung des KI-Sys­tem­s19, das er- war­te­te Maß an Genau­ig­keit und etwa­ige Dis­kri­mi­nie- rungs­ri­si­ken doku­men­tiert werden.

Zudem müs­sen bestimm­te Ereig­nis­se gem. Art. 12 KI-VO auto­ma­tisch auf­ge­zeich­net wer­den. Dies soll die Iden­ti­fi­ka­ti­on von Risi­ken nach Art. 79 Abs. 1 KI- VO sowie die Über­wa­chung nach Markt­ein­füh­rung ermög­li­chen und ein hin­rei­chen­des Niveau an Rück­ver- folg­bar­keit der Funk­ti­ons­wei­se gewährleisten.

Nach Art. 13 Abs.1 KI-VO müs­sen Hoch­ri­si­ko-KI- Sys­te­me zudem hin­rei­chend trans­pa­rent sein, um Be- trei­ber in die Lage zu ver­set­zen, den Out­put des Sys­tems zu inter­pre­tie­ren und das Sys­tem rich­tig zu ver­wen­den. Betrei­bern ist zu die­sen Zwe­cken eine Gebrauchs­an­wei- sung zu über­las­sen. Unklar bleibt jedoch, wie die Begrif- fe Trans­pa­renz und Inter­pre­ta­ti­on zu ver­ste­hen sind.

Ergänzt wird die Pflicht in Art. 13 KI-VO durch das in Art. 86 KI-VO ent­hal­te­nen Recht auf Erläu­te­rung indi­vi- duel­ler Ent­schei­dungs­fin­dung für betrof­fe­ne Per­so­nen. Dem­nach sind Per­so­nen, die von einer Ent­schei­dung be- trof­fen sind, die mit­hil­fe eines Hoch­ri­si­ko-KI-Sys­tems getrof­fen wur­de und auf sie recht­li­che oder ähn­lich be- ein­träch­ti­gen­de Aus­wir­kun­gen hat, berech­tigt, vom Be- trei­ber eine kla­re und aus­sa­ge­kräf­ti­ge Erklä­rung über die wich­tigs­ten Ele­men­te der Ent­schei­dung und die Rol­le des KI-Sys­tems zu ver­lan­gen. Dies könn­te für Hoch- schu­len inso­fern rele­vant wer­den, dass die­se in den oben genann­ten Hoch­ri­si­ko-Anwen­dun­gen, etwa bei der Be- wer­tung von Prü­fungs­er­geb­nis­sen, wenn dabei KI-Sys- teme zum Ein­satz kom­men, die wich­tigs­ten Ele­men­te erklä­ren müs­sen. Art. 86 KI-VO ist jedoch eben­falls in- halt­lich zu unbe­stimmt. So wird nicht klar, wor­auf sich die “Ele­men­te” einer Ent­schei­dung bezie­hen. ErwG 171 stellt ledig­lich klar, dass die Erklä­rung klar und aussage-

19 Gesell­schaft für Infor­ma­tik, Tech­ni­sche und recht­li­che Betrach­tun- gen algo­rith­mi­scher Ent­schei­dungs­ver­fah­ren. Stu­di­en und Gut­ach­ten im Auf­trag des Sach­ver­stän­di­gen­rats für Ver­brau­cher- fra­gen, 2018, S. 38.

kräf­tig sein soll und dadurch eine Grund­la­ge geschaf­fen wer­den soll, die betrof­fe­ne Per­so­nen in die Lage ver­setzt, ihre Rech­te wahrzunehmen.

Des Wei­te­ren müs­sen KI-Sys­te­me mit hohem Risi­ko gem. Art. 14 KI-VO unter mensch­li­cher Auf­sicht ste­hen. Eine zustän­di­ge natür­li­che Per­son muss in der Lage sein, Fehl­funk­tio­nen zu erken­nen, den Out­put kor­rekt zu in- ter­pre­tie­ren und einen „Stopp“-Knopf zu drü­cken. Über- mäßi­ges Ver­trau­en in den Out­put soll ver­hin­dert werden.

Hoch­ri­si­ko-KI-Sys­te­me müs­sen schließ­lich gem. Art. 15 KI-VO über ein gewis­ses Maß an Genau­ig­keit, Robust­heit und Cyber­si­cher­heit ver­fü­gen. Die Beein- flus­sung des Sys­tems durch ver­gan­ge­ne ver­zerr­te Out- puts (sog. Feed­back-Loops) soll nach Mög­lich­keit ver- hin­dert werden.

Zudem wird in Art. 27 KI-VO eine Grund­rech­te­fol- gen­ab­schät­zung vor­ge­schrie­ben. Die­se Pflicht gilt grund­sätz­lich nur für öffent­lich-recht­li­che Betrei­ber, wor­un­ter jeden­falls öffent­lich-recht­li­che Bil­dung­sein- rich­tun­gen, wie etwa staat­li­chen Hoch­schu­len, zu sub­su- mie­ren sind. Die­se Akteu­re sind ver­pflich­tet, eine Ab- schät­zung der Aus­wir­kun­gen durch­zu­füh­ren, die die Ver­wen­dung des jewei­li­gen Hoch­ri­si­ko-KI-Sys­tems für die Grund­rech­te haben kann. Die­se Grund­rech­te­fol­gen- abschät­zung umfasst unter ande­rem die Kate­go­rien der betrof­fe­nen Per­so­nen, die spe­zi­fi­schen Scha­dens­ri­si­ken und eine Beschrei­bung der Umset­zung von Maß­nah­men der mensch­li­chen Auf­sicht. Unklar ist aller­dings der kon­kre­te Mehr­wert der Grund­rech­te­fol­gen­ab­schät­zung gegen­über der inhalt­lich weit­ge­hend gleich­lau­fen­den Ver­pflich­tung zur Errich­tung eines Risi­ko­ma­nage­ment- sys­tems in Art. 9 KI-VO.20 Sofern Hoch­schu­len außer- halb der For­schungs­pri­vi­le­gie­rung nach Art. 2 Abs. 6 und 8 KI-VO — wie sie zuvor beschrie­ben wur­de — KI- Sys­te­me als Betrei­ber in einem Hoch­ri­si­ko­be­reich ein- set­zen oder Hoch­ri­si­ko-KI-Sys­te­me auf den Markt brin- gen, sind sie umfas­send an die Vor­ga­ben der KI-VO ge- bun­den. Dies ist vor dem Hin­ter­grund, dass sie in die- sem Fall auch ver­gleich­bar zu klas­si­schen Anbie­tern und Betrei­bern – in der Regel pri­va­te Unter­neh­men – tätig wür­den, auch gerechtfertigt.

20 Hier­zu Hacker/Berz, ZRP 2023, 226, 228.

Becker/Feuerstack · Die EU-KI-Ver­ord­nung 3 1 3

314 ORDNUNG DER WISSENSCHAFT 4 (2024), 309–316

3. KI-Sys­te­me mit mini­ma­lem Risi­ko und Trans­pa­renz- risiko

KI-Sys­te­me mit mini­ma­lem Risi­ko wer­den von der KI- VO grund­sätz­lich nicht regu­liert. Eine Aus­nah­me hier- von stel­len KI-Sys­te­me dar, die direkt mit natür­li­chen Per­so­nen inter­agie­ren. Die­se müs­sen gem. Art. 50 KI- VO als sol­che gekenn­zeich­net wer­den, sofern dies nicht offen­sicht­lich ist. Auto­ma­tisch gene­rier­te Inhal­te wie Vide­os, Bil­der oder Tex­te sowie soge­nann­te Deep Fakes müs­sen eben­falls gekenn­zeich­net wer­den, auch wenn sie grds. nicht als Hoch­ri­si­ko-KI-Sys­tem ein­ge­ord­net wer- den.

Sons­ti­ge KI-Sys­te­me, die weder ein hohes Risi­ko noch ein Trans­pa­renz­ri­si­ko auf­wei­sen, blei­ben jedoch unre­gu­liert. Wäh­rend der Par­la­ments­ent­wurf der VO noch im ope­ra­ti­ven Teil einen Kata­log all­ge­mei­ner Prin- zipi­en wie z.B. Fair­ness und Accoun­ta­bi­li­ty ent­hielt, der für alle KI-Sys­te­me gel­ten sollte,21 wur­de die­ser nun in ErwG 27 und damit in den nicht rechts­ver­bind­li­chen Teil der Ver­ord­nung ver­scho­ben. Die­sen abs­trak­ten und unbe­stimm­ten Vor­ga­ben wird in der Rechts­pra­xis wohl kein nor­ma­ti­ver Wert zukommen.

4. KI-Model­le mit gene­rel­lem Verwendungszweck

Für viel Auf­se­hen und Dis­kus­si­on hat letzt­lich auch die seit dem Rats­ent­wurf ein­ge­füg­te Regu­lie­rung von KI- Sys­te­men mit gene­rel­lem Ver­wen­dungs­zweck gesorgt (kurz GPAI-Model­le, Abkür­zung für den im Eng­li­schen ver­wen­de­ten Begriff “gene­ral pur­po­se AI Model”).

Der Begriff wird in Art. 3 Nr. 63 KI-VO defi­niert als “KI-Modell […] das eine erheb­li­che all­ge­mei­ne Ver- wend­bar­keit auf­weist und in der Lage ist, unab­hän­gig von der Art und Wei­se sei­nes Inver­kehr­brin­gens ein brei­tes Spek­trum unter­schied­li­cher Auf­ga­ben kom­pe- tent zu erfül­len, und das in eine Viel­zahl nach­ge­la­ger­ter Sys­te­me oder Anwen­dun­gen inte­griert wer­den kann”. Unklar bleibt dabei, was unter dem Begriff des Modells zu ver­ste­hen ist und inwie­fern sich die­ser von dem Be- griff des KI-Sys­tems unterscheidet.22 Dar­un­ter dürf­ten jeden­falls gro­ße Sprach­mo­del­le (engl. Lar­ge Lan­guage Models, kurz LLMs) wie ChatGPT oder Goog­le Gemi­ni sein.

Die­ser “gestuf­te” Ansatz ist das Ergeb­nis eines poli­ti- schen Kom­pro­mis­ses, des­sen Zustan­de­kom­men das

  1. 21  Hier­zu Becker/Feuerstack, MMR 2024, 22, 22.
  2. 22  Bomhard/Siglmüller, RDi 2024, 45, 50.
  3. 23  Hier­zu Frisch/Kohpeis, ZD-Aktu­ell 2023, 01318.

Schei­tern der gesam­ten KI-VO ver­hin­dert hat, wobei das Ziel ver­folgt wur­de, klei­ne­re und mitt­le­re Unter­neh­men sowie Start­ups zu privilegieren.23 Die­ses Ziel mag zwar nach­voll­zieh­bar sein, ändert jedoch nichts dar­an, dass auch von klei­ne­ren GPAI-Model­len Grund­rechts­ri­si­ken aus­ge­hen können.24 Über­zeu­gen­der wäre es daher gewe- sen, auf den gestuf­ten Ansatz zu ver­zich­ten und statt­des- sen alle GPAI-Model­le auf bestimm­te mit die­sen ein­her- gehen­den Risi­ken zu bewerten.

Die kom­ple­xen Fra­gen, die den Ein­satz von GPAI- Model­len an Hoch­schu­len, etwa im Rah­men der Leh­re oder durch Stu­die­ren­de bei der Erstel­lung von Semi­nar- und Haus­ar­bei­ten betref­fen, wer­den durch die KI-VO nicht beant­wor­tet. GPAI-Model­le wer­den viel­mehr nur hin­sicht­lich des Zeit­punk­tes regu­liert, an dem ihre kon- kre­te Ver­wen­dung noch gar nicht fest­steht. Inwie­fern GPAI-Model­le etwa zuläs­si­ge Hilfs­mit­tel für Stu­die­ren- de dar­stel­len, wird daher nicht gere­gelt. Sofern ein GPAI- Modell in den oben genann­ten Risi­ko­be­rei­chen, etwa zur Bewer­tung und Beno­tung von Stu­die­ren­den ein­ge- setzt wird, ist es als Risi­ko-KI-Sys­tem ein­zu­stu­fen. So- dann gel­ten jedoch die Regeln zu Hoch­ri­si­ko-KI-Sys­te- men. Wenn uni­ver­si­tä­re Ein­rich­tun­gen GPAI-Model­le zu For­schungs­zwe­cken ent­wi­ckeln und ein­set­zen, greift die For­schungs­pri­vi­le­gie­rung in Art. 2 Abs. 6 KI-VO. Gem. Art. 2 Abs. 8 KI-VO gilt die KI-VO auch nicht für Forschungs‑, Test- und Ent­wick­lungs­tä­tig­kei­ten zu GPAI-Model­len vor Inbe­trieb­nah­me oder Inver­kehr- brin­gen. Dies ent­bin­det frei­lich For­schen­de und Ent­wi- ckeln­de nicht von der Pflicht, in die­sem Sta­di­um Grund- rech­te und ein­schlä­gi­ges Uni­ons­recht zu beach­ten. Wol­len For­schen­de GPAI-Model­le auf dem Markt anbie- ten oder in Betrieb neh­men, ohne aus­schließ­li­che For- schungs­zwe­cke zu ver­fol­gen, so gel­ten sie als Anbie­ter i.S.v. Art. 2 Abs. 1 KI-VO. Sie müs­sen dann auch die spe- ziell GPAI-Model­le betref­fen­den Regeln beach­ten. Die­se fin­den sich vor allem in den Art. 51 ff. KI-VO. Dabei wird zwi­schen Model­len mit und ohne sys­te­mi­sches Risi­ko unter­schie­den. Um ein GPAI-Modell mit sys­te­mi­schem Risi­ko han­delt es sich gem. Art. 51 Abs. 1 KI-VO, wenn die­ses Fähig­kei­ten mit hoher Wirk­kraft („high impact capa­bi­li­ties“) besitzt. Die­se wird gem. Art. 51 Abs. 2 KI- VO ver­mu­tet bei einer Leis­tungs­fä­hig­keit von 1025 FLOPs. Die­se Maß­ein­heit bezieht sich gem. Art. 3 Nr. 67 KI-VO auf die Zahl der Gleitkommazahl-Operationen,

24 Martini/Wiesehöfer, NVwZ – Online-Auf­satz 1/2024, 14. 25 Hacker/Berz, ZRP 2023, 226, 228.

die pro Sekun­de aus­ge­führt wer­den kön­nen. Für alle GPAI-Model­le unge­ach­tet ihrer Ein­ord­nung gel­ten zunächst die Anfor­de­run­gen des Art. 53 KI-VO. Dem- nach sind Anbie­ter zur tech­ni­schen Doku­men­ta­ti­on ver- pflich­tet, die unter ande­rem die Auf­ga­ben, die das Modell bewäl­ti­gen soll, die Archi­tek­tur und die Zahl der Para­me­ter, die Lizenz, Trai­nings­me­tho­den und ‑tech­ni- ken, Infor­ma­tio­nen über die ver­ar­bei­te­ten Daten sowie die Zahl der FLOPs ent­hal­ten muss. Nach­ge­la­ger­ten Anbie­tern müs­sen gem. Art. 53 Abs. 1 lit. b KI-VO Infor- matio­nen über das Modell mit­ge­teilt wer­den, die die­se in die Lage ver­set­zen sol­len, die Fähig­kei­ten und Limi­ta­tio- nen des GPAI-Modells zu ver­ste­hen. Dies gilt gem. Art. 53 Abs. 2 KI-VO nicht für Model­le, die unter einer frei­en Lizenz ver­füg­bar sind, sofern die­sen kein sys­te­mi­sches Risi­ko inne­wohnt. Anbie­ter müs­sen zudem eine Poli­cy zur Ein­hal­tung des EU-Urhe­ber­rechts ein­füh­ren und hin­rei­chend detail­lier­te Zusam­men­fas­sun­gen der genutz­ten Trai­nings­da­ten öffent­lich zur Ver­fü­gung stel- len.

Für GPAI-Model­le mit sys­te­mi­schem Risi­ko gilt dar- über hin­aus Art. 55 KI-VO. Die­ser schreibt etwa eine Modell­be­wer­tung nach aner­kann­ten tech­ni­schen Stan- dards vor, um sys­te­mi­sche Risi­ken zu bewer­ten und ab- zumil­dern. Auch sind erns­te Vor­fäl­le, ein­schließ­lich mög­li­cher Kor­rek­tur­maß­nah­men zu doku­men­tie­ren und dem AI Office zu mel­den, und ein hin­rei­chen­des Maß an Cyber­si­cher­heit muss gewähr­leis­tet werden.

Syn­the­ti­sche Text‑, Bild‑, Video- und Audio­in­hal­te, die von GPAI-Model­len gene­riert wur­den, müs­sen zu- dem nach Art. 50 Abs. 2 KI-VO in com­pu­ter­les­ba­rem For­mat als künst­lich gene­riert gekenn­zeich­net sein. Die Pflicht zur Modell­be­wer­tung nach Art. 55 Abs. 1 lit. a KI- VO erscheint ange­mes­sen, da nur nach erfolg­ter Modell- bewer­tung eine tat­säch­li­che Risi­ko­ein­schät­zung durch den Anbie­ter des GPAI-Modells tat­säch­lich erfol­gen kann.

Zu kri­ti­sie­ren ist jedoch die unter­schied­li­che und wi- der­sprüch­li­che Ver­wen­dung des Begrif­fes des sys­te­mi- schen Risi­kos: einer­seits beschreibt der Begriff GPAI- Model­le mit Fähig­kei­ten mit hoher Wirk­kraft, wodurch die stren­gen Anfor­de­run­gen des Art. 55 KI-VO zur An- wen­dung gelan­gen. Gleich­zei­tig wird im Zusam­men- hang mit der Bewer­tungs­pflicht aus Art. 55 KI-VO das Begriffs­ver­ständ­nis aus den Art. 34 f. DSA zugrun­de ge-

26 So auch Martini/Wiesehöfer, NVwZ – Online-Auf­satz 1/2024, 14.

legt, wonach es ins­be­son­de­re auf nach­tei­li­ge Aus­wir­kun- gen für bestimm­te Rechts­gü­ter ankommt. In der Fol­ge sind Anbie­ter von GPAI-Model­len, die auf­grund ihrer hohen FLOP-Zahl ein sys­te­mi­sches Risi­ko auf­wei­sen, verpflichtet,dassystemischeRisikonochmalszuidenti- fizie­ren und zu bewer­ten und sodann abzumildern.

Es stellt sich dann die Fra­ge, ob dies bedeu­tet, dass Anbie­ter die Rechen­leis­tung redu­zie­ren müs­sen. Unklar ist auch, inwie­fern sich sys­te­mi­sche Risi­ken auf abs­trak- ter Ebe­ne, ohne dass sie das kon­kre­te künf­ti­ge Anwen- dungs­feld ken­nen, über­haupt bewer­ten und abmil­dern lassen.25 Da sich sys­te­mi­sche Risi­ken für Grund- und Men­schen­rech­te bei allen GPAI-Model­len, unge­ach­tet der FLOP-Zahl, stel­len können,26 da auch klei­ne GPAI- Model­le grund­rechts­re­le­van­te Berei­che betref­fen kön- nen, ist der gestuf­te Ansatz zudem wenig überzeugend.

IV. Fazit

Die KI-VO ent­hält an ver­schie­de­nen Stel­len Vor­ga­ben für den Ein­satz von KI in Wis­sen­schaft und For­schung sowie in der Leh­re an Hoch­schu­len. Zwar gel­ten für „rei- ne“ For­schungs- und Ent­wick­lungs­tä­tig­kei­ten zunächst die inzwi­schen umfas­sen­den und groß­zü­gi­gen Aus­nah- men vom Anwen­dungs­be­reich der KI-VO. Der Ein­satz von KI-Sys­te­men, bspw. bei der Ein­stel­lung von Lehr- kräf­ten und Ange­stell­ten sowie bei der Zulas­sung und Bewer­tung von Stu­die­ren­den führt jedoch zur Anwen- dung der Vor­schrif­ten über Hoch­ri­si­ko-KI-Sys­te­me. In die­sen Berei­chen dür­fen Hoch­schu­len nur KI-Sys­te­me ein­set­zen, die den Anfor­de­run­gen der KI-VO ent­sp­re- chen.

Die kom­ple­xen Fra­gen, die sich seit der Popu­la­ri­tät von ChatGPT im Zusam­men­hang mit dem Ein­satz von GPAI-Model­len an Hoch­schu­len stel­len, wer­den von der KI-VO nicht beant­wor­tet, wes­halb sie wei­ter­hin Anlass zur Debat­te geben. Die umfas­sen­den, gestuf­ten Regeln zu GPAI-Model­len betref­fen viel­mehr ein Sta­di­um, in dem der kon­kre­te Ein­satz der Model­le noch nicht unbe- dingt fest­steht. Sofern die For­schungs­pri­vi­le­gie­rung nicht greift und sie als Anbie­ter ein­zu­stu­fen sind, müs- sen auch Hoch­schu­len die Vor­schrif­ten zu GPAI-Model- len beachten.

Auf­grund der dop­pel­deu­ti­gen Defi­ni­ti­on des sys­te- mischen Risi­kos und dem wenig über­zeu­gen­den gestuf-

Becker/Feuerstack · Die EU-KI-Ver­ord­nung 3 1 5

316 ORDNUNG DER WISSENSCHAFT 4 (2024), 309–316

ten Ansatz muss die Regu­lie­rung von GPAI-Model­len ins­ge­samt als miss­lun­gen bewer­tet wer­den. Auch die ge- nere­ll infla­tio­nä­re Ver­wen­dung von unbe­stimm­ten Rechts­be­grif­fen, mit der erheb­li­che Rechts­un­si­cher­heit ein­her­ge­hen kann, ist nega­tiv zu bewerten.27 Die Kom- mis­si­on ist dies­be­züg­lich gehal­ten, ihrer Auf­ga­be zur Er- arbei­tung von Leit­li­ni­en für die prak­ti­sche Umset­zung gem. Art. 96 KI-VO mög­lichst noch vor Gel­tung der je- wei­li­gen Vorschriften28 nachzukommen.

Posi­tiv zu bewer­ten ist jedoch zunächst der seit Be- ginn des Gesetz­ge­bungs­pro­zes­ses ver­folg­te risi­ko­ba­sier- te Ansatz der KI-Regu­lie­rung. Dane­ben über­zeugt auch die Anglei­chung der Defi­ni­ti­on von KI-Sys­te­men in der

KI-VO mit der Defi­ni­ti­on der OECD. Schließ­lich ist auch die im Ver­gleich zum Kom­mi­si­ons­ent­wurf deut­lich erwei­ter­te und pra­xis­taug­li­che Pri­vi­le­gie­rung der For- schung in der fina­len Fas­sung der KI-VO zu begrüßen.

Dani­el Becker ist Rechts­re­fe­ren­dar am Land­ge­richt Freiburg.

Dani­el Feu­er­stack ist aka­de­mi­scher Mit­ar­bei­ter am Ins- titut für öffent­li­ches Recht (Abt II: Völ­ker­recht, Rechts- ver­glei­chung) der Uni­ver­si­tät Frei­burg. Er ist dort tätig in den inter­dis­zi­pli­nä­ren For­schungs­netz­wer­ken ReS- cale (geför­dert von der Carl-Zeiss-Stif­tung) und Adap- tive Gover­nan­ce of Emer­ging Tech­no­lo­gies (AdGo­vEm) der Uni­ver­si­tät Freiburg.

27 Bomhard/Siglmüller, RDi, 45, 54.

28 Vgl. hier­zu Art. 113 KI-VO, der grds. eine Umset­zungs­frist von 24 Mona­ten ab Inkraft­tre­ten nennt, jedoch für ver­schie­de­ne Vor- schrif­ten auch kür­ze­re oder län­ge­re Umset­zungs­fris­ten enthält.