Menü Schließen
Klicke hier zur PDF-Version des Beitrags!

Über­sicht

I. Ein­füh­rung

1. Die rich­ti­gen Noten für die fal­schen Studierenden?

2. Grund­le­gen­de Ein­sich­ten für KI im Hochschulbereich

II. Poten­zia­le von KI an der Hoch­schu­le: Leh­re im Fokus

III. Span­nungs­la­gen zwi­schen KI und Datenschutz

1. Rele­van­te Merk­ma­le von KI

a) Grund­la­gen

b) Tren­nung und Ver­schrän­kung der Daten­ver­ar­bei­tung in

Trai­ning und Einsatz

2. Aus­ge­wähl­te daten­schutz­recht­li­che Anfor­de­run­gen und re-

sul­tie­ren­de Spannungen

a) Sach­li­cher und per­sön­li­cher Anwendungsbereich

b) Daten­schutz­grund­sät­ze des Art. 5 DS-GVO

c) Rechts­grund­la­gen

d) Über­mitt­lung in Drittstaaten

e) Pro­fil­ing und auto­ma­ti­sier­te Ent­schei­dung im Einzelfall

f) Tech­nisch-orga­ni­sa­to­ri­scher Daten­schutz und Daten-

schutz-Fol­gen­ab­schät­zung

V. Fazit und Ausblick

I. Ein­füh­rung

1. Die rich­ti­gen Noten für die fal­schen Studierenden?2

Gut gemeint ist nicht immer gut. Das demons­triert ein

Bei­spiel aus Groß­bri­tan­ni­en, das unter dem etwas plaka-

tiven Titel „F*ck the Algo­rithm!“ in die jün­ge­re Bil-

dungs­ge­schich­te ein­ge­gan­gen ist. Der entsprechende

Zor­nes­ruf erklang im Som­mer 2020 vor dem Parlament

in West­mins­ter aus den Mün­dern hun­der­ter Schülerin-

nen und Schü­ler. Er wur­de zu einem Zei­chen des Wider-

stands gegen ein Vor­ha­ben des eng­li­schen Amts für die

Regu­lie­rung von Prü­fun­gen und Abschlüs­sen (Office of

Qua­li­fi­ca­ti­ons and Exami­na­ti­ons Regu­la­ti­on, Ofqual).

Da in der Covid-19-Pan­de­mie kei­ne Abschlussarbeiten

in Prä­senz hat­ten durch­ge­führt wer­den kön­nen, wollte

Ofqual die Abschluss­no­ten der Schü­le­rin­nen und Schü-

ler für das zum Hoch­schul­stu­di­um berechtigende

Advan­ced bzw. A‑Level des Gene­ral Cer­ti­fi­ca­te of Edu-

cati­on durch einen Algo­rith­mus fest­le­gen lassen.3 Dieser

soll­te eigent­lich für Objek­ti­vi­tät sor­gen. Da sich aus der

For­schung erge­ben hat­te, dass Leh­ren­de bei einer Erset-

zung schrift­li­cher Exami­na durch Noten für den Gesamt-

ein­druck von der Leis­tungs­fä­hig­keit der Schülerinnen

und Schü­ler (was zunächst über­legt wor­den war) dazu

nei­gen, deren Leis­tun­gen posi­ti­ver ein­zu­schät­zen, ent-

schied sich das Ofqual für die Fest­le­gung der Abschluss-

note auf­grund einer para­me­tri­sier­ten For­mel (eines

Algo­rith­mus), aus wel­cher dann die Abschluss­no­te abge-

lei­tet wur­de. Mit ande­ren Wor­ten wur­den in dem betref-

fen­den „Pandemie“-Jahrgang kei­ne Prü­fun­gen mehr

durch­ge­führt, son­dern die Hochschulzugangsberechti-

gung wur­de auf­grund eines Algo­rith­mus ermit­telt, der

im Wesent­li­chen auf drei Varia­blen beruh­te: der histori-

schen Noten­ver­tei­lung der drei ver­gan­ge­nen Jah­re der

Schu­le, dem Rang der Schü­le­rin oder des Schü­lers inner-

halb eines Fachs an der jewei­li­gen Schu­le (anhand der

Ein­schät­zung der Lehrenden4) sowie vor­he­ri­gen Klau-

sur­no­ten sowohl der his­to­ri­schen als auch der zu beur-

tei­len­den Schü­le­rin­nen und Schüler.

Das Pro­blem die­ser „Objek­ti­vi­tät“ war jedoch, dass

sie einen ver­bor­ge­nen Bias ent­hielt. In Großbritannien

ist das Bil­dungs­we­sen nach wie vor von gro­ßen Unter-

schie­den geprägt. Aller­dings sor­gen eine weitgehende

Ver­ein­heit­li­chung und die zeit­glei­che Durch­füh­rung der

A‑Le­vel-Prü­fun­gen in Eng­land dafür, dass die Noten

lan­des­weit weit­ge­hend ver­gleich­bar sind. Um den Zu-

gang zu den bekann­ten Ein­rich­tun­gen in Oxford, Cam-

bridge oder auch Lon­don wird inten­siv kon­kur­riert, gute

Noten sind hier­für essen­zi­ell. Da es Ofqual zuließ, dass

es in den­je­ni­gen Fäl­len, in denen in einem Fach an einer

Schu­le weni­ger als 15 Schü­le­rin­nen und Schü­ler die Ab-

schluss­prü­fung abzu­le­gen hat­ten, aus prak­ti­schen Grün-

den doch wie­der auf die Ein­schät­zun­gen der Lehrenden

Mar­grit Seckelmann1 und Jan Horstmann

Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Da-

ten­schutz

1

Der Bei­trag beruht auf dem Vor­trag von Prof. Dr. Mar­grit Seckel-

mann beim 16. Hochschulrechts‌ tag in Erlan­gen am 28.09.2023.

2

Die Über­schrift is‌ t eine abge­wan­del­te Ver­si­on einer Überschrift

der FAZ zur geschil­der­ten Bege­ben­heit, https://www.faz.net/

aktu­el­l/­po­li­ti­k/aus­lan­d/­bri­ti­sche-prue­fungs­er­geb­nis­se-die-not-

mit-den-noten-16915526.html (Abruf 30.01.2024).

3 In den übri­gen Tei­len des Ver­ei­nig­ten König­reichs gab es ähnli-

che Vor­gän­ge. Ein aus­führ­li­cher tech­ni­scher Bericht zu Ofquals

Erwä­gun­gen und Metho­dik is‌ t im Inter­net ver­füg­bar: Ofqual,

Awar­ding GCSE, AS, A level, advan­ced exten­si­on awards and

exten­ded projec‌ t qua­li­fi­ca­ti­ons in sum­mer 2020: inte­rim report,

https://assets.publishing.service.gov.uk/media/5f3571778fa8f5173f

593d61/6656–1_Awarding_GCSE__AS__A_level__advanced_ex-

tension_awards_and_extended_projec‌ t_qua­li­fi­ca­ti­ons­_in­_­sum-

mer_2020_-_interim_report.pdf (Abruf 31.01.2024).

4

Laut Ofqual (Fn. 2, S. 13ff.) sind die Ein­schät­zun­gen der Lehren-

den in rela­ti­ver Hin­sicht ver­läss­li­cher als in abso­lu­ter Hinsicht.

Ord­nung der Wis­sen­schaft 2023, ISSN 2197–9197O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 7 0

5

Zum Gan­zen: Cra­ven, Ofqual gra­des algo­rithm: A reci­pe for un-

fair­ness, https://upreach.org.uk/news/ofqual-grades-algorithm-

a‑re­ci­pe-for-unfair­ness, abge­ru­fen am 31.012024; Willis/Chiusi,

United King­dom – Rese­arch, in Chi­usi et al., Auto­ma­ting Society

Report 2020, S. 280; Kolk­man, LSE Blog vom 26.08.2020, https://

blogs.lse.ac.uk/impac‌ tofso­cial­sci­en­ces/2020/08/26/fk-the-algo-

rithm-what-the-world-can-learn-from-the-uks-a-level-gra­ding-

fiasco/, abge­ru­fen am 31.01.2024.

6

S. die begin­nen­de wis­sen­schaft­li­che Durch­drin­gung bei Gardner,

IEEE Tech. & Soc. Mag. Jg. 41 Aus­ga­be 2 (2022), 84–89; Mallett,

Revie­w­ing the impac‌ t of OFQUAL’s assess­ment ‘algo­rithm’ on

racial ine­qua­li­ties in Lander/Kay/Holloman, COVID-19 and Ra-

cism – Coun­ter-Sto­ries of Col­li­ding Pan­de­mics (2023), S. 187–198.

7

Zum Schluss von Ver­hal­tens­da­ten Vie­ler auf das zukünftige

Han­deln des Ein­zel­nen Seckel­mann, Ver­wal­tung 2023, 1 (26f.).

8

Nach der Rechts‌ pre­chung sowie lang­jäh­ri­ger Ansicht der Auf-

sichts­be­hör­den is‌ t der Per­so­nen­be­zug anhand des Inhalts, des

Zwecks und der Aus­wir­kun­gen einer Infor­ma­ti­on zu beurteilen,

s. insb. EuGH, 20.12.2017, C‑434/16 — Nowak = ZD 2018, 113; s.a.

Art.-29-Datenschutzgruppe, WP136 – Stel­lung­nah­me 4/2007 zum

Begriff „per­so­nen­be­zo­ge­ne Daten“, 20.6.2007.

9

Seckel­mann (Fn. 7), 26f.

10

Wachter/Mittels‌ tadt, Colum­bia Busi­ness L. Rev. 2019, 494. In sei-

ner grund­recht­li­chen Kon­zep­ti­on is‌ t jeden­falls das Recht auf in-

for­ma­tio­nel­le Selbs‌ tbes‌ tim­mung als akzes­so­ri­scher Vorfeldschutz

vor frei­heits­be­gren­zen­den Ent­schei­dun­gen ande­rer ange­legt, s.

Britz, Infor­ma­tio­nel­le Selbs‌ tbes‌ tim­mung zwi­schen rechtswissen-

schaft­li­cher Grund­satz­kri­tik und Behar­ren des Bundesverfas-

sungs­ge­richts in Hoff­mann-Riem, Offe­ne Rechts­wis­sen­schaft, S.

570f.; krit. zu einem daten­schutz­recht­li­chen Schutz vor unange-

mes­se­nen Schluss­fol­ge­run­gen Stein­bach, Regu­lie­rung algorith-

men­ba­sier­ter Ent­schei­dun­gen — grund­recht­li­che Argumentation

im Kon­text von Arti­kel 22 DSGVO (2021), S. 220.

11

Ver­ord­nung des Euro­päi­schen Par­la­ments und des Rates zur

Fes‌ tle­gung har­mo­ni­sier­ter Vor­schrif­ten für küns‌ tli­che Intelli-

genz (Gesetz über küns‌ tli­che Intel­li­genz) und zur Änderung

bes‌ timm­ter Rechts­ak­te der Uni­on (Gesetz­ge­bungs­ver­fah­ren COD

2021/0106). Da sich der Gesetzgebungs‌ pro­zess zum Zeitpunkt

des Ver­fas­sens in der fina­len Pha­se befand, wird hier die vom

EP am 13.3.2024 ange­nom­me­ne Fas­sung (Doku­ment-Nr. P9_

TA(2024)0138 zugrun­de gelegt, deren Annah­me durch den Rat

erwar­tet wird. Zur Über­set­zung wur­de teil­wei­se die allgemeine

Aus­rich­tung des Rates vom 6.12.2024 (ST 15698 2022 INIT) her-

ange­zo­gen.

gesetzt wer­den soll­te, wäre die­ses – so ver­mu­te­te man je-

den­falls – Schü­le­rin­nen und Schü­lern an Privatschulen

und in klei­nen Kur­sen, vor allem in bildungsbürgerlich

kon­no­tier­ten Fächern wie Latein, Alt­grie­chisch oder

Kunst­ge­schich­te, zugu­te­ge­kom­men. Zudem floss die all-

gemei­ne Noten­ver­tei­lung an der betref­fen­den Schu­le aus

den letz­ten Jahr­gän­gen in die For­mel ein und hät­te zu-

sätz­lich die­je­ni­gen flei­ßi­gen und intel­li­gen­ten Personen

benach­tei­ligt, die in der Abschluss­prü­fung trotz schlech-

ter Start­be­din­gun­gen beacht­li­che Punkt­zah­len erzielt

hät­ten. Die­ser impli­zi­te Bias wäre – hät­te es kei­ne Protes-

te dage­gen gege­ben – dadurch ver­stärkt wor­den, dass das

zur Anfech­tung der Noten vor­ge­se­he­ne Ver­fah­ren als

kom­pli­ziert und kos­ten­pflich­tig erschien, so dass viele

hier­vor zurück­ge­scheut hät­ten. Als dann noch bekannt

wur­de, dass auf­grund der Pan­de­mie ins­ge­samt weniger

Stu­di­en­plät­ze ange­bo­ten wer­den soll­ten, lief das Fass

über – und es kam zu den ein­gangs erwähn­ten Protesten,

bei denen inter­es­san­ter­wei­se die Schuld beim Algorith-

mus gesucht wur­de. Letz­ten Endes wur­de die angekün-

dig­te For­mel nicht ange­wen­det, es wur­den die algorith-

misch ver­ge­be­nen Noten zurück­ge­zo­gen und durch die

Ein­schät­zung der Leh­ren­den ersetzt.5 Ob die gefundene

Lösung aller­dings mehr oder viel­mehr weni­ger Bil-

dungs­ge­rech­tig­keit ent­hielt, wur­de danach von den

Schü­le­rin­nen und Schü­lern nicht mehr problematisiert,

denn in ihren Augen stand eines fest: Der Algorithmus

war schuld.

2. Grund­le­gen­de Ein­sich­ten für KI im Hochschulbe-

reich

Was lässt sich aus die­sem Bei­spiel für den Ein­satz von KI

im deut­schen Hoch­schul­be­reich ler­nen? Einer­seits fallen

zunächst die Unter­schie­de zu die­sem (für die Bildungs-

sozio­lo­gie hoch­in­ter­es­san­ten Beispiel6) auf. Es macht auf

der ande­ren Sei­te aber zwei grund­le­gen­de Ein­sich­ten für

den Daten­schutz im Hoch­schul­be­reich beim KI-Einsatz

sehr deut­lich:

Ers­tens las­sen sich die­ser und ähn­li­che Fäl­le des Ein-

sat­zes von KI mit den klas­si­schen Begrif­fen des Daten-

schutz­rechts nur begrenzt fas­sen. Denn zum einen gibt

es auf die im Fal­le Ofqual berech­tig­ter­wei­se aufgeworfe-

ne Fra­ge, für wel­che Zwe­cke man über­haupt KI nutzen

soll­te, kei­ne Ant­wort. Zum ande­ren lag ein Groß­teil des

Pro­blems gera­de in der Her­an­zie­hung der statistischen

Ver­tei­lung von Noten in vor­he­ri­gen Jah­ren für die Ent-

schei­dung über die aktu­el­len Schü­le­rin­nen und Schüler.7

Zwar wird durch die Ent­schei­dung über die individuelle

Note letzt­lich ein Per­so­nen­be­zug hergestellt.8 Skandali-

siert wur­de jedoch die Anknüp­fung an gruppenbezoge-

ne Merk­ma­le, also ein Bias, der – wie bei KI-Applikatio-

nen häu­fig — dar­aus resul­tiert, dass aus dem (his­to­ri-

schen) Ver­hal­ten vie­ler auf das mög­li­che Ver­hal­ten eines

Ein­zel­nen geschlos­sen wird.9 Und das wirft wiederum

eine zen­tra­le The­ma­tik der Debat­ten um Datenschutz

und KI auf: Inwie­weit ist das Daten­schutz­recht das rich-

tige Instru­ment, um einen Schutz vor „unan­ge­mes­se­nen

Schlussfolgerungen“10 zu gewähr­leis­ten? Bei­de Problem-

stel­lun­gen las­sen sich nicht mit dem personenbezogenen

Ansatz des Daten­schutz­rechts allein behan­deln. Es

kommt auch auf noch offe­ne Fra­gen sei­nes Zusammen-

spiels mit ande­ren Nor­men an, ins­be­son­de­re dem tech-

nik­be­zo­ge­nen Ansatz der KI-Ver­ord­nung (KI-VO) der

EU,11 die einen ers­ten Bau­stein des KI-Rechts darstellt.

Für KI-Sys­te­me zur Anwen­dung in Ein­rich­tun­gen der

all­ge­mei­nen und beruf­li­chen Bil­dung aller Stu­fen sind

nach der KI-VO bei einer Rei­he von Einsatzzwecken,Seckelmann/Horstmann · Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Daten­schutz 1 7 1

12

Wischmey­er, AöR 2018, 1 (20ff.).

13

In die­se Rich­tung deu­tet die Leh­re, die Kolk­man (Fn. 5) aus dem

Eingangsbeis‌ piel zieht: „Algo­rith­mic accoun­ta­bi­li­ty“ erfor­dert die

Aus­bil­dung kri­ti­scher Öffent­lich­kei­ten für Algorithmen.

14

Neben Stu­die­ren­den und Leh­ren­den kommt auch pri­va­ten und

öffent­li­chen Hoch­schu­len der Schutz der Wissenschaftsfreiheit

zu (Kem­pen in Beck­OK Grund­ge­setz, Epping/Hillgruber, 56. Ed.

Stand 15.8.2023, Art. 5 Rn. 185). Dies wird rele­vant, wenn s‌ taat-

liche Rege­lun­gen Vor­ga­ben zum KI-Ein­satz in For­schung oder

Leh­re ent­hal­ten, wird hier aber nicht behandelt.

15

Djef­fal, DuD 2021, 529 (531).

16

Os‌ ter, JZ 2021, 167.

17

Von einem beein­dru­cken­den Beis‌ piel, in dem auch zusammen-

hän­gen­de Geschich­ten mit KI in die Form eines Comics gebracht

wur­den berich­tet Hea­ven, MIT Tech­no­lo­gy Review, 5.3.2024,

https://www.technologyreview.com/2024/03/05/1089458/

gene­ra­ti­ve-ai-turn-my‑s‌ tory-into-comic-images-lore-machine/

(Abruf 6.3.2024).

18

Für ChatGPT s. FAQ: Enter­pri­se pri­va­cy at Ope­nAI, Stand

10.01.2024, https://openai.com/enterprise-privacy.

19

S. dazu Herr­mann, ODW 2024, 25–44.

20

Kem­pen in Beck­OK GG, Epping/Hillgruber, 56. Ed. Stand

15.8.2023, Art. 5 Rn. 183.

21

Hier wird davon aus­ge­gan­gen, dass Leh­ren­de den KI-Einsatz

selbs‌ t in die Leh­re auf­neh­men. Die Ein­füh­rung von KI kann als

äuße­re Beein­flus­sung des grund­recht­lich geschütz­ten methodi-

schen Ansat­zes der Leh­re (Kem­pen in Beck­OK GG, Eppin­g/Hill-

gru­ber, 56. Ed. Stand 15.8.2023, Art. 5 Rn. 183) im Ein­zel­fall auch

einen Ein­griff in die Lehr­frei­heit (Art. 5 Abs. 3 GG) dars‌ tel­len (s.

Heckmann/Rachut, ODW 2024, 85 (88)). In die­sem Zusammen-

hang wären auch mög­li­che Bedro­hun­gen der Frei­heit der Lehre

zu reflek­tie­ren, die durch die Fort­ent­wick­lung eines zunächs‌ t

durch die Lehr­per­son auto­nom ein­ge­führ­ten KI-Sys‌ tems im

Zeit­ver­lauf ents‌ tehen können.

ins­be­son­de­re Zulas­sung und Bewertung

(ein­schließ­lich Zwi­schen­be­wer­tun­gen), die

Vor­ga­ben für Hoch­ri­si­ko-KI-Sys­te­me anwendbar

(Art. 6 Abs. 2 iVm Annex III Nr. 3 KI-VO).

Zwei­tens sind im Bil­dungs­be­reich exis­ten­zi­el­le Güter

der (beruf­li­chen) Chan­cen­gleich­heit und persönlichen

Ent­fal­tung betrof­fen. Es ist ein Ver­spre­chen von KI, dass

die­se Güter mit­tels Effi­zi­enz und Stan­dar­di­sie­rung nach-

gera­de „auto­ma­tisch“ maxi­miert wür­den. Zweifelsohne

bie­tet zudem ins­be­son­de­re gene­ra­ti­ve KI ein enormes

Poten­zi­al zur Aus­bil­dung und Ent­fal­tung von Kreativi-

tät. Doch müs­sen Chan­cen­gleich­heit und persönliche

Ent­fal­tung als umkämpf­te, dis­kur­siv bestimm­te und ver-

teil­te Güter ange­sichts der oft ver­bor­ge­nen „Prä­ge­kraft

der Technik“12 auch gegen die­se behaup­tet werden.13 Das

ruft grund­recht­li­che Ver­bür­gun­gen (ins­be­son­de­re

Art. 2 Abs. 1, Art. 2 Abs. 1 iVm Art. 1 Abs. 1, Art. 3, Art. 5

Abs. 3, Art. 12 GG sowie Art. 7, 8, 13 S. 2, 14, 15 GRCh) auf,

die hin­ter den hier behan­del­ten Nor­men des Daten-

schutz­rechts ste­hen. Sie müs­sen im weit­ge­hend staatlich

gepräg­ten Hoch­schul­be­reich durch die Hochschulen

selbst zur Gel­tung gebracht werden.14 Die­se Belan­ge sind

also bei den fol­gen­den Aus­füh­run­gen zu den Span-

nungs­la­gen zwi­schen KI und Daten­schutz­recht im Be-

wusst­sein zu behalten.

II. Poten­zia­le von KI an der Hoch­schu­le: Leh­re im

Fokus

Künst­li­che Intel­li­genz ver­fügt als Quer­schnitts-15 oder

„Meta-Technologie“16 über kaum über­schau­ba­re Ein-

satz­mög­lich­kei­ten, die sich durch die Dyna­mik der tech-

nischen wie sozia­len Ent­wick­lung lau­fend erweitern.

Ent­spre­chend viel­fäl­tig sind auch die Einsatzmöglichkei-

ten im Hoch­schul­be­reich. Mit der Ver­brei­tung großer

Sprach­mo­del­le (Lar­ge Lan­guage Models) wie ChatGPT

für den Ein­satz durch pri­va­te Nut­ze­rin­nen und Nutzer

ohne beson­de­re Vor­kennt­nis­se bestehen brei­te Einsatz-

mög­lich­kei­ten in allen Berei­chen des Hochschulrechts

von der Bewer­bung bis zur Prü­fung, ins­be­son­de­re in der

Pro­duk­ti­on, im Erwerb und in der Reprä­sen­ta­ti­on von

Wis­sen. Ein Bei­spiel ist die Illus­tra­ti­on von Wis­sen durch

KI-Sys­te­me, die aus Text­ein­ga­ben Bil­der generieren.17

Mit­tels Schnitt­stel­len kön­nen auf Sprach­mo­del­len beru-

hen­de KI-Sys­te­me bei Ver­füg­bar­keit entsprechender

Daten grund­sätz­lich auch für den kon­kre­ten Einsatz-

zweck ange­passt werden.18

KI kann nun­mehr also an allen Sta­tio­nen einer Hoch-

schul­lauf­bahn ein­ge­setzt wer­den: Bei der Zulas­sung Stu-

die­ren­der, in der Leh­re, im Selbst­stu­di­um, in der Durch-

füh­rung und Bewer­tung von Prü­fungs­leis­tun­gen, in be-

ruf­li­chen Auswahlentscheidungen,19 in der Forschung

sowie in der Ver­wal­tung. Die Ein­satz­sze­na­ri­en lassen

sich grob in bewer­ten­de Anwen­dun­gen wie Prüfungsbe-

wer­tung und Aus­wahl­ent­schei­dun­gen sowie vorrangig

krea­ti­ve und didak­ti­sche Anwen­dun­gen ein­tei­len. Wäh-

rend KI in die For­schung idR weni­ger institutionell

durch die Hoch­schu­le ein­ge­führt wer­den dürf­te, son-

dern von den For­schen­den selbst als Arbeits­mit­tel her-

ange­zo­gen wird, bie­ten sich beson­ders im Bereich der

Leh­re, grund­recht­lich ver­stan­den als sys­te­ma­tisch ange-

leg­te Ver­brei­tung des in der For­schung Erkannten,20

span­nen­de Ein­satz­mög­lich­kei­ten und zugleich Heraus-

for­de­run­gen durch die grund­recht­li­che Betroffenheit

der Studierenden.21 Beson­ders im Selbst­stu­di­um und in

Ergän­zung von Lehr­an­ge­bo­ten kön­nen KI-Sys­te­me eine

struk­tu­rie­ren­de und unter­stüt­zen­de Funk­ti­on einneh-

men. Dies kann ver­schie­de­ne KI-Ele­men­te wie beispiels-

wei­se Emp­feh­lungs­al­go­rith­men sowie Chat­bots umfas-

sen und die­se kom­bi­nie­ren. Die Über­gän­ge sind dabei

flie­ßend. Chat­bots etwa könn­ten Lern­in­hal­te – mit dem

jewei­li­gen rele­van­ten Lern­stoff – nicht nur empfehlen,O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 7 2

22

Über­blick bei Sabzalieva/Valentini, ChatGPT and Artificial

Intel­li­gence in hig­her edu­ca­ti­on – Quick s‌ tart gui­de, S. 9, https://

www.iesalc.unesco.org/wp-content/uploads/2023/04/ChatGPT-

and-Arti­fi­ci­al-Intel­li­gence-in-hig­her-edu­ca­ti­on-Quick-Start-

guide_EN_FINAL.pdf (Abruf 28.2.2024).

23

Eine umfas­sen­de Sy‌ ema­ti­sie­rung und recht­li­che Einordnung

bie­ten Heckmann/Rachut (Fn. 21), 85.

24

Zur daten­schutz­recht­li­chen Bewer­tung aus­führ­lich Giannopou-

lou/Ducato/Angiolini/Schneider, JIPITEC 2023, 278.

25

Dazu Hoe­ren in Salden/Leschke, Didak­ti­sche und recht­li­che Per-

s‌ pek­ti­ven auf KI-ges‌ tütz­tes Schrei­ben in der Hochschuldbildung

(2023), S. 32f.

26

Dazu insb. aus prü­fungs­recht­li­cher Pers‌ pek­ti­ve Hoeren

(Fn. 25), 35ff.

27

S. ebd.

28

Pres­se­mit­tei­lun­gen und Ver­fü­gun­gen des Garan­te per la protezi-

one dei dati per­so­na­li sind, teil­wei­se mit eng­li­scher Übersetzung,

abruf­bar unter https://www.garanteprivacy.it/web/gues‌ t/home/

doc­we­b/-/doc­web-dis‌ play/docweb/9870847 (Abruf 7.3.2024).

29

So hat der Ham­bur­gi­sche Beauf­trag­te für Daten­schutz und

Infor­ma­ti­ons­frei­heit (HmbBfDI) eine ers‌ te Checklis‌ te ers‌ tellt:

Checklis‌ te zum Ein­satz LLM-basier­ter Chat­bots, Stand 13.11.2023,

https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBf-

DI/Datenschutz/Informationen/20231113_Checklis‌ te_LL­M_Chat-

bots_DE.pdf (Abruf 7.3.2024).

son­dern in unter­schied­li­cher Dar­rei­chungs­form gene-

rie­ren, um die prä­fe­rier­te (oder gar algo­rith­misch als am

effek­tivs­ten ermit­tel­te) Lern­form indi­vi­du­el­ler Studie-

ren­der zu bedie­nen oder ein­fach das Ler­nen abwechs-

lungs­rei­cher zu gestal­ten. In der Leh­re erge­ben sich die

Ein­satz­fel­der des (ggf. beglei­te­ten) Selbst­stu­di­ums, der

Prä­senz­leh­re sowie der Prü­fung. Die fol­gen­den, nur bei-

spiel­haft auf­ge­zähl­ten Ein­satz­mög­lich­kei­ten veran-

schau­li­chen die Brei­te und Viel­falt der Konstellationen:

Im Selbst­stu­di­um:

– Aus­wahl und Emp­feh­lung von Lern­in­hal­ten anhand

all­ge­mei­ner Vor­ga­ben des Lehr­per­so­nals, potenziell

auch anhand des Lern­stands oder Vor­lie­ben indivi-

duel­ler Stu­die­ren­der (Emp­feh­lungs­sys­te­me)

– Auf­be­rei­tung und Prä­sen­ta­ti­on des Lern­stoffs in

immer wie­der abge­wan­del­ter und ggf. personalisier-

ter Form durch Sprach­mo­del­le, wobei ein KI-Chat-

bot neben vie­len ande­ren bei­spiels­wei­se die Rolle

eines sokra­ti­schen Dia­log­part­ners einnehmen

kann22

– Erstel­lung und Aus­wer­tung von Tests zur Selbst-

über­prü­fung, auch mit­tels Abwand­lung oder Perso-

nali­sie­rung, Bewer­tung von Übungsaufgaben

– Erken­nen von Lern­de­fi­zi­ten durch Aus­wer­tung des

Lern­fort­schritts, um Bera­tungs- oder Fördermaß-

nah­men zu ergreifen

In der Präsenzlehre:

– Erstel­lung von Lehrmaterialien

– Ein­bin­dung von gene­ra­ti­ver KI zur Ver­mitt­lung von

Fähig­kei­ten für den wis­sen­schaft­li­chen oder künst-

leri­schen Umgang mit KI

In der Prüfung:23

– Erken­nung von Täu­schungs­ver­su­chen (sog. E‑Proc-

toring24 oder Erken­nung von KI-gene­rier­tem Text25)

– Aus­wer­tung der Prü­fungs­leis­tung voll­stän­dig oder

teil­wei­se durch ein KI-System26

– Aus­wer­tung der Prü­fungs­leis­tung durch Lehrende,

KI-Assis­tenz beim Ver­fas­sen von Korrekturanmer-

kun­gen und Voten 27

Die Ein­satz­fel­der gehen durch­aus flie­ßend ineinan-

der über, wie schon die unver­bind­li­che Lernstandsüber-

prü­fung, abschluss­re­le­van­te Stu­di­en­leis­tun­gen ohne No-

ten­be­wer­tung oder das Selbst­stu­di­um mit anlassbezoge-

ner Ein­bin­dung des Lehr­per­so­nals ver­deut­li­chen. Abs-

trakt gespro­chen besteht eine steigende

Grund­rechts­re­le­vanz, je mehr der KI-Ein­satz von einer

ermög­li­chen­den Erwei­te­rung der Lern­mit­tel im Selbst-

stu­di­um in die hete­ro­no­me Prü­fungs­si­tua­ti­on übergeht,

wobei er zuse­hends die eige­ne Sphä­re der Studierenden

ver­lässt und künf­ti­ge beruf­li­che sowie per­sön­li­che Ent-

fal­tungs­chan­cen betrof­fen sind. Datenschutzrechtliche

Bestim­mun­gen sind aber in allen Fäl­len relevant.

III. Span­nungs­la­gen zwi­schen KI und Datenschutz

Da KI-Trai­ning und der hier im Fokus ste­hen­de KI-Ein-

satz in aller Regel per­so­nen­be­zo­ge­ne Daten benötigen,

ist zumeist auch das Daten­schutz­recht ein­schlä­gig. Auch

das Auf­kom­men der gro­ßen Sprach­mo­del­le blieb nicht

ohne daten­schutz­recht­li­che Impli­ka­tio­nen: Nachdem

die ita­lie­ni­sche Daten­schutz­auf­sichts­be­hör­de den

Betrieb von ChatGPT für Ita­li­en im März 2023 vorüber-

gehend unter­sagt und kurz dar­auf unter Auf­la­gen wieder

zuge­las­sen hat,28 scheint sich nun – auch in Anbetracht

von Alter­na­ti­ven, die mehr Daten­schutz bie­ten – bei den

Auf­sichts­be­hör­den die Ansicht durch­zu­set­zen, dass sie

unter Beach­tung bestimm­ter Maß­nah­men datenschutz-

kon­form ein­ge­setzt wer­den können.29

Mit eini­gen Vor­schrif­ten jedoch gerät KI aufgrund

ihrer tech­ni­schen Funk­ti­ons­wei­se und den wirtschaftli-

chen Bedin­gun­gen ihrer Her­stel­lung und ihres Einsatzes

in beson­de­re Spannung.Seckelmann/Horstmann · Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Daten­schutz 1 7 3

30

S. McCarthy/Minsky/Roches‌ ter/Shannon, A Pro­po­sal for the

Dart­mouth Sum­mer Rese­arch Projec‌ t on Arti­fi­ci­al Intelligence,

gekürz­te Fas­sung in AI Maga­zi­ne 2006, 12–14.

31

Ins‌ truk­tiv zur Bedeu­tung der Daten­grund­la­ge und damit verbun-

dener Ges‌ tal­tungs­ent­schei­dun­gen Barocas/Selbs‌ t, 104 Cal. L. Rev.

(2016), 671–732; Lehr/Ohm, 51 UC Davis L. Rev. (2017), 653–717.

32

Ein­füh­rend Bur­rell, Big Data & Socie­ty 2016 (1), 1–12; De Laat,

Phi­los. Tech­nol. 2018, 525 (529ff.).

33

Prä­gnant Wischmey­er (Fn. 12), 21: ”sozio-tech­ni­sche Assemblage”.

S.a. Daten­ethik­kom­mis­si­on der Bun­des­re­gie­rung, Gutachten,

2019, S. 25 (Emp­feh­lung 36).

34

Dazu Hor­nung, Trai­nings­da­ten und die Rech­te von betroffenen

Per­so­nen – in der DSGVO und dar­über hin­aus? in BMU­V/Ros-

tal­ski, Küns‌ tli­che Intel­li­genz – Wie gelingt eine vertrauenswürdi-

ge Ver­wen­dung in Deutsch­land und Euro­pa?, S. 91–120.

35

Zur mög­li­chen Absi­che­rung grup­pen­be­zo­ge­ner Zie­le durch die

DS-GVO Dreyer/Schulz, Was bringt die Datenschutz-Grundver-

ord­nung für auto­ma­ti­sier­te Entscheidungssyst‌eme?, Bertelsmann

Stif­tung 2018, S. 39f.

36

Außer­halb des Euro­päi­schen Wirt­schafts­raums (EU-Staa­ten

sowie Nor­we­gen, Liechtens‌ tein, Island).

37

Zer­dick in Ehman/Selmayr, 2. Aufl. 2018, Art. 44 DS-GVO Rn. 13.

1. Rele­van­te Merk­ma­le von KI

a) Grund­la­gen

KI bezeich­ne­te ursprüng­lich ein For­schungs­feld mit

dem Ziel der Simu­la­ti­on mög­lichst aller Aspek­te der

(mensch­li­chen) Intel­li­genz durch Computer.30 Die hier

inter­es­sie­ren­den KI-Sys­te­me sind sol­che, die überwie-

gend auf maschi­nel­lem Ler­nen beru­hen, also mit­tels der

Aus­wer­tung von Daten (Trai­nings­da­ten) unter Verwen-

dung sta­tis­ti­scher und mathe­ma­ti­scher Metho­den eine

Funk­ti­on ermit­teln, um Ein­ga­be­wer­ten eine Ausgabe

zuzu­ord­nen. Dass sich die ver­wen­de­ten Trainingsdaten

stark auf das fina­le KI-Sys­tem nie­der­schla­gen, offenbart

sich im Bon­mot „gar­ba­ge in, gar­ba­ge out“: auf einer

unzu­rei­chen­den Daten­grund­la­ge lässt sich kein brauch-

bares KI-Sys­tem trainieren.31

Auf die­se über­ra­gen­den Bedeu­tung von Daten, die

auch auf den hier im Fokus ste­hen­den KI-Ein­satz durch-

schlägt, gehen vie­le der Span­nun­gen mit dem Daten-

schutz­recht zurück. Vie­le KI-Sys­te­me, die gute Ergebnis-

se erzie­len, beru­hen im Übri­gen auf neu­ro­na­len Netzen

oder ähn­li­chen Tech­ni­ken (ins­be­son­de­re dem sog. Deep

Lear­ning). Dabei las­sen sich auf­grund der gro­ßen Da-

ten­men­gen, kom­ple­xer mathe­ma­ti­scher Gewichtungen

in den ver­deck­ten Schich­ten des Netz­werks und einiger

Metho­den zur Redu­zie­rung der benö­tig­ten Rechenleis-

tung, die Fak­to­ren, die eine bestimm­te Aus­ga­be aus-

schlag­ge­bend sind, nicht ein­deu­tig und erst recht nicht

für Nut­ze­rin­nen und Nut­zer intui­tiv ver­ständ­lich nach-

voll­zie­hen (Black-Box-Problematik).32 Wich­tig ist darü-

ber hin­aus, KI-Sys­te­me als sozio-tech­ni­sche Systeme33 zu

begrei­fen, d.h. ihre Wech­sel­wir­kung mit institutionellen,

öko­no­mi­schen und psy­cho­lo­gi­schen Fak­to­ren und Pro-

zes­sen zu berück­sich­ti­gen, die die kon­kre­ten Formen

und Wir­kun­gen des KI-Ein­sat­zes beein­flus­sen. Schließ-

lich geschieht die Her­stel­lung von KI-Sys­te­men in ver-

zweig­ten Wert­schöp­fungs­ket­ten bzw. Öko­sys­te­men, die

im Fal­le vie­ler belieb­ter KI-Sys­te­me durch US-amerika-

nische und chi­ne­si­sche Unter­neh­men domi­niert wer-

den. Dass die sub­stan­zi­el­le Durch­set­zung europäischen

Daten­schutz­rechts gegen die­se trotz beacht­li­cher Buß-

gel­der an Gren­zen stößt, ist bekannt. Für ein­zel­ne be-

trof­fe­ne Per­so­nen resul­tiert die Kom­bi­na­ti­on die­ser Um-

stän­de dar­in, dass ihnen Art und Umfang der Verarbei-

tung per­so­nen­be­zo­ge­ner Daten im Wesent­li­chen oft ver-

bor­gen blei­ben und schon man­gels Wis­sens ihrer

Kon­trol­le ent­zo­gen sein können.

b) Tren­nung und Ver­schrän­kung der Datenverarbei-

tung in Trai­ning und Einsatz

Bei KI las­sen sich die Pha­sen des Trai­nings und des Ein-

sat­zes unter­schei­den. In bei­den kön­nen personenbezo-

gene Daten ver­ar­bei­tet wer­den. Auf die Datenverarbei-

tung zu Trai­nings­zwe­cken soll hier zwar nicht näher ein-

gegan­gen werden,34 stets zu berück­sich­ti­gen ist aber, dass

sie sich stark auf die Qua­li­tät des KI-Sys­tems im Einsatz

aus­wirkt. Das Daten­schutz­recht stellt dies vor das grund-

legen­de Pro­blem, dass die Ver­ar­bei­tung personenbezo-

gener Daten einer Grup­pe natür­li­cher Per­so­nen im Trai-

ning Erkennt­nis­se über ande­re Per­so­nen ermög­licht und

sich auf ihre Rech­te, Frei­hei­ten und Inter­es­sen, zuweilen

auch als Grup­pe, aus­wir­ken kann, wäh­rend der Daten-

schutz über­wie­gend indi­vi­du­ell und an der einzelnen

Ver­ar­bei­tung ori­en­tiert kon­zi­piert ist.35

Spe­zi­el­le Pro­ble­me kön­nen durch die Tren­nung der

bei­den Pha­sen auf­tau­chen, wenn die Datenverarbeitung

für das Trai­ning eines Sys­tems in Drittstaaten36 stattfin-

det. In der Regel dürf­ten ein­zel­ne Datenverarbeitungen

(z.B. das sog. Label­ling der Daten) in Form einer Auf-

trag­s­ver­ar­bei­tung oder durch geson­der­te Ein­hei­ten des

Ver­ant­wort­li­chen durch­ge­führt wer­den. Für Datenüber-

mitt­lun­gen an die­se sind dann zusätz­lich zu den allge-

mei­nen Anfor­de­run­gen der DS-GVO die spe­zi­el­len Be-

din­gun­gen der Art. 44 ff. DS-GVO einzuhalten.37 Bei ei-

ner voll­stän­di­gen Ent­wick­lung eines Sys­tems außerhalb

des räum­li­chen Anwen­dungs­be­reichs der DS-GVO hin-

gegen kön­nen EU-Daten­schutz­stan­dards im Trai­nin­gO R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 7 4

38

U.U. mag sich dies über die Daten­qua­li­tät mit­tel­bar auch auf

betrof­fe­ne Per­so­nen in der Uni­on aus­wir­ken, durch die DS-GVO

jedoch wird es nicht adres­siert. Die KI-VO hin­ge­gen adressiert

den inter­na­tio­na­len Daten­ver­kehr indi­rekt: Sie gilt für in der

EU auf den Markt gebrach­te und ein­ge­setz­te Sys‌ teme und sogar,

wenn nur das Ergeb­nis eines Sys‌ tems in der EU ver­wen­det wird

(Art. 2 Abs. 1 lit. a), c)). Art. 10 des KI-VO for­dert mit Blick auf

die Daten­qua­li­tät u.a., dass Trai­nings­da­ten­sät­ze geeig­ne­te s‌ tatis‌ ti-

sche Eigen­schaf­ten hin­sicht­lich der vom Ein­satz eines Hochrisi-

ko-KI-Sys‌ tems betrof­fe­nen Per­so­nen oder Grup­pen aufweisen

(Abs. 3 S. 2) sowie den geo­gra­phi­schen Kon­text berücksichtigen

(Abs. 4). Dies muss nach Art. 11 auch doku­men­tiert werden.

39

So im Team-Abon­ne­ment von Ope­nAI für GPT‑4 oder bei

Ver­wen­dung einer Schnitts‌ tel­le (API), s. FAQ: Enter­pri­se privacy

at Ope­nAI (Fn. 18).

40

Hier wird exem­pla­risch das nds. Lan­des­recht herangezogen.

41

Grund­le­gend Barocas/Nissenbaum in Lane et al., Pri­va­cy, Big

data, and the Public Good: Frame­works for Enga­ge­ment (Cam-

bridge UP 2014), S. 44–75; Mit reform­ori­en­tier­ten Überlegungen

Karg, ZD 2012, 255.

42

Pur­to­va, Law, Inno­va­ti­on & Tech­nol. 2018, 40; Zie­barth in Sydow/

Marsch, 3. Aufl. 2022, Art. 4 DS-GVO Rn. 37.

43

Veale/Binns/Edwards, Phil. Trans. R. Soc. A 2018, 376:20180083;

von Maltzan/Käde, DSRITB 2020, 505; Boe­nisch, DuD 2021, 448.

44

Dazu mwN Winter/Battis/Halvani, ZD 2019, 489; anschau­lich zur

Pro­ble­ma­tik Mar­ti­ni, Black­box Algo­rith­mus – Grund­fra­gen einer

Regu­lie­rung Küns‌ tli­cher Intel­li­genz 2019, S. 160ff.

45

Winter/Battis/Halvani (Fn. 44), 492f.; Bedu­schi, Big Data & Socie-

ty 2024 (1), 1–5.

unter­schrit­ten wer­den, spä­ter aber ein Ein­satz im An-

wen­dungs­be­reich der DS-GVO stattfinden.38

Über­dies kön­nen Sys­te­me ein­ge­setzt wer­den, bei de-

nen in der Ein­satz­pha­se lau­fend neu­es Feed­back für den

ler­nen­den Algo­rith­mus gene­riert wird und damit ein

wei­te­res Trai­ning erfolgt. Gera­de bei KI, die als Dienst-

leis­tung ange­bo­ten (AI as a Ser­vice, AIaaS) oder auf

Platt­for­men ein­ge­bun­den wird, ist es mög­lich, dass die

wäh­rend des Ein­sat­zes ein­ge­ge­be­nen Daten vom Dienst-

leis­ter wie­der­um als Trai­nings­da­ten ver­wen­det werden.

Teil­wei­se bie­ten AIaaS-Anbie­ter gegen Auf­preis Leistun-

gen an, in denen Ein­ga­ben nicht für das Trai­ning ver-

wen­det werden.39

2. Aus­ge­wähl­te daten­schutz­recht­li­che Anforderungen

und resul­tie­ren­de Spannungen

Die all­ge­mei­nen Vor­schrif­ten der DS-GVO gel­ten für die

Her­stel­lung (ins­be­son­de­re das Trai­ning) und den Ein-

satz von KI im Hoch­schul­be­reich, sofern dabei perso-

nen­be­zo­ge­ne Daten ver­ar­bei­tet werden

(Art. 2 Abs. 1 DS-GVO). Die DS-GVO wird durch Lan-

des- und Bun­des­recht aus­ge­füllt und ergänzt insbeson-

dere die Lan­des­da­ten­schutz- und Landeshochschulge-

setze.40

a) Sach­li­cher und per­sön­li­cher Anwendungsbereich

Die für die Anwen­dung der DS-GVO ausschlaggeben-

den Merk­ma­le der Ver­ar­bei­tung und der personenbezo-

genen Daten sind in Art. 4 Nr. 1, 2 DS-GVO definiert.

Eine Ver­ar­bei­tung ist ent­spre­chend der offe­nen Aufzäh-

lung in Art. 4 Nr. 4 DS-GVO jeder Vor­gang im Zusam-

men­hang mit per­so­nen­be­zo­ge­nen Daten, wor­aus sich

für den hie­si­gen Zusam­men­hang kei­ne wesent­li­che Ein-

schrän­kung des Anwen­dungs­be­reichs ergibt.

Das wich­tigs­te Kri­te­ri­um für die Abgren­zung perso-

nen­be­zo­ge­ner Daten von nicht erfass­ten Sach­da­ten, sta-

tis­ti­schen oder anony­men Daten (ErwG 26 DS-GVO) ist

der Bezug zu einer iden­ti­fi­zier­ten oder identifizierbaren

natür­li­chen Per­son (betrof­fe­ne Per­son). Dass durch die

Ver­knüp­fung von Daten­be­stän­den und leistungsstarke

mathe­ma­tisch-sta­tis­ti­sche Model­le die Möglichkeiten

der Iden­ti­fi­zie­rung und Ablei­tung von Wis­sen um natür-

liche Per­so­nen – oder jeden­falls von sto­chas­tisch hinrei-

chend treff­si­che­ren Schluss­fol­ge­run­gen – im hiesigen

Kon­text enorm weit gewor­den sind, ist bei­na­he ein da-

ten­schutz­recht­li­cher Allgemeinplatz.41 Dies liegt nicht

zuletzt in der wei­ten Aus­le­gung des Personenbezugs

durch den EuGH und die Art.-29-Datenschutzgruppe

begründet.42 Es lässt sich sogar die noch nicht zufrieden-

stel­lend gelös­te Fra­ge auf­wer­fen, ob KI-Model­le selbst

per­so­nen­be­zo­ge­ne Daten ent­hal­ten, da sie die in den

Trai­nings­da­ten vor­han­de­nen Infor­ma­tio­nen abbilden

und die­se sich in infor­ma­ti­ons­tech­ni­schen Angriffssze-

nari­en ggf. sehr gra­nu­lar rekon­stru­ie­ren lassen.43 Die

Anony­mi­sie­rung als Stra­te­gie der Ver­mei­dung daten-

schutz­recht­li­cher Her­aus­for­de­run­gen wirft selbst daten-

schutz­recht­li­che Fra­gen auf und ist bei KI oft technisch

anspruchsvoll.44 Grund­sätz­lich ist dem­nach davon aus-

zuge­hen, dass in allen Pha­sen des KI-Ein­sat­zes in perso-

nen­be­zo­ge­nen Kon­tex­ten wie dem Hochschulbereich

per­so­nen­be­zo­ge­ne Daten ver­ar­bei­tet wer­den. Bei den

oben exem­pla­risch auf­ge­führ­ten Ein­satz­zwe­cken sind

die betrof­fe­nen Per­so­nen vor­ran­gig Stu­die­ren­de, wäh-

rend bei ande­ren Ein­satz­zwe­cken auch Beschäf­tig­te be-

trof­fen sein können.

Per­spek­ti­visch (und im Ein­zel­fall auch heu­te) scheint

es mög­lich, dem Per­so­nen­be­zug spe­zi­ell für das KI-Trai-

ning mit­tels der Ver­wen­dung syn­the­ti­scher Daten aus-

zuwei­chen. Die­se ent­hal­ten kei­ne Infor­ma­tio­nen über

natür­li­che Per­so­nen, wei­sen aber die für das KI-Training

not­wen­di­gen sta­tis­ti­schen Eigen­schaf­ten auf. Für die Er-

stel­lung sol­cher Daten wird ech­ten Daten­sät­zen bei-

spiels­wei­se mit­tels Tech­ni­ken der dif­fe­ren­ti­al privacy

ran­do­mi­sier­te Infor­ma­ti­on (noi­se) hin­zu­ge­fügt und ein

Daten­satz mit annä­hernd glei­chen sta­tis­ti­schen Eigen-

schaf­ten generiert.45 Man kann jedoch nicht pau­schal da-

von aus­ge­hen, dass die Schwel­le der DS-GVO zum Per-

sonen­be­zug durch ein ver­blei­ben­des Risi­ko der Re-Iden-Seckel­man­n/Horst­mann · Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Daten­schutz 1 7 5

46

Über­blick mwN bei Bedu­schi (Fn. 45).

47

Vgl. Winter/Battis/Halvani (Fn. 44), 493.

48

Für die Fes‌ tle­gung von prin­zi­pi­en­ar­ti­gen Richt­li­ni­en für syntheti-

sche Daten Bedu­schi (Fn. 45).

49

Vgl. EuGH, 29.7.2019, C‑40/17 — Fashion ID Rn. 75ff.

50

EuGH, 7.12.2023, C‑634/21 — Schufa Hol­ding (Scoring) = NJW

2024, 413 Rn. 67 mwN.

51

Schantz in Beck­OK Daten­schutzR, 46. Ed. Stand 1.11.2022, Art. 5

DS-GVO Rn. 2.

52

Schantz in Beck­OK Daten­schutzR, 46. Ed. Stand 1.11.2021,

Art. 5 DS-GVO Rn. 8.

53

Krügel/Pfeiffenbring in Daten­schutz­recht­li­che Herausforderungen

von KI in Ebers/Heinze/Krügel/Steinrötter, Küns‌ tli­che Intelligenz

und Robo­tik (2020), § 11 Rn. 22.

54

Mal­gie­ri, FAT* ’20, 154 (169).

55

Bayam­lio­g­lu, EDPL 2018, 433 (435–438).

56

Prä­gnant Pas­qua­le, The Black Box Socie­ty — The Secret Algo-

rith­ms That Con­trol Money and Infor­ma­ti­on (2016), S. 15 am

Beis‌ piel des Finanz­sek­tors: „pati­na of ine­vi­ta­bi­li­ty“. Vgl. Auch

Wischmey­er (Fn. 12), 21.

tifi­zie­rung bei syn­the­ti­schen Daten nicht überschritten

wird.46 Zudem schei­nen Auf­wand und tech­ni­sche Reife

den flä­chen­de­cken­den Ein­satz noch nicht zu ermögli-

chen.47 Es kommt hier dar­auf an, mit ver­fei­ner­ter Tech-

nik eine prä­zi­se Balan­ce zwi­schen der Begren­zung von

Infor­ma­ti­ons­ver­lust und Iden­ti­fi­zie­rungs­ri­si­ken herzu-

stel­len und die­se recht­lich abzu­si­chern. Unabhängig

vom Per­so­nen­be­zug stel­len sich bei die­sen Techniken

Fra­gen von Trans­pa­renz und Fair­ness, umso mehr mit

Blick auf einen spä­te­ren, per­so­nen­be­zo­ge­nen Einsatz.48

Auch wenn sie nicht zwin­gend den Personenbezug

aus­schlie­ßen, sind die Erkennt­nis­se in diesem

Bereich bei der Fest­le­gung geeigneter

tech­nisch-orga­ni­sa­to­ri­scher Datenschutzmaßnahmen

(Art. 24 Abs. 1, 32, 35 Abs. 7 lit. d) DS-GVO) zu

berück­sich­ti­gen.

Per­sön­lich tref­fen daten­schutz­recht­li­che Pflichten

v.a. den Ver­ant­wort­li­chen. Dies ist laut

Art. 4 Nr. 7 DS-GVO die natür­li­che oder juris­ti­sche Per-

son, Behör­de, Ein­rich­tung oder ande­re Stel­le, die allein

oder gemein­sam mit ande­ren über die Zwe­cke und Mit-

tel der Ver­ar­bei­tung von per­so­nen­be­zo­ge­nen Daten ent-

schei­det. Da es auf die Ent­schei­dung über Zwe­cke und

Mit­tel der Ver­ar­bei­tung ankommt, schließt die Auslage-

rung der Ver­ar­bei­tung selbst an eine ande­re Stel­le wie bei

der Auf­trags­ver­ar­bei­tung (Art. 4 Nr. 8 DS-GVO) die

Ver­ant­wort­lich­keit nicht aus. Ent­schließt sich die Hoch-

schu­le, eine bestimm­te KI-Anwen­dung, bei deren Ein-

satz per­so­nen­be­zo­ge­ne Daten ver­ar­bei­tet wer­den, für

ihre Zwe­cke – ins­be­son­de­re die Ergän­zung bestimmter

Lehr­tä­tig­kei­ten – ein­zu­set­zen, so ent­schei­det sie damit

idR über die Zwe­cke und Mit­tel der Datenverarbeitung

im Ein­satz. Für die zuvor zwecks KI-Trai­ning geschehe-

ne Daten­ver­ar­bei­tung ist die Hoch­schu­le hin­ge­gen nur

ver­ant­wort­lich, wenn sie die­ses Trai­ning selbst durchge-

führt oder beauf­tragt hat. Man­che Dritt­an­bie­ter verar-

bei­ten die im KI-Ein­satz von der Hoch­schu­le erhobenen

per­so­nen­be­zo­ge­nen Daten aller­dings auch zu Zwecken

des fort­wäh­ren­den KI-Trai­nings. Wenn dies nicht ausge-

schlos­sen ist, erscheint eine Ver­ant­wort­lich­keit der

Hoch­schu­le grund­sätz­lich auch für ihren tatsächlichen

Ver­an­las­sungs­bei­trag hier­zu mög­lich, näm­lich die Erhe-

bung und Über­mitt­lung der Daten.49

b) Daten­schutz­grund­sät­ze des Art. 5 DS-GVO

Das Herz­stück der mate­ri­el­len Vor­ga­ben der DS-GVO

sind die Daten­schutz­grund­sät­ze des

Art. 5 Abs. 1 DS-GVO. Sie sind bei jeder Datenverarbei-

tung zu beachten50 und auch bei der Umset­zung der spe-

ziel­len Pflich­ten zu berück­sich­ti­gen, wenn die­se einen

Inter­pre­ta­ti­ons­spiel­raum las­sen, z.B. bei der Bestim-

mung der Spei­cher­dau­er von personenbezogenen

Daten.51

Beson­de­re Pro­ble­me im Zusam­men­hang mit KI wer-

fen ins­be­son­de­re die Grund­sät­ze der Ver­ar­bei­tung nach

Treu und Glau­ben (engl. fair­ness), Trans­pa­renz und

Zweck­bin­dung auf.

Der Grund­satz von Treu und Glau­ben erfor­dert eine

Rück­sicht­nah­me auf die Inter­es­sen der betrof­fe­nen Per-

son52 und ihre legi­ti­men Erwartungen.53 Im Zusammen-

hang mit KI wird betont, dass dies neben einer gewissen

Trans­pa­renz auch impli­zie­re, bei der Gestal­tung der Ver-

arbei­tung beson­ders ihre Aus­wir­kun­gen auf betroffene

Per­so­nen (wie z.B. Dis­kri­mi­nie­rung) unter Berücksich-

tigung der spe­zi­el­len Umstän­de sowie Machtasymmetri-

en abzu­schät­zen und die Daten­ver­ar­bei­tung dem ange-

mes­sen zu gestalten.54 Macht­asym­me­trien kön­nen sich

v.a. aus der gerin­gen Nach­voll­zieh­bar­keit von KI-Out-

puts sowie aus einem Man­gel an Ein­blick in, aber auch

bereits Über­schau­bar­keit der einer KI zugrun­de gelegten

Annah­men, Daten, Kor­re­la­tio­nen und Schlüs­se für die

betrof­fe­nen Per­so­nen ergeben.55 Auch die scheinbare

Objek­ti­vi­tät und ein­ge­schränk­te Angreif­bar­keit der Er-

geb­nis­se von KI-Sys­te­men sind hier zu nennen.56

Für den eng mit dem Grund­satz von Treu und Glau-

ben ver­bun­de­nen Trans­pa­renz­grund­satz bestehen vor-

dring­lich ähn­li­che Her­aus­for­de­run­gen auf­grund der

Black-Box-Pro­ble­ma­tik. Trans­pa­renz­pflich­ten durchzie-

hen die DS-GVO, ins­be­son­de­re in Form der Informa-

tions- und Aus­kunfts­pflich­ten (Art. 13–15 DS-GVO). Für

KI sind beson­ders die Pflich­ten zur Bereit­stel­lung von

aus­sa­ge­kräf­ti­gen Infor­ma­tio­nen zur invol­vier­ten Logi­kO R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 7 6

57

Als ers‌ te Aus­wahl und mwN s. Edwards/Veale, 16 Duke L. &

Tech. Rev. (2017), 18 (54ff.); Malgieri/Comandé, IPDL 2017, 243;

Kum­kar/Roth-Isig­keit, JZ 2020, 277 (283ff.).

58

Grund­le­gend Wachter/Mittels‌ tadt/Floridi, IDPL 2017, 76; Ed-

wards/Veale (Fn. 57), 44ff.; optimis‌ tischer Goodman/Flaxman, AI

Mag 2017, 50 (55); Selbs‌ t/Powles, IDPL 2017, 233. Einen weiteren

Anwen­dungs­be­reich bie­tet jedoch das „Recht auf Erklä­rung“ bei

Hoch­ri­si­ko-KI-Sys­te­men im neu­en Art. 86 KI-VO.

59

Edwards/Veale (Fn. 57), 65ff.; Dreyer/Schulz (Fn. 35), S. 26f.

60

Vgl. Hor­nung (Fn. 34), S. 100; mit mwN auch Krügel/Pfeiffenbring

(Fn. 53), § 11 Rn. 24.

61

Laut HmbBfDI (Fn. 29), S. 2 fehlt zudem idR eine Rechtsgrund-

lage.

62

Tref­fend De Laat, (Fn. 32), 530: „[…]any account of how an

algo­rithm has been cons‌ truc‌ ted, can­not do wit­hout an account

of how data­sets have been used in the pro­cess (say, as concerns

pos­si­bly bia­sed data). So accoun­ting for machi­ne lear­ning models

can only make sen­se if all pha­ses are taken into account.”

63

Krü­gel in Krügel/Schmieder NDSG, 1. Aufl. 2023, § 12 Rn. 10.

64

Erns‌ t in Paal/Pauly, 3. Aufl. 2021, Art. 4 DS-GVO Rn. 78.

bei auto­ma­ti­sier­ter Ent­schei­dungs­fin­dung (Art. 13 Abs. 2

lit. f), 14 Abs. 2 lit. g), 15 Abs. 1 lit. h) DS-GVO) relevant.

Sie bie­ten im Lich­te des Trans­pa­renz­grund­sat­zes (sowie

des Grund­sat­zes von Treu und Glau­ben) angewendet

Poten­zi­al, die inhä­ren­ten Trans­pa­renz- und Bestreitbar-

keits­de­fi­zi­te von KI zu adres­sie­ren. Dabei wird eine Viel-

zahl von For­men der Trans­pa­renz und benachbarten

Kon­zep­ten diskutiert.57 Das Poten­zi­al ist aber angesichts

von Beschrän­kun­gen und Strei­tig­kei­ten bezüg­lich des

Anwen­dungs­be­reichs und Inhalts der genann­ten Pflich-

ten stark begrenzt.58 Zugleich ist Trans­pa­renz kein All-

heil­mit­tel für die Wah­rung der dahinterstehenden

Schutz­gü­ter wie Auto­no­mie oder Nichtdiskriminierung,

da die Wir­kungs­me­cha­nis­men kom­plex sind und Trans-

parenz häu­fig nicht zu selbst­be­stimm­tem Han­deln führt

oder das Erken­nen grup­pen­be­zo­ge­ner Benachteiligun-

gen erlaubt.59

Der Grund­satz der Zweck­bin­dung wird bei KI insbe-

son­de­re dadurch infra­ge gestellt, dass poten­zi­ell alle Da-

ten wert­vol­le Trai­nings­da­ten für die Weiterentwicklung

eines Sys­tems oder das Trai­ning neu­er Sys­te­me darstel-

len.60 Doch der Zweck­bin­dungs­grund­satz for­dert, dass

per­so­nen­be­zo­ge­ne Daten nur ver­ar­bei­tet wer­den, wenn

und soweit dies für den ursprüng­li­chen Zweck ihrer Er-

hebung erfor­der­lich ist. Zwar gel­ten Ausnahmen

(s. Art. 6 Abs. 4 DS-GVO), die sog. Zweckvereinbarkeit

ist aber ins­be­son­de­re auf­grund einer feh­len­den Verbin-

dung des KI-Trai­nings zum ursprüng­li­chen Zweck (idR

Durch­füh­rung der Leh­re) fraglich.61 Ins­be­son­de­re hat

die Hoch­schu­le daher dar­auf zu ach­ten, ob Anbie­ter von

KI-Sys­te­men, die zum Zweck der Hoch­schul­leh­re einge-

setzt wer­den, Daten auch für eige­ne Zwe­cke, z.B. für das

Trai­ning ver­wen­den und dies mög­lichst auszuschließen.

Eine (Teil-)Verantwortlichkeit der Hoch­schu­le für diese

zweck­än­dern­de Daten­ver­ar­bei­tung ist dabei nämlich

idR schwie­rig aus­zu­schlie­ßen (s. oben).

Den Ver­ant­wort­li­chen trifft dar­über hin­aus nach

Art. 5 Abs. 2 DS-GVO eine Rechen­schafts­pflicht für die

Ein­hal­tung der Daten­schutz­grund­sät­ze. Herausfordernd

ist dies ins­be­son­de­re beim Rück­griff auf Dritt­an­bie­ter, in

deren Daten­ver­ar­bei­tung die Hoch­schu­le selbst nur ei-

nen begrenz­ten Ein­blick hat.

Erneut sei hier auf die Ver­schrän­kung von Trainings-

pha­se und KI-Ein­satz hin­ge­wie­sen, die auch Bedeutung

iRd Daten­schutz­grund­sät­ze erlangt. Beson­ders betrifft

dies die Grund­sät­ze der Trans­pa­renz und der Rechen-

schafts­pflicht, die häu­fig die Berück­sich­ti­gung der Ge-

stal­tung des KI-Sys­tems erfordern.62 Perspektivisch

könn­ten die Pflich­ten zur Doku­men­ta­ti­on und Transpa-

renz für die Anbie­ter von Hochrisiko-KI-Systemen

(Art. 11, 13 KI-VO) für die daten­schutz­recht­lich Verant-

wort­li­chen die Berück­sich­ti­gung von gestalterischen

Vor­ent­schei­dun­gen bei der Erfül­lung ihrer eigenen

Pflich­ten ermög­li­chen. Im Übri­gen ist beson­ders die Re-

chen­schafts­pflicht bei der Aus­wahl von Dienstleistern

und dem Abschluss ent­spre­chen­der Ver­trä­ge zu

berück­sich­ti­gen.

c) Rechts­grund­la­gen

Nach Art. 6 Abs. 1 UAbs. 1 DS-GVO erfor­dert jede Ver-

arbei­tung per­so­nen­be­zo­ge­ner Daten eine der dort aufge-

führ­ten Rechts­grund­la­gen. Da die Öff­nungs­klau­sel in

Art. 6 Abs. 2, 3, Art. 89 DS-GVO nur die Ver­ar­bei­tung zu

„wis­sen­schaft­li­chen und his­to­ri­schen Forschungszwe-

cken” erfasst, sind die davon Gebrauch machen­den mit-

glied­staat­li­chen Rege­lun­gen zuguns­ten der Leh­re nicht

anwendbar.63

Für den KI-Ein­satz in der Leh­re kommt daher zu-

nächst die Ein­wil­li­gung der betrof­fe­nen Per­son, idR Stu-

die­ren­de, nach Art. 6 Abs. 1 UAbs. 1 lit. a) DS-GVO in

Betracht. Dafür muss die betrof­fe­ne Per­son nach

Art. 4 Nr. 11 DS-GVO frei­wil­lig für den bestimm­ten Fall,

in infor­mier­ter Wei­se und unmiss­ver­ständ­lich eine Wil-

lens­be­kun­dung abge­ben, dass sie mit der Datenverarbei-

tung ein­ver­stan­den ist. Pro­ble­ma­tisch ist bei KI die Be-

stimmt­heit für den kon­kre­ten Fall. Die­se muss hinrei-

chend kon­kret min­des­tens die invol­vier­ten Stel­len, ver-

arbei­te­ten Daten und die ver­folg­ten Verarbeitungszwecke

in Bezug neh­men (ErwG 32 DS-GVO).64 Wer­den bei der

Nut­zung von KI im Hoch­schul­kon­text neben den für

die­se Nut­zung selbst erfor­der­li­chen Datenverarbeitun-

gen zusätz­li­che Ver­ar­bei­tun­gen durch Drit­te vorgenom-

men, z.B. auf­grund der Nut­zung von Drittanbieter-KI,

bei der Nut­zungs­da­ten für das wei­te­re Trai­ning ver­wen-Seckel­man­n/Horst­mann · Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Daten­schutz 1 7 7

65

Fren­zel in Paal/Pauly, 3. Aufl. 2021, Art. 7 DS-GVO Rn. 19.

66

Vgl. Patz­ke in Epping NHG, 2. Aufl. 2024, § 3 Rn. 10 zu neuen

Lehr­me­tho­den und E‑Learning.

67

Vgl. Günther/Gerigk/Berger, NZA 2024, 234 mwN.

68

Vgl. Forgó/Graupe in Epping NHG, 2. Aufl. 2024, § 17 Rn. 23.

69

Zu den Regelungss‌ piel­räu­men Heckmann/Rachut (Fn. 21), 89.

det wer­den, erscheint es kaum dar­stell­bar, die betreffen-

den Ver­ar­bei­tungs­vor­gän­ge hin­rei­chend bestimmt in die

Ein­wil­li­gung auf­zu­neh­men. Als wei­te­re Hür­de dürfte

das Erfor­der­nis der Frei­wil­lig­keit die Ein­wil­li­gung als

Rechts­grund­la­ge in vie­len Situa­tio­nen ausschließen.

Art. 7 Abs. 4 DS-GVO und ErwG 43 kon­kre­ti­sie­ren die

Vor­aus­set­zun­gen der Frei­wil­lig­keit, wobei insbesondere

ErwG 43 auf unglei­che Ungleich­ge­wich­te zwi­schen be-

trof­fe­ner Per­son und Ver­ant­wort­li­chem als Ausschluss-

grund abstellt, für das die Behör­den­stel­lung des Verant-

wort­li­chen als Indiz in der gel­ten kann. Wenngleich

ErwG 43 trotz­dem eine Ein­zel­fall­prü­fung nahe­legt, ist

die Frei­wil­lig­keit gegen­über einer Behör­de ein Ausnah-

mefall.65 Die Frei­wil­lig­keit ist damit v.a. dann zu vernei-

nen, wenn die Hoch­schu­le in hoheit­li­cher Tätig­keit oder

deren Vor­be­rei­tung han­delt wie etwa bei Prüfungen,

aber ange­sichts der Bedeu­tung des Studienabschlusses

für die Lebens­ge­stal­tung und Wahr­neh­mung grund-

recht­li­cher Frei­hei­ten auch, wenn die Teil­nah­me an dem

mit der Daten­ver­ar­bei­tung ver­bun­de­nen Ange­bot essen-

ziell ist, um ohne wesent­li­che Ver­län­ge­rung der Studien-

dau­er oder Ein­bu­ßen bei der Beno­tung einen Studienab-

schluss zu errei­chen. Schließ­lich ist die Ein­wil­li­gung je-

der­zeit wider­ruf­lich (Art. 7 Abs. 3 DS-GVO), was sie für

eine ihrem prak­ti­schen Zweck nach dau­er­haf­te oder mit

Inter­es­sen der betrof­fe­nen Per­son poten­zi­ell konfligie-

ren­de Daten­ver­ar­bei­tung (bei­spiels­wei­se zu Prüfungs-

zwe­cken) nicht sinn­voll erschei­nen lässt.

Denk­bar ist eine Ein­wil­li­gung in der Hochschullehre

ins­be­son­de­re für Zusatz­an­ge­bo­te in der Leh­re wie z.B.

optio­na­le Kurs­an­ge­bo­te, die für die Errei­chung von be-

rufs­qua­li­fi­zie­ren­den Abschlüs­sen kei­ne not­wen­di­ge Vo-

raus­set­zung sind. Je stär­ker der Stu­di­en­erfolg aber durch

der­ar­ti­ge Ange­bo­te beein­flusst wird, des­to eher kann es

jedoch zu psy­cho­lo­gi­schen und öko­no­mi­schen Drucksi-

tua­tio­nen kom­men, die die Frei­wil­lig­keit der Einwilli-

gung infra­ge stellen.

Hoch­schu­len neh­men grund­sätz­lich Auf­ga­ben im öf-

fent­li­chen Inter­es­se wahr, sodass idR und vorzugswürdig

eine Rechts­grund­la­ge nach Art. 6 Abs. 1 UAbs. 1 lit. e)

DS-GVO in Betracht kommt, die sich nach Ab. 3 aus

dem Uni­ons- oder mit­glied­staat­li­chen Recht ergeben

muss. Ein­schlä­gi­ge Rege­lun­gen bie­ten die Landeshoch-

schul- und Lan­des­da­ten­schutz­ge­set­ze. § 17 Abs. 1, 4 NHG

erlaubt den nie­der­säch­si­schen Hoch­schu­len neben wei-

teren Zwe­cken etwa u.a. die Ver­ar­bei­tung von personen-

bezo­ge­nen Daten, die für die Ein­schrei­bung, die Teil-

nah­me an Lehr­ver­an­stal­tun­gen und Prü­fun­gen, die Nut-

zung von Hoch­schul­ein­rich­tun­gen Hochschulmitglie-

dern erfor­der­lich und durch Ord­nun­gen fest­ge­legt sind,

wobei § 17 Abs. 3 NHG die Ver­ar­bei­tung die­ser Daten ge-

neral­klau­sel­ar­tig auch für die Erfül­lung ande­rer Aufga-

ben nach § 3 NHG erlaubt. Eine mit­tel­ba­re Beschrän-

kung dürf­te sich aus den lehr­be­zo­ge­nen Auf­ga­ben der

Hoch­schu­le erge­ben, die nach § 3 NHG insbesondere

”die Vor­be­rei­tung auf beruf­li­che Tätig­kei­ten, die die An-

wen­dung wis­sen­schaft­li­cher Erkennt­nis­se und Metho-

den oder die Fähig­keit zu künst­le­ri­scher Gestal­tung vor-

aus­set­zen” (Nr. 2), umfas­sen. Zu beach­ten ist, dass die

ver­mit­tel­ten Erkennt­nis­se und Metho­den wissenschaft-

lich sein oder die Fähig­keit zur künst­le­ri­schen Gestal-

tung betref­fen müs­sen. Von einer wissenschaftlich-me-

tho­di­schen Vor­ge­hens­wei­se ist frei­lich auch die Erpro-

bung neu­er For­ma­te und Medi­en umfasst,66 ein KI-Ein-

satz allein zwecks Neu­ig­keits­werts oder „Show-Effekts“

könn­te im Ein­zel­fall pro­ble­ma­tisch sein. Ein­ge­denk der

Lehr­frei­heit (Art. 5 Abs. 3 GG) ist aber eine wei­te, die au-

tono­men Gesetz­mä­ßig­kei­ten der Wis­sen­schaft berück-

sich­ti­gen­de Aus­le­gung gebo­ten. Dar­über hin­aus ist zu

beach­ten, dass auch die Arbeits­welt von der Verbreitung

von KI geprägt wird. Der geschul­te Umgang mit (gene­ra-

tiver) KI wird vor­aus­sicht­lich zu einer Schlüsselanforde-

rung in nahe­zu allen Tätig­keits­be­rei­chen von Beschäf-

tig­ten mit wis­sen­schaft­li­cher oder künst­le­ri­scher Ausbil-

dung werden.67 Die Vor­be­rei­tung auf ent­spre­chen­de be-

ruf­li­che Tätig­kei­ten und die Ver­mitt­lung eines

kri­tisch-metho­di­schen Umgangs mit der Technologie

wird die Hoch­schul­leh­re daher nur ange­mes­sen leisten

kön­nen, wenn sie in gewis­sem Umfang gene­ra­ti­ve KI

ein­set­zen und den Umgang mit ihr ein­üben las­sen kann.

Die mit dem Ein­satz ver­bun­de­ne Datenverarbeitung

muss frei­lich wei­ter­hin den Datenschutzgrundsätzen

und wei­te­ren Regeln der DS-GVO und dem grundrecht-

lichen Ver­hält­nis­mä­ßig­keits­grund­satz entsprechen.68

Damit ist ent­schei­dend, dass die zu verarbeitenden

Daten gemäß § 17 Abs. 3 NHG in einer universitären

Ord­nung in hin­rei­chen­der Bestimmt­heit bezüg­lich der

Daten­ar­ten, der Ver­ar­bei­tungs­ver­fah­ren und mit Benen-

nung des jewei­li­gen Ver­ar­bei­tungs­zwecks fest­ge­legt wer-

den. Hin­zu tre­ten Bestim­mun­gen zu technisch-organi-

sato­ri­schem Daten­schutz und zu Lösch­pflich­ten. Je nach

Ein­satz­zweck und Gege­ben­hei­ten an der Hochschule

kom­men Stu­di­en­ord­nun­gen, Prüfungsordnungen69 oder

geson­der­te Ord­nun­gen zum Ein­satz von E‑Learning in

Betracht. Auf­grund der oben ange­spro­che­nen, grund-

rechts­re­le­van­ten Merk­ma­le von KI scheint es sinnvoll,O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 7 8

70

Dies is‌ t an der Erfor­der­lich­keit für den Ver­ar­bei­tungs­zweck zu

bemes­sen, Forgó/Graupe in Epping NHG, 2. Aufl. 2024, § 17

Rn. 38.

71

Beis‌ piels­wei­se hat der LfDI Baden-Würt­tem­berg bei einer Prü-

fung von Micro­soft Office 365 in einer für den Schul­ein­satz kon-

figu­rier­ten Ver­si­on wei­ter­hin Daten­trans­fers, ins­be­son­de­re von

Tele­me­trie- und Dia­gno­se­da­ten, in die USA fes‌ tges‌ tellt, die nicht

unter­bun­den wer­den kön­nen, https://www.baden-wuerttemberg.

datenschutz.de/ms-365-schulen-hinweise-weiteres-vorgehen/

(Abruf 6.3.2024). In den Daten­schutz­hin­wei­sen von OpenAI

heißt es knapp: „Whe­re requi­red, we will use appro­pria­te safe-

guards for trans­fer­ring Per­so­nal Infor­ma­ti­on out­side of certain

count­ries. We will only trans­fer Per­so­nal Infor­ma­ti­on pur­su­ant to

a legal­ly valid trans­fer mecha­nism.”, https://openai.com/policies/

pri­va­cy-poli­cy (Abruf 6.3.2024).

72

EuGH, 6.10.2015, C‑362/14 — Schrems = NJW 2015, 3151 und

EuGH, 16.7.2020, C‑311/18 — Face­book Ire­land und Schrems =

NJW 2020, 2613.

73

Glo­cker, ZD 2023, 189 (192ff.).

74

Für Beis‌ pie­le aus der Pra­xis s. Bar­ros Vale/Zan­fir-For­tu­na,

Auto­ma­ted Decis­i­on-Making Under the GDPR: Prac‌ tical Cases

from Courts and Data Protec‌ tion Aut­ho­ri­ties (2023), S. 20. Zu

Infor­ma­ti­ons- und Auskunfts‌ pflich­ten s.a. Sesing, MMR 2021, 288

(289f.).

auch Fra­gen der Anbie­ter­wahl und der Gewährleistung

von Trans­pa­renz der Sys­te­me zu regeln. Beson­ders zu

beach­ten ist bei allen gemäß Art. 6 Abs. 1 UAbs. 1 lit. e)

DS-GVO auf die Wahr­neh­mung einer im öffentlichen

Inter­es­se lie­gen­den Auf­ga­be gestütz­ten Rechtsgrundla-

gen wie § 17 Abs. 1, 3 NHG, dass betrof­fe­ne Per­so­nen ge-

mäß Art. 21 Abs. 1 DS-GVO unter Vor­trag von aus ihrer

beson­de­ren Situa­ti­on ent­sprin­gen­den Grün­den ein uni-

ons­recht­lich ver­an­ker­tes Wider­spruchs­recht haben.

Schließ­lich erfor­dert § 17 Abs. 3 S. 2 NHG die frühest-

mögliche70 Anony­mi­sie­rung, was bei leis­tungs­star­ker KI

mit einer Viel­zahl von Ein­gangs­da­ten auf die dargestell-

ten Schwie­rig­kei­ten stößt. Soweit zudem der Zweck des

KI-Ein­sat­zes die Per­so­na­li­sie­rung der Lernumgebung

oder der Lern­in­hal­te beinhal­tet, wird er idR einen Perso-

nen­be­zug erfor­dern. Dies ver­schiebt den Schutz der be-

trof­fe­nen Per­so­nen zum Verhältnismäßigkeitsgrundsatz

und zur tech­ni­schen und orga­ni­sa­to­ri­schen Gestaltung

der KI-Sys­te­me und ihres Einsatzes.

d) Über­mitt­lung in Drittstaaten

Gegen­über der Ent­wick­lung eige­ner Sys­te­me ist die Ver-

wen­dung von durch Drit­te ent­wi­ckel­ten KI-Sys­te­men in

aller Regel tech­nisch und wirt­schaft­lich ein­fa­cher. Die

Domi­nanz von Anbie­tern aus Dritt­staa­ten führt dazu,

dass es dabei für Hoch­schu­len nahe liegt, für die Einbin-

dung von KI auf die­se Anbie­ter zurück­zu­grei­fen, die bis-

wei­len per­so­nen­be­zo­ge­ne Daten in die USA oder andere

Dritt­staa­ten übermitteln.71 Die DS-GVO geht aber davon

aus, dass bei der Über­mitt­lung von Daten an Stellen

außer­halb ihres Anwen­dungs­be­reichs ein hinreichendes

Daten­schutz­ni­veau nur unter zusätz­li­chen Bedingungen

ange­nom­men wer­den kann, die in den

Art 44ff. DS-GVO nie­der­ge­legt sind. Für Verantwortli-

che führt dies zu zusätz­li­chen Unwäg­bar­kei­ten und

Anfor­de­run­gen. Eine Grund­la­ge für Daten­trans­fers stel-

len die Beschlüs­se der EU-Kom­mis­si­on über ein ange-

mes­se­nes Daten­schutz­ni­veau in Dritt­staa­ten dar (Art. 45

DS-GVO). Im Fal­le der USA sind die dor­ti­gen Regelun-

gen jedoch trotz einem Ange­mes­sen­heits­be­schluss auf

Grund­la­ge von Über­ein­kom­men zu beson­de­ren Daten-

schutz­rah­men vom EuGH wie­der­holt als unzureichende

Grund­la­ge für eine Über­mitt­lung personenbezogener

Daten qua­li­fi­ziert wurden.72 Die der­zei­ti­ge Lösung für

Daten­über­mitt­lun­gen in die USA ist das Trans-Atlantic

Data Pri­va­cy Frame­work, bei dem jedoch auch aufgrund

bereits ange­kün­dig­ter Kla­gen eben­falls Unsi­cher­heit ver-

bleibt.73

Bei der Aus­wahl von KI-Sys­te­men ist des­halb sorg-

fäl­tig zu prü­fen, ob Daten­über­mitt­lun­gen in Drittstaaten

aus­ge­schlos­sen wer­den kön­nen. Auch im Hin­blick auf

die tech­nisch-orga­ni­sa­to­ri­schen Maß­nah­men (dazu un-

ten) scheint es vor­zugs­wür­dig, Sys­te­me nach Möglich-

keit per Schnitt­stel­le auf eige­nen Ser­vern zu betreiben

oder per­so­nen­be­zo­ge­ne Daten nur auf dem Gerät der

oder des Nut­zen­den zu verarbeiten.

e) Pro­fil­ing und auto­ma­ti­sier­te Ent­schei­dung im Ein-

zel­fall

Eini­ge Anwen­dun­gen von KI kön­nen im Ein­zel­fall ein

Pro­fil­ing beinhal­ten. Dies gilt etwa, wenn personenbezo-

gene Daten ana­ly­siert wer­den, um damit E‑Lear­ning-

Ange­bo­te zu per­so­na­li­sie­ren und mit­hil­fe von Schlüssen

auf Merk­ma­le wie Arbeits­leis­tung, per­sön­li­che Vorlie-

ben oder Inter­es­sen z.B. Lern­ma­te­ri­al zu emp­feh­len oder

das Umfeld auf einer E‑Lear­ning-Platt­form zu gestalten.

Eine Ana­ly­se sol­cher Aspek­te stellt Pro­fil­ing iSd

Art. 4 Nr. 4 DS-GVO dar. Die­ses ist in der DS-GVO über

die­se Defi­ni­ti­on hin­aus nicht spe­zi­ell gere­gelt, jedoch

deu­tet die DS-GVO eine gra­du­el­le Stei­ge­rung einiger

Pflich­ten an, wenn Pro­fil­ing vorliegt.74 Dies gilt insbe-

son­de­re für Trans­pa­renz­pflich­ten. Im Rah­men der

Anwen­dung unbe­stimm­ter Rechts­be­grif­fe, die insbeson-

dere in Rechts­grund­la­gen und Datenschutzgrundsätzen

vor­han­den sind, ist ein Pro­fil­ing als beson­ders eingriffs-

inten­si­ve Daten­ver­ar­bei­tung zu berücksichtigen.

Pro­fil­ing kann auch in eine auto­ma­ti­sier­te Entschei-

dungs­fin­dung im Ein­zel­fall gemäß Art. 22 DS-GVOS­e­ckel­man­n/Horst­mann · Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Daten­schutz 1 7 9

75

Zum Zeit­punkt des Ein­sat­zes des Ofqual-Algo­rith­mus im Som-

mer 2020 war das Ver­ei­nig­te König­reich seit dem 31.01.2020 aus

der Euro­päi­schen Uni­on aus­ge­tre­ten, jedoch galt ihr Inhalt als

UK GDPR soweit ersicht­lich bis 31.12.2020 unver­än­dert fort. Im

Zwi­schen­be­richt von Ofqual (Fn. 3) fin­den sich kei­ne rechtlichen

Aus­füh­run­gen.

76

Eine ver­trag­li­che Not­wen­dig­keit, lit. a), schei­det hier eben­so aus

wie eine Ein­wil­li­gung, lit. c) (s.o.). Allen­falls käme eine gesetzli-

che Rege­lung, lit. b), in Betracht, die soweit ersicht­lich fehlt.

77

Hors‌ tmann/Dalmer, ZD 2022, 260 (263) mwN; zur Kri­tik Krügel/

Pfeif­fen­bring (Fn. 53), § 11 Rn. 46ff.

78

EuGH, C‑634/21 — Schufa Hol­ding (Scoring) = NJW 2024, 413,

Rn. 40ff.

79

Krit. Thüsing/Peisker/Musiol, RDV 2023, 82; Tae­ger, BKR 2024, 41;

Marsch/Kratz, NJW 2024, 392 (393 Rn. 4f.).

80

So die Inter­pre­ta­ti­on bei Hei­ne, NZA 2024, 33 (36).

81

Vgl. dies nur andeu­tend Hei­ne (Fn. 80), 36: Beur­tei­lung im Ein-

zel­fall „anhand der inter­nen Regeln und Prak­ti­ken des Verant-

wort­li­chen”.

82

Die­se sind auch in die zum KI-Sys‌ tem gehö­ri­ge Dokumentation

(Art. 11 iVm Annex IV Nr. 2 (e), 3 KI-VO) sowie die Gebrauchs-

anwei­sun­gen (Art. 13 Abs. 3 (d) KI-VO) aufzunehmen.

83

Für eine Ein­zel­fall­prü­fung des Dazwi­schen­tre­tens bei Entschei-

dungs­emp­feh­lun­gen schon Hors‌ tmann/Dalmer (Fn. 77), 262;

Hei­ne (Fn. 80), 36.

84

So geht Hoe­ren (Fn. 25), S. 37, jeden­falls davon aus, dass bei einem

Ein­satz von KI-Schreib­tools in die­sem Fall ”daten­schutz­recht­lich

nichts zu befürch­ten” sei, geht s‌ päter aber trotz­dem auf Art. 22

DS-GVO ein.

85

S. EuGH, 20.12.2017, C‑434/16 — Nowak = ZD 2018, 113 Rn. 30.

über­ge­hen. Eine sol­che Ent­schei­dungs­fin­dung, wie sie

im Aus­gangs­bei­spiel Ofqual anzu­neh­men sein dürfte,75

unter­liegt den zusätz­li­chen Rechtmäßigkeitsanforderun-

gen einer spe­zi­el­len Rechts­grund­la­ge für die Entschei-

dungs­fin­dung sowie spe­zi­el­len Schutz­maß­nah­men (bei-

spiels­wei­se der Gewähr­leis­tung eines Rechts auf Anfech-

tung und mensch­li­che Über­prü­fung). Der­zeit ist keine

der Rechts­grund­la­gen aus Art. 22 Abs. 2 DS-GVO für die

Hoch­schu­le einschlägig,76 sodass KI-Ein­satz im Anwen-

dungs­be­reich der Rege­lung aus­schei­det. Anwendbar

sind die­se Rege­lun­gen aber nur dann, wenn eine Ent-

schei­dung aus­schließ­lich auf einer auto­ma­ti­sier­ten Ver-

arbei­tung per­so­nen­be­zo­ge­ner Daten beruht und rechtli-

che Wir­kung ent­fal­tet oder die betrof­fe­ne Per­son in

sons­ti­ger Wei­se erheb­lich beeinträchtigt.

Aus­ge­hend vom grund­sätz­li­chen Befund der auto-

mati­sier­ten Daten­ver­ar­bei­tung bei KI-Ein­satz (III.2.a)

sind das aus­schließ­li­che Beru­hen einer Entscheidung

dar­auf und die Wir­kun­gen der Ent­schei­dung für den

Anwen­dungs­be­reich aus­schlag­ge­bend. Nach­dem bislang

– durch­aus ver­bun­den mit Kri­tik – die Anwendbarkeit

die­ser Rege­lun­gen auf die auto­ma­ti­sier­te Entscheidungs-

vor­be­rei­tung ganz über­wie­gend ver­neint wurde,77 hat

der EuGH in sei­ner jüngs­ten Ent­schei­dung zum Kredit-

scoring die kon­zep­tio­nel­le Ver­bin­dung zwi­schen Profi-

ling und auto­ma­ti­sier­ter Ein­zel­fall­ent­schei­dung unter-

stri­chen und den Art. 22 DS-GVO für eine gra­du­el­le An-

wen­dung geöffnet.78 Das im Fall betrof­fe­ne Kreditsco-

ring, eine Form des bewer­ten­den Pro­filings, kann danach

nicht per se als rei­ne Vor­stu­fe zu einer automatisierten

Ent­schei­dung ein­ge­ord­net wer­den, son­dern ist bereits

selbst als Ent­schei­dung iSd Art. 22 DS-GVO anzusehen,

wenn ein ver­trags­be­zo­ge­nes Ver­hal­ten Drit­ter, dem das

Ergeb­nis des Pro­filings über­mit­telt wird, maß­geb­lich da-

von abhängt. Löst das Ver­hal­ten des Drit­ten eine den

Anfor­de­run­gen von Art. 22 DS-GVO entsprechende

recht­li­che Fol­ge oder Beein­träch­ti­gung unmit­tel­bar aus,

wird die­se dem Pro­fil­ing gewis­ser­ma­ßen zugerechnet.79

Das Urteil lässt wei­te­re Schlüs­se zu: Ins­be­son­de­re eröff-

net es die Mög­lich­keit, dass eine mit KI-Unterstützung

durch einen Men­schen getä­tig­te Ent­schei­dung entspre-

chend dem zwei­ten Tat­be­stands­merk­mal des

Art. 22 Abs. 1 DS-GVO aus­schließ­lich auf einer automa-

tisier­ten Ver­ar­bei­tung beru­hend ein­zu­stu­fen ist, wenn

die fina­le Ent­schei­dung die­ses Men­schen von der KI von

einer durch KI mit­tels Pro­fil­ing oder ähn­li­che automati-

sier­te Daten­ver­ar­bei­tung ermit­tel­ten Bewer­tung maß-

geblich abhängt.80 Damit muss für die Beur­tei­lung eines

die Aus­schließ­lich­keit unter­bre­chen­den menschlichen

Dazwi­schen­tre­tens statt einer for­mel­len Betrachtung

sub­stan­zi­ell die Mensch-Maschi­ne-Inter­ak­ti­on unter

Beach­tung von Fak­to­ren wie ins­be­son­de­re der Präsenta-

tions­form des KI-Out­puts und ihrer arbeitsvertragli-

chen, betriebs­or­ga­ni­sa­to­ri­schen und arbeitspsychologi-

schen Ein­bin­dung betrach­tet werden.81 In Zukunft kön-

nen bei Hoch­ri­si­ko-KI-Sys­te­men dazu die Maßnahmen

her­an­ge­zo­gen wer­den, die das ein­ge­setz­te Sys­tem auf-

grund der Anbie­ter­ver­pflich­tung zur Gestal­tung zu-

guns­ten wirk­sa­mer mensch­li­cher Auf­sicht in Art. 14 KI-

VO ermöglicht82 und die nach Art. 26 Abs. 2 KI-VO auch

vom Nut­zer umge­setzt wor­den sind. Die Beur­tei­lung der

Maß­geb­lich­keit ist von einer sorg­fäl­ti­gen Einzelfallprü-

fung abhängig.83

Nach alle­dem ist neben offen­sicht­li­chen Anwen-

dungs­fäl­len wie der voll­au­to­ma­ti­sier­ten Erken­nung von

Täu­schungs­ver­su­chen oder Aus­wer­tung von Prüfungs-

leis­tun­gen auch beim Ein­satz gene­ra­ti­ver KI für das Ver-

fas­sen einer Prü­fungs­be­wer­tung die Anwend­bar­keit des

Art. 22 DS-GVO denk­bar. Zwar könn­te man annehmen,

es feh­le an per­so­nen­be­zo­ge­nen Daten, wenn lediglich

die Ant­wor­ten eines Prüf­lings ohne identifizierende

Merk­ma­le in ein KI-Sys­tem ein­ge­ge­ben werden,84 doch

dürf­te nach EuGH-Recht­spre­chung ein Personenbezug

für die Hoch­schu­le bestehen, da die Ant­wor­ten ihrem

Ver­ar­bei­tungs­zweck nach für die Bewer­tung des für sie

iden­ti­fi­zier­ba­ren Prüf­lings ver­wen­det werden.85

Auf die­ser Daten­ver­ar­bei­tung kann eine Entschei-

dung nicht erst dann aus­schließ­lich beru­hen, wenn dieO R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 8 0

86

Krügel/Pfeiffenbring (Fn. 53), § 11 Rn. 45 mwN.

87

Krügel/Pfeiffenbring (Fn. 53), § 11 Rn. 45; Günther/Gerigk/Berger

(Fn. 67), 236.

88

Mar­ti­ni in Paal/Pauly, 3. Aufl. 2021, Art. 22 DS-GVO Rn. 27.

89

Hei­ne (Fn. 80), 36.

90

Art.-29-Arbeitsgruppe, WP251rev.01 – Leit­li­ni­en zu automatisier-

ten Ent­schei­dun­gen im Ein­zel­fall ein­schließ­lich Pro­fil­ing für die

Zwe­cke der Ver­ord­nung 2016/679, 6.2.2018, S. 23.

91

Jarass in Jarass, Char­ta der Grund­rech­te der EU, 4. Auf­la­ge 2021,

Art. 14 Rn. 10.

92

Mar­ti­ni in Paal/Pauly, 3. Aufl. 2021, Art. 22 DS-GVO Rn. 28.

93

Eine Legal­de­fi­ni­ti­on mit der Alters­gren­ze von 18 Jah­ren in Art.

4 Nr. 18 des DS-GVO-Kom­mis­si­ons­ent­wurfs wur­de zwar abge-

lehnt, Art. 8 Abs. 1 S. 1 DS-GVO zeigt aber, dass die Altersgrenze

jeden­falls über 16 Jah­ren liegt (für Voll­jäh­rig­keit als Grenze

Martini/Nink, NVwZ-Extra 2017, 1 (6 Fn. 53). Auch die Auslegung

im Lich­te der GRCh und inter­na­tio­na­len Rechts s‌ pricht für diese

Gren­ze (Frei, Buce­ri­us L. J. 2022, 74 (75)).

94

Dies is‌ t auch die Schluss­fol­ge­rung der Art.-29-Arbeitsgruppe

(Fn. 90), S. 31 aus ErwG 71 S. 5, des­sen Wort­laut im Kontras‌ t zum

Feh­len eines abso­lu­ten Ver­bots in den ver­fü­gen­den Teil s‌ teht.

95

Zudem is‌ t zu beach­ten, dass der Anwen­dungs­be­reich des

Hoch­ri­si­ko-Regimes im KI-VO in Annex III Nr. 3 (b) gegenüber

dem urs‌ prüng­li­chen Kom­mis­si­ons­ent­wurf auch auf KI-Sys‌ teme

zur Bewer­tung von Lern­ergeb­nis­sen aus­ge­wei­tet wur­de, auch

wenn die­se Ergeb­nis­se zur Steue­rung des Lern­pro­zes­ses dienen.

kor­ri­gie­ren­de Per­son die zu einer Prü­fungs­leis­tung ge-

hören­den Ant­wor­ten voll­stän­dig als sog. Prompt eingibt

und die Bewer­tung der KI unbe­se­hen über­nimmt, da

dann ein mensch­li­ches Dazwi­schen­tre­ten ausbleibt.

Auch vor der dar­ge­leg­ten EuGH-Ent­schei­dung war es

ganz hM, dass ein dazwi­schen­tre­ten­der Mensch jeden-

falls eine inhalt­li­che Prü­fung (mit umstrit­te­ner Tiefe)

vor­neh­men und somit von den KI-gene­rier­ten Ergebnis-

sen abwei­chen kön­nen und dür­fen muss.86 Die­se Prü-

fungs­kom­pe­tenz muss, wie das EuGH-Urteil bekräftigt,

auch tat­säch­lich wahr­ge­nom­men werden.87 Zentrales

Merk­mal des Art. 22 Abs. 1 DS-GVO ist die Entfaltung

recht­li­cher Wir­kun­gen oder eine sons­ti­ge Beeinträchti-

gung in erheb­li­cher Wei­se. Eine recht­li­che Wir­kung ha-

ben Ver­wal­tungs­ak­te wie Imma­tri­ku­la­ti­on oder Exmat-

riku­la­ti­on. Hängt von einer Prü­fungs­be­wer­tung der Tat-

bestand eines gebun­de­nen Ver­wal­tungs­ak­tes ab, wie im

Fal­le des end­gül­ti­gen Nichtbestehens

(§ 19 Abs. 2 S. 2 Nr. 2 b) NHG), liegt es nahe, schon der

Prü­fungs­be­wer­tung die­se recht­li­che Wir­kung zuzuord-

nen, da im Anschluss schon recht­lich kein Raum für eine

mensch­li­che Über­prü­fung in der Sache bleibt. Der un-

bestimm­te Rechts­be­griff der sons­ti­gen Beeinträchtigung

in erheb­li­cher Wei­se bedarf hin­ge­gen erheb­li­cher Kon-

kre­ti­sie­rung. Hier­bei ist vor allem dar­auf abzustellen,

wie nach­hal­tig auf die Posi­ti­on der betrof­fe­nen Person

ein­ge­wirkt wird.88 Bei der Bewer­tung der Erheblichkeit

sind Aus­wir­kun­gen auf Umstän­de, Ver­hal­ten und Ent-

schei­dun­gen der betrof­fe­nen Per­son eben­so zu berück-

sich­ti­gen wie mög­li­che Dis­kri­mi­nie­run­gen (s. ErwG 71

S. 6 DS-GVO)89 und die Dau­er der Auswirkungen.90 Die

Aus­wir­kun­gen von Prü­fungs­ent­schei­dun­gen sind in al-

len Aspek­ten für die per­sön­li­che und beruf­li­che Lebens-

füh­rung beträcht­lich. Das Ein­gangs­bei­spiel verdeutlicht

dabei, dass Noten­ge­bung indi­rekt auch über den Zugang

zu Bil­dungs­ein­rich­tun­gen ent­schei­det. In grundrechtli-

chen Wer­tun­gen aus­ge­drückt kann eine Ungleichbe-

hand­lung beim Zugang zu Bil­dungs­ein­rich­tun­gen neben

einer Dis­kri­mi­nie­rung auch eine Beein­träch­ti­gung des

Rechts auf Bil­dung aus Art. 14 GRCh darstellen.91 Daher

besteht beim Ein­satz von KI in der Prü­fung das Risiko

eines zumin­dest mit­tel­ba­ren Grund­rechts­ein­griffs durch

algo­rith­mi­schen Bias. Schließ­lich ist zu beach­ten, dass

nicht nur nega­ti­ve Ent­schei­dun­gen vom

Art. 22 DS-GVO erfasst wer­den. Viel­mehr ist gera­de die

Beno­tung para­dig­ma­tisch dafür, dass die binä­re Unter-

schei­dung zwi­schen nega­ti­ven und posi­ti­ven bzw. belas-

ten­den und begüns­ti­gen­den Ent­schei­dun­gen für die Be-

urtei­lung der erheb­li­chen Beein­träch­ti­gung zu schema-

tisch ist.92 Auf­grund die­ser Grund­rechts­re­le­vanz über-

schrei­ten Prü­fungs­ent­schei­dun­gen auch ohne die Folge

des end­gül­ti­gen Nicht­be­stehens in aller Regel die Schwel-

le der Erheblichkeit.

Weni­ger ein­deu­tig zu beur­tei­len sind Leis­tungs- oder

Lern­stands­über­prü­fun­gen ohne Außen­wir­kun­gen, bei-

spiels­wei­se Übungs­klau­su­ren und Tests, die auch im

Selbst­stu­di­um auf E‑Lear­ning-Platt­for­men erfolgen

kön­nen. Denk­bar ist sowohl die Aus­wahl und Zusam-

men­stel­lung der Test­auf­ga­ben als auch ihre Auswertung

mit­tels KI. Eine recht­li­che Wir­kung bleibt hier­bei aus.

Auch sind die­se Bewer­tun­gen nicht unmit­tel­bar mit Fol-

gen für Rech­te oder Frei­hei­ten der betrof­fe­nen Personen

ver­bun­den. Nahe­lie­gend scheint hin­ge­gen ange­sichts des

mit sol­chen Tests ver­folg­ten didak­ti­schen Zwecks, dass

sie sich über Lern­mo­ti­va­ti­on und Selbst­bild der Studie-

ren­den mit­tel­bar auf den Stu­di­en­erfolg aus­wir­ken. Auch

ist beson­ders zu berück­sich­ti­gen, dass an Hochschulen

regel­mä­ßig min­der­jäh­ri­ge Stu­die­ren­de betrof­fen sind.

Die­se sind als Kin­der iSd DS-GVO zu verstehen93 und

die Regeln des Art. 22 DS-GVO in der Fol­ge stren­ger zu

hand­ha­ben (s. ErwG 71 S. 5).94 Die Anwend­bar­keit des

Art. 22 DS-GVO erscheint daher zwar idR fernliegend,

doch nicht voll­kom­men aus­ge­schlos­sen. Dies soll­te re-

flek­tiert wer­den, wenn über die Ein­füh­rung entspre-

chen­der Sys­te­me nach­ge­dacht wird.95 Dies gilt besonders

mit Blick dar­auf, die bei der Beur­tei­lung der erheblichen

Beein­träch­ti­gung zu berück­sich­ti­gen­den Bia­ses und Dis-

kri­mi­nie­rungs­ri­si­ken abzuschätzen.

Eine neue Qua­li­tät wür­de frei­lich erreicht, wenn die

Ergeb­nis­se die indi­vi­du­el­le Sphä­re der Stu­die­ren­den ver-Seckel­man­n/Horst­mann · Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Daten­schutz 1 8 1

96

EuGH, 7.12.2023, C‑634/21 — Schufa Hol­ding (Scoring) = NJW

2024, 413, Rn. 48–50 ver­deut­licht, dass die beein­träch­ti­gen­de Wir-

kung einer auto­ma­ti­sier­ten Bewer­tung auch durch menschliches

Ver­hal­ten ver­mit­telt wer­den kann.

97

Letz­te­re is‌ t vom Lan­des­recht und den Prü­fungs­ord­nun­gen ab-

hän­gig, s. Hoe­ren (Fn. 25), S. 36f. Auch das Erfor­der­nis bes‌ timm-

ter, per­so­nen­ge­bun­de­ner Qua­li­fi­ka­tio­nen des Prü­fen­den (dazu

Epping in Epping NHG, 2. Aufl. 2024, § 24 Rn. 50) kann den

KI-Ein­satz mit­tel­bar einschränken.

98

Zu die­sem Risi­ko auch HmbBfDI (Fn. 29), S. 4f.

99

Dreyer/Schulz (Fn. 35), S. 39.

lie­ßen und bei­spiels­wei­se genutzt wür­den, um Lehrende

auf Defi­zi­te indi­vi­du­el­ler Stu­die­ren­der hin­zu­wei­sen oder

Stu­die­ren­de direkt bestimm­ten Kurs­an­ge­bo­ten zuzuwei-

sen. Ein sol­cher didak­ti­scher Ein­satz nähert sich dem

Ein­satz zu Prü­fungs­zwe­cken an und die vor­han­de­ne Au-

ßen­wir­kung könn­te in vie­len Fäl­len den Anwendungs-

bereich des Art. 22 DS-GVO eröffnen.96

Soll anders­her­um die Mög­lich­keit der Teil­nah­me an

einem Kurs­an­ge­bot – sei es zur Aus­wahl förderungsbe-

dürf­ti­ger oder beson­ders leis­tungs­fä­hi­ger Kursteilneh-

men­der – ohne wesent­li­che mensch­li­che Mitwirkung

vom Ergeb­nis eines KI-Sys­tems abhän­gen, ist

Art. 22 DS-GVO voll­um­fäng­lich ein­schlä­gig. Vorzugs-

wür­dig erschie­ne es in die­ser Hin­sicht, Selbstüberprü-

fun­gen mit­hil­fe von KI zu ermög­li­chen, das Aufsuchen

von Unter­stüt­zungs­an­ge­bo­ten aber den Studierenden

selbst anheim­zu­stel­len. Auf die­se Wei­se kön­nen mögli-

che Vor­tei­le von KI bei der Allo­ka­ti­on von Lehrangebo-

ten mit daten­schutz­recht­li­chen Anfor­de­run­gen verein-

bart wer­den.

Zusam­men­fas­send ist eine voll­stän­di­ge Delegation

der Bewer­tung von Prü­fungs­leis­tun­gen an ein KI-Sys-

tem damit man­gels ent­spre­chen­der Rechtsgrundlagen

aus Art. 22 Abs. 2 DS-GVO und auch prüfungsrechtlich

idR ausgeschlossen.97 Die Ver­wen­dung als rein sprachli-

che For­mu­lie­rungs­hil­fe oder zur ergän­zen­den Überprü-

fung der eige­nen Ein­schät­zung schließt die­ser Befund

hin­ge­gen auch für Ein­satz­zwe­cke über der Erheblich-

keits­schwel­le des Art. 22 Abs. 1 DS-GVO nicht aus, so-

lan­ge die mensch­li­che Beur­tei­lung maß­geb­lich bleibt. Je

stär­ker sich aus einem KI-gene­rier­ten Ergeb­nis eine in

sich bereits abge­schlos­se­ne und voll­stän­di­ge Bewertung

ergibt und je intrans­pa­ren­ter die­se zustan­de kommt,98

des­to eher sind sys­tem­ge­stal­te­ri­sche und arbeitsorgani-

sato­ri­sche Maß­nah­men zu tref­fen, die eine Wahrneh-

mung der inhalt­li­chen Prü­fungs­kom­pe­tenz durch die

Leh­ren­den auch de fac­to sicher­stel­len. Bei Tests mit rein

didak­ti­scher Ziel­set­zung, die nicht die Sphä­re des Selbst-

stu­di­ums ver­las­sen, ist eine Ein­zel­fall­prü­fung notwen-

dig. Didak­ti­sche Anwen­dun­gen, die Lern­ma­te­ri­al aufbe-

rei­ten und prä­sen­tie­ren, über­schrei­ten die Erheblich-

keits­schwel­le des Art. 22 DS-GVO idR nicht – dennoch

soll­ten mög­li­che Risi­ken, bei­spiels­wei­se durch Biases,

unglei­che Aus­gangs­be­din­gun­gen für Stu­die­ren­de bezüg-

lich der effek­ti­ven Anwen­dung oder die Wahrnehmung

von KI-Vor­schlä­gen als beson­ders objek­tiv oder autori-

tativ (sog. auto­ma­ti­on bias) vor­ab reflek­tiert werden.

Ergänzt wer­den die­se Rege­lun­gen der DS-GVO in

Zukunft um die Vor­ga­ben aus den

Art. 14, 26 Abs. 2 KI-VO. Danach müs­sen Anbie­ter von

Hoch­ri­si­ko-KI-Sys­te­men die­se so gestal­ten, dass sie

wäh­rend ihres Ein­sat­zes eine wirk­sa­me menschliche

Auf­sicht erlau­ben (Abs. 1). Die­sem Ziel die­nen je nach

Risi­ko, Auto­no­mie­le­vel und Kon­text die technische

Kon­struk­ti­ons­wei­se (Abs. 3 a)) und die Identifizierung

von im Ein­satz umzu­set­zen­den Maß­nah­men (Abs. 3 b)).

Die in Art. 14 Abs. 4 KI-VO auf­ge­zähl­ten Anforderun-

gen dahin­ge­hend, zu wel­chen kon­kre­ten For­men von

Auf­sicht die KI-Sys­te­me die beauf­sich­ti­gen­den Men-

schen befä­hi­gen müs­sen, dürf­ten auch die Gewährleis-

tung mensch­li­chen Ein­grei­fens beim Ein­satz von Drit-

tan­bie­ter-KI in der Ent­schei­dungs­fin­dung erleichtern.

Die Nut­zer, hier die Hoch­schu­len, trifft auch nach der

KI-VO die Pflicht, die­se Maß­nah­men ent­spre­chend den

Gebrauchs­an­wei­sun­gen umzu­set­zen und für eine ent-

spre­chen­de Kom­pe­tenz, Schu­lung und Berech­ti­gung so-

wie not­wen­di­ge Unter­stüt­zung der beaufsichtigenden

Men­schen zu sor­gen (Art. 26 Abs. 1, 2 KI-VO). Die Wir-

kung die­ser tech­nik­be­zo­ge­nen Vor­schrif­ten für die prak-

tische Umset­zung der DS-GVO soll­te nicht unterschätzt

wer­den. Dies gilt nicht nur für ein mensch­li­ches Dazwi-

schen­tre­ten wäh­rend der Ent­schei­dungs­fin­dung, son-

dern auch für die menschliche

Über­prü­fung bei erlaub­ten automatisierten

Ent­schei­dun­gen im Rah­men des gemäß

Art. 22 Abs. 2 lit. b) iVm ErwG 71 S. 4, Abs. 3 DS-GVO zu

gewähr­leis­ten­den Anfechtungsrechts.

f) Tech­nisch-orga­ni­sa­to­ri­scher Daten­schutz und Da-

ten­schutz-Fol­gen­ab­schät­zung

Ein gro­ßer Teil der kon­kre­ten Aus­wir­kun­gen und Risi-

ken des KI-Ein­sat­zes lässt sich auf Fra­gen zurückführen,

die durch die Inbe­zug­nah­me der personenbezogenen

Daten des Ein­zel­nen nur unzu­rei­chend adres­siert wer-

den – etwa sol­che der ver­wen­de­ten statistisch-mathema-

tischen Metho­den, impli­zi­ter Annah­men und der Validi-

tät und Legi­ti­mi­tät grup­pen­be­zo­ge­ner Schlussfolgerun-

gen. Daher ist der klas­si­sche Ansatz des individuellen

Schut­zes in Bezug auf kon­kre­te Verarbeitungstätigkeiten

in sei­ner Steue­rungs­kraft bei KI begrenzt.99 Das lässt

tech­ni­sche, orga­ni­sa­to­ri­sche und sys­tem- statt verarbei-

tungs­be­zo­ge­ne Vor­ga­ben des Daten­schutz­rechts anO R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 8 2

100

Art.-29-Arbeitsgruppe, WP248 Rev. 01 — Leit­li­ni­en zur Daten-

schutz-Fol­gen­ab­schät­zung (DSFA) und Beant­wor­tung der Frage,

ob eine Ver­ar­bei­tung im Sin­ne der Ver­ord­nung 2016/679 „wahr-

schein­lich ein hohes Risi­ko mit sich bringt”, S. 10ff.

101

Hier­bei sind KI‑s‌ pezi­fi­sche Angriffs­ri­si­ken zu berück­sich­ti­gen, s.

u.a. Veale/Binns/Edwards (Fn. 43); Boe­nisch (Fn. 43).

102

FAQ: Enter­pri­se pri­va­cy at Ope­nAI (Fn. 18).

103

For­schung & Leh­re: Ers‌ te Hoch­schu­len bie­ten ChatGPT an, htt-

ps://www.forschung-und-lehre.de/management/ers‌ te-deut­sche-

hoch­schu­len-bie­ten-chatgpt-an-6040 (Abruf 29.02.2024).

104

Daten­schutz­er­klä­rung zu HAWKI: GPT für die Hochschule,

https://ai.hawk.de/views/datenschutz.html (Abruf 29.02.2024).

105

Ana­log emp­fiehlt der HmbBfDI (Fn. 29), S. 2, aus die­sen Grün-

den die Bereits‌ tel­lung diens‌ tli­cher Kon­ten für Mitarbeitende.

Bedeu­tung gewin­nen. Die­se dürf­ten mit den technik-

recht­li­chen Anfor­de­run­gen der KI-VO in der Umset-

zung die größ­ten Syn­er­gien auf­wei­sen und in der

Schutz­wir­kung ergänzen.

Eine Pflicht zur Datenschutz-Folgenabschätzung

(DSFA, Art. 35 DS-GVO) liegt bei vie­len Einsatzmög-

lich­kei­ten von KI nahe, ins­be­son­de­re bei profilingähnli-

chen Ana­ly­sen oder Bewer­tun­gen oder dem Ein­satz von

nach dem Stand der Tech­nik neu­en Tech­no­lo­gien. Da an

der Hoch­schu­le mit Stu­die­ren­den, ins­be­son­de­re bei

Min­der­jäh­rig­keit und in Prü­fungs­si­tua­tio­nen, beson-

ders schutz­be­dürf­ti­ge Per­so­nen betrof­fen sind, ist in ei-

nem sol­chen Fall auf­grund der Kom­bi­na­ti­on zwei­er Risi-

ko-Indi­ka­to­ren auch nach Mei­nung der Aufsichtsbehör-

den in den meis­ten Fäl­len die DSFA gemäß

Art. 35 Abs. 1 DS-GVO obligatorisch.100 Die DSFA ist vor

dem Beginn des KI-Ein­satz nach den Maß­ga­ben des

Art. 35 Abs. 7–11 DS-GVO durch­zu­füh­ren. Zukünftig

bie­tet es sich an, sie gemein­sam mit der ggf. nach Art. 27

KI-VO ver­pflich­ten­den Abschät­zung der Grundrechts-

aus­wir­kun­gen vorzunehmen.

Zen­tral für den tech­ni­schen und organisatorischen

Daten­schutz sind die Art. 24, 25, 32 DS-GVO. Der Ver-

ant­wort­li­che hat danach unter Berück­sich­ti­gung des

Stands der Tech­nik, der Kos­ten und der spezifischen

Merk­ma­le und Umstän­de der Ver­ar­bei­tung sowie der

(ggf. im Rah­men der DSFA ermit­tel­ten) damit verbun-

denen Risi­ken tech­ni­sche und orga­ni­sa­to­ri­sche Maß-

nah­men zur wirk­sa­men Umset­zung der Datenschutz-

grund­sät­ze und des Schut­zes der betrof­fe­nen Personen

zu ergrei­fen. Die Ori­en­tie­rung an den Datenschutz-

grund­sät­zen, ins­be­son­de­re der Daten­mi­ni­mie­rung und

der Zweck­bin­dung, zeigt dabei die Stoß­rich­tung der

Maß­nah­men nach Art. 25 DS-GVO auf, während

Art. 32 DS-GVO v.a. Daten­si­cher­heits­maß­nah­men er-

fordert.101 Ins­be­son­de­re bei der Ein­bin­dung von KI-Sys-

temen auf E‑Lear­ning-Platt­for­men oder sons­ti­ger Nut-

zung mit einem per­so­nen­ge­bun­de­nen Kon­to sind daten-

schutz­freund­li­che Vor­ein­stel­lun­gen (Art. 25 Abs. 2 DS-

GVO) vor­zu­neh­men, wozu eine pseudonyme

Nut­zungs­mög­lich­keit gehö­ren kann. Aber schon in der

Sys­tem­ge­stal­tung ist der Daten­schutz zu berücksichti-

gen. Letzt­lich spricht dies für die Aus­wahl und Gestal-

tung von daten­spar­sa­men KI-Sys­te­men und die Nutzung

einer mög­lichst gerin­gen Zahl an personenbezogenen

Para­me­tern gemes­sen am Einsatzzweck.

Ein Daten­schutz­ni­veau im Sin­ne die­ser Vorgaben

kann erreicht wer­den, wenn die Hoch­schu­le die Nut-

zung von KI-Ange­bo­ten über eine Schnitt­stel­le (API)

mit­tels hoch­schul­ge­bun­de­ner Kon­ten bzw. Anwendun-

gen ermög­licht. Das Bei­spiel von ChatGPT verdeutlicht

dies: Durch den Anbie­ter Ope­nAI wer­den in die­sem Fall

laut eige­ner Beschrei­bung kei­ne ein­ge­ge­be­nen Daten für

das Trai­ning ver­wen­det und die Iden­ti­tät der Nutzenden

ist Ope­nAI nicht bekannt.102 Ers­te deut­sche Hochschu-

len bie­ten des­halb bereits eine sol­che Nut­zung von

ChatGPT für ihre Stu­die­ren­den an.103 Dabei wer­den ne-

ben den für die Web­site-Bereit­stel­lung tech­nisch erfor-

der­li­chen Log-Files ledig­lich per­so­nen­be­zo­ge­ne Login-

Daten ein­ge­ge­ben, um die Zugangs­be­rech­ti­gung zu

überprüfen.104 Unklar bleibt dabei, was mit bei der Nut-

zung anfal­len­den Nut­zungs- und Meta­da­ten geschieht.

Nut­zen die Stu­die­ren­den hin­ge­gen — frei­lich idR außer-

halb der recht­li­chen Ver­ant­wort­lich­keit der Hochschule

- pri­va­te Kon­ten zu stu­di­en­be­zo­ge­nen Zwe­cken, besteht

aber auch die­ser Schutz nicht, zudem kann es durch Ver-

bin­dung stu­di­en­be­zo­ge­ner und pri­va­ter Informationen

zu einem tie­fe­ren Ein­griff in das Pri­vat­le­ben kommen.105

Daher erscheint es auch unter die­sem Gesichtspunkt

sinn­voll, kla­re Rege­lun­gen für den Ein­satz von (gene­ra­ti-

ver) KI in der Leh­re in uni­ver­si­tä­re Ord­nun­gen aufzu-

neh­men, die den Ein­satz unter der Vor­aus­set­zung einer

sol­chen daten­schutz­freund­li­chen Gestal­tung ermögli-

chen. Ein­ge­denk der obi­gen Fest­stel­lung, dass auch For-

schen­de pro­ak­tiv den Ein­satz von KI als Arbeitsmittel

erpro­ben, kön­nen ent­spre­chen­de APIs zur Verbesserung

des Daten­schut­zes (sowie des Schut­zes forschungsbezo-

gener Geheim­hal­tungs­in­ter­es­sen) auch für Forschende

bereit­ge­stellt werden.

V. Fazit und Ausblick

Mit der Ver­brei­tung von KI kommt es auch den Hoch-

schu­len zu, die Poten­zia­le des KI-Ein­sat­zes in ihren Auf-

gaben­be­rei­chen auf­zu­neh­men und ins­be­son­de­re die

Ein­bin­dung von KI in die Leh­re kurz- bis mittelfristig

aktiv zu gestal­ten. So kön­nen sie ihre ausbildungsbezo-

genen Auf­ga­ben in einem abseh­bar von KI geprägtenSeckelmann/Horstmann · Künst­li­che Intel­li­genz im Hoch­schul­be­reich und Daten­schutz 1 8 3

106

Zumal sol­cher, die die in Zukunft zu gewährleis‌ ten­de, effektive

mensch­li­che Auf­sicht über Hoch­ri­si­ko-KI-Sys‌ teme übernehmen

wer­den (Art. 14, 26 Abs. 2 KI-VO).

107

Pur­to­va (Fn. 42).

Umfeld adäquat erfül­len. Denn der wissenschaftlich

geschul­te, d.h. metho­di­sche und kri­ti­sche, Umgang mit

KI-Anwen­dun­gen ist nicht nur Teil beruf­li­cher Anforde-

run­gen an Hochschulabsolventen,106 son­dern auch der

per­sön­li­chen Ent­fal­tung und demo­kra­ti­schen Teilhabe

in einer immer stär­ker von Algo­rith­men geprägten

Gesell­schaft för­der­lich. Die­sen Blick auf die Entwicklung

nimmt der euro­päi­sche Gesetz­ge­ber wenigs­tens in

Ansät­zen nor­ma­tiv auf, indem er den im Bildungsbe-

reich oft ein­schlä­gi­gen Anfor­de­run­gen an Hochrisiko-

KI in der KI-VO For­de­run­gen nach Digitalkompetenzen

und AI liter­acy zur Sei­te stellt

(u.a. ErwG 20, 91, 165, Art. 4, 95 KI-VO). Wer wäre in

einer bes­se­ren Posi­ti­on zur Ver­wirk­li­chung die­ser For-

derung als die Hochschulen?

Das heißt nicht, allen durch KI geweck­ten Erwartun-

gen eilig zu ent­spre­chen. Kla­re Gren­zen für unerwünsch-

te For­men der Auto­ma­ti­sie­rung lie­fert das Datenschutz-

recht, ins­be­son­de­re mit dem Ver­bot der automatisierten

Ent­schei­dung im Ein­zel­fall und zumal bei Betroffenheit

schutz­be­dürf­ti­ger Grup­pen. Dar­über hin­aus aber gibt

das Daten­schutz­recht, eben­so wie die künf­ti­ge KI-Regu-

lie­rung, Ver­ant­wort­li­chen einen Gestal­tungs­auf­trag für

einen grund­rechts­kon­for­men und abge­wo­ge­nen KI-Ein-

satz, den ers­te Hoch­schu­len bereits ange­nom­men haben.

Tech­nik- und sys­tem­be­zo­ge­ne Vor­ga­ben spie­len dabei

eine her­aus­ge­ho­be­ne Rol­le. Mit Ver­weis auf das Ein-

gangs­bei­spiel sei aber dar­an erin­nert, dass KI-Lösungen

an der Hoch­schu­le auch jen­seits rein tech­ni­scher Gestal-

tungs­op­tio­nen offen für Kri­tik und Par­ti­zi­pa­ti­on sowie

die Wahr­neh­mung auto­no­mer Handlungsspielräume

gestal­tet wer­den müs­sen. Im Daten­schutz­recht bieten

dabei vor allem die Daten­schutz­grund­sät­ze die materiel-

le Ori­en­tie­rung. Doch auch wenn man die Rele­vanz des

Daten­schutz­rechts nicht abstrei­ten kann, ist es kein „Law

of Everything”107 für Fra­gen des KI-Ein­sat­zes. Den im

Hoch­schul­be­reich betrof­fe­nen Grund­rech­ten und ande-

ren ein­fach­recht­li­chen Vor­ga­ben muss daher in ihrem

Zusam­men­spiel mit dem Daten­schutz­recht entspre-

chen­de Auf­merk­sam­keit gel­ten. In Zukunft wird zudem

die KI-VO häu­fig neben der DS-GVO Anwen­dung fin-

den und wich­ti­ge Qua­li­tä­ten der KI-Sys­te­me und ihres

Ein­sat­zes prä­gen, etwa bei Trans­pa­renz und Erklärbar-

keit sowie Schutz vor Bia­ses und Diskriminierung.

Kon­kret kön­nen Hoch­schu­len in ihren Satzungen

Rege­lun­gen zur Ermög­li­chung des KI-Ein­sat­zes festle-

gen. Dabei bie­ten sich neben den gesetz­lich notwendi-

gen daten­schutz­recht­li­chen Rege­lun­gen auch Gestal-

tungs- und Ver­fah­rens­vor­schrif­ten an. Zu berücksichti-

gen ist, dass per­so­nen­be­zo­ge­ne Daten in der digitalen

Gesell­schaft nicht mehr ledig­lich für die organisatori-

sche Durch­füh­rung der Hoch­schul­leh­re not­wen­dig sind

(so wie es den gesetz­li­chen Rechts­grund­la­gen wie § 17

NHG noch erkenn­bar zugrun­de liegt), son­dern faktisch

auch beim eigent­li­chen Leh­ren und Ler­nen mit digitalen

Mit­teln eine Rol­le spielen.

Prof. Dr. Mar­grit Seckel­mann ist Pro­fes­so­rin für Öffent-

liches Recht und das Recht der digi­ta­len Gesellschaft

an der Leib­niz Uni­ver­si­tät Han­no­ver (Insti­tut für

Rechts­in­for­ma­tik).

Dipl.-Jur. Jan Horst­mann ist wis­sen­schaft­li­cher Mitar-

bei­ter am Insti­tut für Rechts­in­for­ma­tik, Leib­niz Univer-

sität Hannover.O R D N U N G D E R W I S S E N S C H A F T 3 ( 2 0 2 4 ) , 1 6 9 — 1 8 4

1 8 4