Übersicht
I. Einleitung
Pascal Bronner
Selbstlernende Systeme in Lernumgebungen
Der Einsatz von KI-Systemen in der Schulbildung und die KI-Verordnung der EU
I. Einleitung
Die disruptive Wirkungsmacht von KI hält auch Einzug in die Schulbildung. Einer aktuellen Studie zufolge nut- zen bereits 74 Prozent der befragten Jugendlichen zwi- schen 14 und 20 Jahren KI-Systeme generell und davon immerhin 39 Prozent der Befragten mindestens wöchentlich (weitere 29 Prozent zumindest monatlich) zu schulischen Zwecken.1 Gleichwohl geht aus der Stu- die hervor, dass KI-Systeme an 45 Prozent der Schulen entweder gar kein Thema (38 Prozent) oder verboten (sieben Prozent) sind.2 Schülerinnen und Schüler zeigen sich beim Einsatz von KI also insgesamt deutlich agiler und entwicklungsoffener als viele Schulen. Wie so häufig im Kontext der Digitalisierung werden die sich durch Beständigkeit auszeichnenden Bildungseinrichtungen3 von der „normativen Kraft des Faktischen“ eingeholt. KI-Technologien bergen immense Potenziale für die individuelle Lernförderung sowie die Unterstützung von Schulorganisation und Lehrkräften und sind geeignet, seit Jahren drängende und ungelöste Herausforderungen im Bildungssystem zu bewältigen.
In einigen Gesellschaftsbereichen bestimmt der Ein- satz von KI-Anwendungen bereits flächendeckend den Alltag. Während sich die Wissenschaft schon jahrelang umfassend mit KI-Technologien in der Schulbildung be- fasst, steht die praktische Umsetzung noch relativ am Anfang. Neben Leitlinien zur interessengerechten An- wendung drängen sich vor allem rechtliche Fragestellun- gen auf. Nun stößt zudem die mit Spannung erwartete und viel diskutierte KI-Verordnung der EU (KI-VO) in den anlaufenden KI-Transformationsprozess in der
2 Studie von infratest dimap im Auftrag der Vodafone Stiftung Deutschland (Fn. 1), S. 9.
3 Nuxoll, KI in der Schule, APuZ 42/2023, 41, 46.
II. Digitalisierung und KI in der Schule: (Rechts-)Politische Ziel- bestimmung
III. Einsatz von KI-Systemen in der Schule
1. Anwendungsebenen und technische Methoden
a) Schulorganisationsebene
b) Unterrichts- und Lernebene
2. Anwendungsparadigmen von KI-Systemen im Schulkon- text
a) (Adaptive) Intelligente Tutoring-Systeme (ITS)
b) Einsatz von generativer Künstlicher Intelligenz
3. Potenziale und Herausforderungen: Gestaltung des KI-Ein- satzes in Schulen
IV. KI-Kompetenz („AI Literacy“)
V. Die KI-VO und KI in der Schule: Rechtliche Implikationen 1. Hintergrund: Der Regelungsinhalt der KI-VO
2. KI-Systeme und GPAI-Modelle als Regelungsobjekt
3. Schulen als Akteure in der KI-Wertschöpfungskette
4. Rechtliche Anforderungen an den Betrieb von KI-Systemen im Schulkontext
a) Verbot von KI-Systemen mit unannehmbarem Risiko b) Hochrisiko-KI-Systeme
aa) Anwendungsbereiche des Art. 6 Abs. 2 i.V.m. Anh. III Nr. 3 KI-VO
bb) Anforderungen an Schulen als Betreiber von Hochrisi- ko-KI-Systemen
cc) Ausnahme des Art. 6 Abs. 3 KI-VO
c) Bestimmte KI-Systeme, Art. 50 KI-VO: Transparenz und Kennzeichnung
d) Generative KI-Modelle, Art. 51 ff. KI-VO VI. Fazit und Ausblick
1 „Pioniere des Wandels – Wie Schüler:innen KI im Unterricht nut- zen möchten“, Studie von infratest dimap im Auftrag der Vodafo- ne Stiftung Deutschland, März 2024, S. 10. Für die Studie wurden im Januar 2024 1.590 Jugendliche und junge Erwachsene im Alter von 14 bis 20 Jahren befragt. Die Studie ist hier abrufbar: https:// www.vodafone-stiftung.de/jugendstudie-kuenstliche-intelligenz/.
Ordnung der Wissenschaft 2024, ISSN 2197–9197
318 ORDNUNG DER WISSENSCHAFT 4 (2024), 317–328
Schulbildung.4 Dieser Beitrag analysiert die rechtlichen Implikationen der KI-Verordnung für den Bildungsbe- reich vor dem Hintergrund ihrer Anwendungsparadig- men und Potenziale.
II. Digitalisierung und KI in der Schule: (Rechts-) Politische Zielbestimmung
Notwendige Vorbedingung des nachhaltigen KI-Einsat- zes in der Schulbildung ist die umfassende Digitalisie- rung des Bildungswesens. Die Defizite der Schuldigitali- sierung sind offenkundig und wurden ganz besonders in der Debatte um das pandemiebedingte Erfordernis eines technologiebasierten Distanzunterrichtes deutlich. Auch das BVerfG sah in diesem Zusammenhang die Notwen- digkeit stärkerer Bemühungen um die Digitalisierung im Schulwesen. In seinem Beschluss vom 19.11.2021, mit dem das BVerfG aus dem allgemeinen Persönlichkeits- recht in Art. 2 Abs. 1 GG und dem staatlichen Auftrag für das Schulwesen aus Art. 7 Abs. 1 GG das „Recht auf schu- lische Bildung“ entwickelte, leitete das Gericht aus die- sem neuen Grundrecht eine abwehr‑, leistungs- und teil- haberechtliche Dimension her.5 Ist Präsenzunterricht an Schulen nicht möglich, folgt aus dem Recht auf schuli- sche Bildung ein einklagbarer Anspruch von Schülerin- nen und Schülern auf Distanzunterricht als leistungsdi- mensionaler Ausprägung „unverzichtbarer Mindest- standards“ staatlicher Bildungsgewährleistung, unabhängig des Vorbehalts des Möglichen und des Gestaltungsspielraums der Länder.6 Dies geht mit Bemü- hungen um die Schuldigitalisierung für potenziell künf- tige Schulschließungen einher.7
- 4 Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vor- schriften für künstliche Intelligenz und zur Änderung weiterer Rechtsakte (nachfolgend: KI-VO).
- 5 BVerfG, Beschl. v. 19.11.2021 – 1 BvR 971/21, 1 BvR 1069/21, BVerfGE 159, 355. Vgl. instruktiv zur Grundrechtsdogmatik der Leistungsrechte vor dem Hintergrund dieser Entscheidung Munaretto, Das Möglichste und das Mindeste, DER STAAT 62 (2023), 419 ff.
- 6 BVerfG (Fn. 5), BVerfGE 159, 355, 385 f. Rn. 54 f., 428 Rn. 169, 430 Rn. 173.
- 7 BVerfG (Fn. 5), BVerfGE 159, 355, 435 ff. Rn. 188 ff.
- 8 Verwaltungsvereinbarung DigitalPakt Schule 2019 bis 2024 zwi-schen Bund und Ländern, https://www.digitalpaktschule.de/files/VV_DigitalPaktSchule_Web.pdf.
- 9 Zur Entstehungsgeschichte des Art. 104c GG s. Schwarz, in Dürig/Herzog/Scholz, GG, 103. EL Januar 2024, Art. 104c GG Rn. 1 f.
- 10 Gröpl, Ertragshoheit, Finanzausgleich und Ausgabenlasten, in:Stern/Sodan/Möstl, Staatsrecht Bd. 2, 2. Aufl. 2022, § 55 Rn. 112. Nach dem Konnexitätsprinzip knüpft sich die Aufgabenlast an die Aufgabenwahrnehmung und die jeweilige Verwaltungszustän-
Die Digitalisierung des Bildungssystems stellt auch für die Politik eine höchst priorisierte Zielbestimmung dar. Dies zeigt sich bereits daran, dass für den DigitalPakt Schule8 nicht nur eine hohe Fördersumme als Sonder- vermögen bereitgestellt, sondern auch die Verfassung eigens modifiziert wurde. Mit dem Digitalpakt stellt der Bund den Ländern und Kommunen für den Zeitraum 2019 bis 2024 ursprünglich insgesamt fünf Milliarden Euro für bessere technische Schulausstattung und päda- gogische Kompetenzförderung bereit. Die hierfür erfor- derliche Änderung der Verfassung wurde mit der Einfü- gung des Art. 104c GG erreicht, wonach der Bund den Ländern Finanzhilfen für die kommunale Bildungsinf- rastruktur gewähren kann.9 Die Einführung von Art. 104c GG ist deshalb beachtlich, da sie vor allem das finanzverfassungsrechtliche Konnexitätsprinzip aus Art. 104a Abs. 1 Hs. 1 GG in einer mit dem Schulwesen ausschließlich den Ländern nach Art. 70 Abs. 1 GG obliegenden Gesetzgebungsmaterie durchbricht.10 Aktu- ell verhandeln Bund und Länder über den „Digitalpakt 2.0“ als Fortführung der auslaufenden Vereinbarung.
Zeitgleich mehren sich die Forderungen, auch die so- zio-technischen Entwicklungen (generativer) KI in die- sen Verhandlungen mitzudenken.11 Insgesamt ist Künst- liche Intelligenz nicht nur ein „politischer Zielbegriff “,12 sondern der Einsatz von KI-Systemen in der Schule mittlerweile politische Zielbestimmung. Dies zeigt sich an zahlreichen Leitlinien und Handreichungen zum KI- Einsatz in Schulen auf internationaler13 , EU-14 und nati- onaler Ebene.15 Auch staatlich initiierte und gesteuerte Modellversuche und KI-Pilotprojekte untermauern die
digkeit i.S.d. Art. 30, 83 ff. GG, vgl. ders. in Stern/Sodan/Möstl,
Staatsrecht Bd. 2, 2. Aufl. 2022, § 55 Rn. 90.
11 Füller, Digitalpakt 2.0: Nicht ohne generative KI, Tagesspiegel
Background Digitalisierung & KI vom 26.3.2024, https://back ground.tagesspiegel.de/digitalisierung/digitalpakt‑2–0‑nicht- ohne-generative-ki.
12 Vgl. Herberger, „Künstliche Intelligenz“ und Recht, NJW 2018, 2825, 2826 bezogen auf das Eckpunktepapier zur KI-Strategie der Bundesregierung.
13 Miao/Holmes/Huang/Zhang, UNESCO — AI and Education: Guidance for Policy-Makers, 2021, https://unesdoc.unesco.org/ ark:/48223/pf0000376709.
14 EU-Kommission, Ethische Leitlinien für Lehrkräfte über die Nut- zung von KI und Daten für Lehr- und Lernzwecke, 2022, https:// op.europa.eu/de/publication-detail/-/publication/d81a0d54- 5348–11ed-92ed-01aa75ed71a1.
15 Vgl. statt vieler Köller et al., Large Language Models und ihre Potenziale im Bildungssystem — Impulspapier der Ständigen Wis- senschaftlichen Kommission der Kultusministerkonferenz, Januar 2024, https://www.swk-bildung.org/content/uploads/2024/02/ SWK-2024-Impulspapier_LargeLanguageModels.pdf.
Bronner · Selbstlernende Syteme in Lernumgebungen 3 1 9
allgemein erkannte Bedeutsamkeit.16 Der „Aktionsplan Künstliche Intelligenz“ des BMBF sieht Zielvorgaben für einen verantwortungsvollen KI-Einsatz im Bildungssys- tem vor, wie die Förderung der KI-Kompetenzen von Lehrkräften und Lernenden, ein am „Primat der Päda- gogik“ ausgerichteter Einsatz sowie KI als Lerninhalt.17 Solche Leitlinien und Aktionspläne sind begrüßenswert, ohne eine zeitnahe konkrete und verantwortungsbe- wusste Umsetzung aber lediglich wirkungslose Absichts- erklärungen. Eine wichtige Erkenntnis lässt sich aller- dings festmachen: Gremien und Entscheidungsträger haben erkannt, dass ein KI-Verbot an Schulen weder angemessen noch umsetzbar ist und möchten einen ver- trauenswürdigen Einsatz fördern.
III. Einsatz von KI-Systemen in der Schule
1. Anwendungsebenen und technische Methoden
Bei der Anwendung von KI-Technologien im Schulwe- sen lassen sich grundsätzlich drei Einsatzebenen unter- scheiden, in denen der Einsatz von lernenden algorith- mischen Systemen potenziell sinnstiftende Wirkung ent- falten kann: die Schulorganisationsebene, die Unterrichtsebene und die Lernebene.18 Im Hinblick auf einzelne Anwendungen ist eine trennscharfe Abgren- zung der Ebenen oftmals weder möglich noch notwen- dig.
a) Schulorganisationsebene
Auf der Ebene der Schulorganisation können Steue- rungs‑, Zuweisungs- und Planungsprozesse durch KI- Anwendungen erleichtert und unterstützt werden. Die Basis für die Optimierung dieser Prozesse bildet die i.d.R. anonymisierte Analyse von Schul- und Schülerda- ten mittels sog. Educational Data Minings (EDM). EDM umfasst die Anwendung von Data-Mining-Analysen auf Daten aus Bildungsumgebungen und die Methodik zur
- 16 Vgl. zum KI-Modellversuch KI@School in Bayern Bekanntma- chung des Bayerischen Staatsministeriums für Unterricht und Kultus über den Schulversuch „Kl@school – datengestützte Lern- begleitung“ vom 20.9.2022 (BayMBl. Nr. 563), geändert durch Bekanntmachung vom 7.8.2023 (BayMBl. Nr. 416, 499).
- 17 Bundesministerium für Bildung und Forschung (BMBF), Akti- onsplan Künstliche Intelligenz, 7.11.2023, S. 20 f., https://www. bmbf.de/bmbf/de/forschung/digitale-wirtschaft-und-gesellschaft/ kuenstliche-intelligenz/ki-aktionsplan.html.
- 18 Diese Differenzierung orientiert sich an mmb Institut im Auftrag der Deutsche Telekom Stiftung, KI@Bildung: Lehren und Lernen in der Schule mit Werkzeugen Künstlicher Intelligenz – Schluss-
Erforschung dieser Daten zur Lösung wichtiger Fragen in diesen Bildungsumgebungen.19 Mittels Methoden maschinellen Lernens und statistischen Ansätzen wer- den dabei große Datenmengen aus Lernaktivitäten von Schülerinnen und Schülern extrahiert und analysiert.
In der Schulorganisation können so finanzielle (Mittel- zuweisungen) und personelle Ressourcen (Zuweisung von Lehrkräften, Raum- und Stundenpläne, Ausfall und Vertretung) effizienzsteigernd optimiert werden. Die Analyse des Lernverhaltens kann die Zusammensetzung von Schülerinnen und Schülern in Klassen und Lern- gruppen sowie die rechtzeitige Ergreifung pädagogi- scher Maßnahmen von Schulseite (z.B. Beratung) inter- essengerecht individualisieren.
b) Unterrichts- und Lernebene
Die Unterrichtsebene betrifft insbesondere Lehrkräfte in ihren genuinen Aufgaben der Organisation von Lehr- und Lernprozessen, der Wissensvermittlung und der Prüfung. Dies umfasst den Einsatz algorithmenbasierter EdTech-Tools für die bedarfsgerechte Erstellung von Lehrinhalten, zur Kommunikation mit den Schülerin- nen und Schülern sowie die Steuerung von automatisier- tem Feedback auf Lernfortschritte sowie die Bewertung und Prüfung von Schulaufgaben. Der Optimierung von Lehrprozessen liegen häufig Verfahren der sog. Learning Analytics (LA) zugrunde, die i.d.R. maschinelle Lernal- gorithmen einsetzen. Dabei werden Lernaktivitäten von Schülerinnen und Schülern zur Optimierung von Lern- Lehr-Prozessen kontinuierlich gemessen, gesammelt und analysiert.20 Bezugspunkt für die Messung des Lern- verhaltens sind häufig Lernmanagement- oder Tutoring- Systeme.
Eng verknüpft mit der Unterrichtsebene ist die Lernebene, auf der KI-Systeme eingesetzt werden kön- nen, um Schülerinnen und Schüler bedarfsgerecht im Lernen und ihrer Entwicklung zu unterstützen. Im Zen-
bericht, 1.6.2021, https://www.telekom-stiftung.de/sites/default/ files/files/media/publications/KI%20Bildung%20Schlussbericht. pdf.
19 Romero/Ventura, Educational Data Mining and Learning Ana- lytics: An updated Survey, Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery (January 2020), S. 2 mwN.
20 Ifenthaler, in: Learning Analytics im Hochschulkontext, in: Fürst (Hrsg.), Digitale Bildung und Künstliche Intelligenz in Deutsch- land, 2020, 519, 522; Siemens, Learning Analytics: The Emerge of a Discipline, American Behavioral Scientist 57 (10) 2013, 1380 ff.; Lang/Siemens/Wise/Gašević, Handbook of Learning Analytics, First Edition 2017, S. 269.
320 ORDNUNG DER WISSENSCHAFT 4 (2024), 317–328
trum dieser Ebene stehen adaptives Lernen und indivi- duelles Feedback.21 Durch KI-Anwendungen kann auf Basis charakteristischer Parameter (Lernfortschritt, Prü- fungsergebnisse, Kompetenzen und Lernziele) ein auf den Einzelfall zugeschnittenes Lern- und Feedbackkon- zept bereitgestellt werden.
2. Anwendungsparadigmen von KI-Systemen im Schul- kontext
Der rasante technologische Fortschritt und das steigende Bewusstsein für die Potenziale von KI-Anwendungen führen dazu, dass immer mehr KI-basierte EdTech- Tools auf den Markt drängen. Dies betrifft (noch) viel mehr Anwendungen auf der Unterrichts- und Lernebe- ne als auf der Schulorganisationsebene. Der auf der Bil- dungsmesse Didacta ausgezeichnete Feedback-Assistent Fiete AI etwa kann Schülerinnen und Schülern auf tech- nischer Basis des aktuellen Generative Pre-Trained Trans- formers (GPT‑4) von OpenAI anhand vorgegebener Kri- terien Echtzeit-Feedback zu erstellten Texten geben. In eine ähnliche Richtung orientiert sich der von der TU München entwickelte KI-Tutor PEER, der Schülerinnen und Schüler bei der Erstellung von Aufsätzen unter- stützt, die KI-Lernplattform Fobizz unterstützt u.a. bei Erstellung von Lerninhalten oder Korrekturen. Die Bun- desländer kooperieren bereits mit diesen Unternehmen oder streben Kooperationen an.22 Unter den vielfältigen Anwendungen sind mittlerweile v.a. intelligente Tuto- ring-Systeme und der Einsatz generativer KI verbreitet.
a) (Adaptive) Intelligente Tutoring-Systeme (ITS)
Intelligente Tutoring-Systeme (ITS) sind Bildungsplatt- formen, basieren häufig auf Learning-Analytics-Verfah- ren, analysieren iterativ und kontinuierlich Lernfort- schritte und stellen auf dieser Grundlage den Schülerin- nen und Schülern individualisierte Lerninhalte bereit.23
- 21 Vgl. übersichtsartig zu KI-gestützten Adaptive-Learning- Methoden Kabudi/Pappas/Olsen, AI-enabled Adaptive Learning Systems: A systematic Mapping of the Literature, Computers and Education: Artificial Intelligence 2 (2021), 100017.
- 22 So hat z.B. Rheinland-Pfalz eine Lizenz für Fobizz erworben, vgl. https://bm.rlp.de/schule/fobizz.
- 23 Nuxoll (Fn. 3), APuZ 42/2023, 41, 44; Miao/Holmes/Huang/Zhang (Fn. 13), UNESCO — AI and Education: Guidance for Policy- Makers, 2021, S. 15.
- 24 Zur Vergleichbarkeit von ITS mit „herkömmlichem“ Unterricht vgl. du Boulay, Artificial Intelligence as an Effective Classroom Assistant, IEEE Intelligent Systems, Vol. 31, No. 6 (2016), 76 ff.; nach Holmes/Anastopoulou/Schaumburg/Mavrikis, Technology- enhanced personalised learning: untangling the evidence, Robert Bosch Stiftung, 2018, S. 93 funktioniert ausschließlich technolo- giebasiertes personalisiertes Lernen ohne Berücksichtigung der
ITS beurteilen auf den analysierten Daten zunächst die individuelle Lernkompetenz, bieten daraufhin persona- lisierte Aufgaben und Tests und können dabei i.S.e. adaptiven Lernansatzes Echtzeit-Feedback geben. Aus der Interaktion der Lernenden mit dem ITS erfolgt eine stetige Anpassung an einzelne Lernbedürfnisse. ITS haben den Vorteil, dass Lehrkräfte jederzeit den Fort- schritt einsehen und darauf reagieren können. Sie kön- nen vielfältig integriert oder mit weiteren Technologien verknüpft werden. Dialogbasierte Tutoring-Systeme können z.B. mittels Natural Language Processing (NLP) Gespräche mit Lehrkräften simulieren. Im Kontext der Effizienz von ITS als pädagogischem Instrument zeich- net die hierzu durchgeführte bisherige Forschung ein ambivalentes Bild.24
b) Einsatz von generativer Künstlicher Intelligenz
Die beeindruckenden Fähigkeiten generativer KI-Syste- me bestehen nicht nur Abiturprüfungen,25 sondern kön- nen gewinnbringend im Unterricht eingesetzt werden. Als Teilbereich der Informatikdisziplin der KI umfasst sie i.d.R. mittels maschinellem Lernen26 auf riesigen Datensätzen trainierte Anwendungen mit der Fähigkeit zur Generierung von Inhalten, wie Text, Bild, Audio und Video. Die bekanntesten Anwendungen sind große text- verarbeitende Sprachmodelle (Large Language Models, LLMs) sowie Modelle zur Verarbeitung multimodaler Inhalte (Large Multimodal Models, LMMs) wie z.B. von Textinput zu Bildoutput.27 Generative KI-Anwendungen werden nach der erörterten Studie schon am häufigsten im schulischen Umfeld genutzt, mit Nutzung durch 46 Prozent der Befragten sticht das LLM ChatGPT von OpenAI wenig überraschend heraus.28 In einer weiteren Befragung unter volljährigen Schülerinnen und Schü- lern, bei der insgesamt 68 Prozent der Befragten anga- ben, generative KI-Anwendungen zumindest einmal
menschlichen Dimensionen des Lernens nicht.
25 Vgl. Schiffer/Gawlik, ChatGPT: So gut hat die KI das bayerische
Abitur bestanden, BR24 vom 29.5.2023, https://www.br.de/ nachrichten/netzwelt/chatgpt-ki-besteht-bayerisches-abitur-mit- bravour,TfB3QBw.
26 Allen bislang bekannten generativen KI-Modellen liegen ML- Methoden zugrunde, vgl. so Pesch/Böhme, Artpocalypse now? – Generative KI und die Vervielfältigung von Trainingsbildern, GRUR 2023, 997, 998.
27 Ausf. zu den Potenzialen von LMMs im Bildungskontext
s. Bewersdorff et al., Taking the Next Step with Generative Artificial Intelligence: The Transformative Role of Multimodal Large Language Models in Science Education, https://arxiv.org/ pdf/2401.00832.
28 Studie von infratest dimap im Auftrag der Vodafone Stiftung Deutschland (Fn. 1), S. 11.
Bronner · Selbstlernende Syteme in Lernumgebungen 3 2 1
genutzt zu haben, gaben ganze 89 Prozent dieser Befrag- ten an, diese Tools auch schon zur Erstellung/Prüfung von Texten oder Code im Schulkontext eingesetzt zu haben.29
Generative KI ist von allen Seiten vielfältig im Schul- kontext einsetzbar. Lehrkräfte können LLMs zur Erstel- lung von Lerninhalten und ‑materialien nutzen und die Unterrichtsplanung hierdurch innovativer und maßge- schneidert auf einzelne Lernbedürfnisse gestalten.30 Ein- zelne Aufgaben können durch leicht modifizierte An- weisungen an das System (Prompts) in verschiedenen Schwierigkeitsstufen vorbereitet und angepasst werden. Chatbots, die auf LLMs basieren, erleichtern adaptives Lernen durch individuelles Feedback.31 Schülerinnen und Schüler können LLMs zur automatisierten Texter- stellung einsetzen.32 Sie können eine entscheidende Un- terstützung im Schreibprozess von Aufsätzen oder Haus- aufgaben spielen. Zudem stellen LLMs ein wichtiges In- formationswerkzeug für Recherchen dar,33 das die Fä- higkeiten bewährter Suchmaschinen teils erheblich übersteigt.
3. Potenziale und Herausforderungen: Gestaltung des KI-Einsatzes in Schulen
Die Darstellung der vielfältigen Anwendungspotenziale von KI-Systemen im Schulkontext legt ihre bereichsspe- zifischen Potenziale nahe, insbesondere in ohnehin drängenden Fragen wie Bildungsgerechtigkeit oder Per- sonal- und Ressourcenknappheit. Etwa zwei Drittel der Schülerinnen und Schüler (73 Prozent) sehen in KI- Technologien im schulischen Umfeld (eher) eine Chan- ce.34 Diese Chance sollte verantwortungsbewusst genutzt werden. Auf Ebene der Schulorganisation können beschränkte finanzielle Ressourcen und der Mangel an qualifiziertem Personal durch effizienzsteigernde Pla-
- 29 Für die im Sommer 2023 durchgeführte Befragung wurden insgesamt 252 volljährige Schülerinnen und Schüler befragt, vgl. auch Schlude/Mendel/Stürz/Fischer, Verbreitung und Akzeptanz generativer KI an Schulen und Hochschulen, bidt, 15.3.2024, https://www.bidt.digital/publikation/verbreitung-und-akzeptanz- generativer-ki-an-schulen-und-hochschulen/.
- 30 Statt vieler Kasneci et al., ChatGPT for good? On Opportunities and Challenges of Large Language Models for Education, Lear- ning and Individual Differences, Vol. 103 (April 2023), 102274, S. 3.
- 31 Seßler et al., PEER: Empowering Writing with Large Language Models, in Viberg et al. (Hrsg.), Responsive and Sustainable Edu- cational Futures, Proceedings of the 18th European Conference on Technology Enhanced Learning, EC-TEL 2023, S. 755 ff.
- 32 Holmes/Tuomi, State of the art and practice in AI in education, European Journal of Education 57 (4) 2022, 542, 552.
- 33 Köller et al. (Fn. 15), Large Language Models und ihre Potenziale
nung und Steuerung aufgefangen werden. Lehrkräfte können bei der Vorbereitung und Durchführung des Unterrichts und der Bewertung von Aufgaben unter- stützt werden. Der Schwerpunkt ihrer Arbeitsbelastung kann sich durch die resultierende Entlastung auf die per- sönliche Betreuung von Lernenden fokussieren. Die Anwendung verschiedener ITS kann das personalisierte und individuell bedarfsgerecht zugeschnittene Lernen von Schülerinnen und Schülern fördern, Feedback ermöglichen und somit auch Lernergebnisse verbes- sern.35 Durch individuelles Lernen können Lernende motiviert werden, Lernfortschritte zu erzielen. KI-Syste- me können einen gerechten und inklusiven Zugang zu Bildung für Schülerinnen und Schülern mit kognitiven Defiziten (z.B. Dyskalkulie oder Legasthenie) oder sons- tigen geistigen und körperlichen Einschränkungen för- dern. Jede Schülerin und jeder Schüler kann genau die Unterstützung erhalten, die benötigt wird.
Die Herausforderungen des schulischen KI-Einsatzes müssen für einen nachhaltigen Einsatz der Technologie im Schulkontext ebenso berücksichtigt werden. Zu- nächst sind dies einer datengetriebenen Informations- verarbeitung inhärente Risiken für den Schutz der Pri- vatsphäre und die Datensicherheit in einer besonders schutzwürdigen Umgebung. Der vermeintlich objektive- ren Bewertung von Lernenden steht entgegen, dass der Einsatz von KI-Technologien bestehende Ungleichhei- ten perpetuieren kann. Dies resultiert z.B. aus diskrimi- nierendem Systemoutput, basierend auf verzerrten Trai- ningsdaten oder einer voreingenommenen Program- mierung, die – ebenso wie falsche Ergebnisse probabilis- tischer KI-Anwendungen – die Qualitätssicherung erschwert.36 Darüber hinaus kann schlicht der unter- schiedliche Zugang zu notwendiger technischer Infra- struktur zu Ungleichheiten führen. Trotz des Digital-
im Bildungssystem — Impulspapier der Ständigen Wissenschaftli- chen Kommission der Kultusministerkonferenz, Januar 2024, S. 10.
34 Studie von infratest dimap im Auftrag der Vodafone Stiftung Deutschland (Fn. 1), S. 6 f.
35 Ma/Adesope/Nesbit/Liu, Intelligent Tutoring Systems and Lear- ning Outcomes: A Meta-Analysis, Journal of Educational Psy- chology 106, 4 (2014), 901 ff.; Hasse/Cortesi/Lombana-Bermudez/ Gasser, Youth and Artificial Intelligence: Where we stand, Youth and Media, Berkman Klein Center for Internet & Society (2019), S. 9.
36 Vgl. generell zu Diskriminierungsursachen von KI Barocas/ Selbst, California Law Review 104, 3 (2016), 671 ff.; zu sog. Biases in LLMs vgl. Navigli et al., Biases in Large Language Models: Ori- gins, Inventory, and Discussion, Journal of Data and Information Quality 15, 2, Article 10 (2023), S. 1 ff.
322 ORDNUNG DER WISSENSCHAFT 4 (2024), 317–328
pakts geht aus einer Befragung hervor, dass im Jahr 2023 nur an 15 Prozent der befragten Schulen für alle Schul- klassen Klassensätze an digitalen Endgeräten (z.B. Lap- tops oder Tablets) zur Verfügung standen.37 Hier sind die Schulen und übergeordnet die Länder in der Pflicht, da ansonsten Schülerinnen und Schüler mit einem niedri- gen sozio-ökonomischen Hintergrund weiter benachtei- ligt werden könnten. KI-Anwendungen müssen zudem auf den jeweiligen Bildungskontext und Lehrpläne kon- zipiert und fortlaufend aktualisiert werden und an zeit- gemäße pädagogische Konzepte und Methoden ange- passt werden. Weiterhin müssen Kernkompetenzen wie Kreativität, kritisches Denken und empathische Be- trachtungsweisen fester Bestandteil des schulischen Kompetenzerwerbs sein.
Schließlich haben generative KI-Anwendungen und hierbei insbesondere LLMs die Wirkungsmacht, das Lehren und Lernen an Schulen im Hinblick auf die Denkweise und das Selbstverständnis pädagogischer Strukturen nachhaltig zu beeinflussen. Diese Systeme sind in der Lage, Aufsätze und Gedichte zu schreiben, Texte zu übersetzen sowie Rechenaufgaben zu lösen und dies schneller und oft besser als Schülerinnen und Schü- ler. Zentral bleibt aber eine objektive Bewertung der ein- zelnen Leistung als Nachweis des Leistungsstandes (vgl. etwa Art. 52 BayEUG). Daher ist eine Reform der Lehr- kultur und eine Anpassung traditioneller Prüfungsfor- mate in Hausarbeiten und Hausaufgaben unumgänglich. Im Zentrum steht dabei v.a. die Fokussierung auf Lern- prozesse anstatt allein auf Lernergebnisse. Schulische Leistungen (ebenso auch Lehrtätigkeiten durch Lehr- kräfte) werden zunehmend von „Co-Kreationen“ zwi- schen KI und Lernenden geprägt.38 Neben der angespro- chenen Reformierung von Lehren und Lernen muss Künstliche Intelligenz v.a. auch Lerninhalt werden, da- mit Schülerinnen und Schüler die sozio-technischen Im- plikationen dieser Technologie begreifen können.
IV. KI-Kompetenz („AI Literacy“)
Das Fundament für einen verantwortungsbewussten Einsatz der dargestellten KI-Technologien in der Schul-
- 37 „Die Schule aus Sicht der Schulleiterinnen und Schulleiter: Digi- talisierung und digitale Ausstattung“, repräsentative Befragung durch forsa im Auftrag des Verbands Bildung und Erziehung
e.V, November 2023, S. 3. Im Herbst 2023 wurden hierfür 1.310 Schulleitungen in Deutschland befragt. Die Befragung ist hier ab- rufbar: https://www.vbe.de/fileadmin/user_upload/VBE/Service/ Meinungsumfragen/2024–02-05_Bericht-forsa_Digitalisierung. pdf. - 38 S. hierzu Köller et al. (Fn. 15), Large Language Models und ihre Potenziale im Bildungssystem — Impulspapier der Ständigen Wissenschaftlichen Kommission der Kultusministerkonferenz,
bildung unter Entfaltung der Chancen und Minimie- rung der Risiken ist schließlich KI-Kompetenz von Leh- renden und Lernenden gleichermaßen. Dieser sog. „AI Literacy“ widmet sich mittlerweile ein ganzer For- schungsbereich.
Nach Long und Magerko bezeichnet KI-Kompetenz „eine Reihe von Kompetenzen, die es dem Einzelnen er- möglichen, KI-Technologien kritisch zu bewerten, effek- tiv mit KI zu kommunizieren und zusammenzuarbeiten und KI als Werkzeug online, zu Hause und am Arbeits- platz zu nutzen“.39 Vor dem Hintergrund fünf grundle- gender Fragen entwickelten sie 17 Kernkompetenzen als Bestandteil einer allgemeinen KI-Kompetenz. Es ist er- forderlich, dass Lehrkräfte und insbesondere Schülerin- nen und Schüler das erforderliche Kompetenzwerkzeug besitzen, um die Funktionsweise und Wirkungsmacht von KI zu begreifen und kritisch hinterfragen zu kön- nen. Hierbei ist ein prinzipielles Verständnis der zu- grundeliegenden Technik ebenso erforderlich wie ein Verständnis der sozio-kulturellen Implikationen und an- wendungsspezifischer Fragestellungen von KI.40
Auch die KI-VO sieht in Art. 4 KI-VO eine rechtliche Obliegenheit für u.a. Betreiber zur Förderung der KI- Kompetenz ihres Personals vor. Sie wird in Art. 3 Nr. 56 KI-VO auf die Anforderungen der Verordnung bezogen legaldefiniert.
V. Die KI-VO und KI in der Schule: Rechtliche Impli- kationen
Während sich die KI-Transformation des Bildungssys- tems noch in ihren Anfängen befindet, tritt mit der KI- VO die weltweit erste umfassende horizontale KI-Regu- lierung in Kraft und mit ihr auch spezifische Anforde- rungen für den Bildungsbereich. Auch wenn die einzelnen Vorschriften der KI-VO nach Inkrafttreten sukzessive Geltung erlangen – mit einzelnen Abwei- chungen gilt die Verordnung insgesamt 24 Monate danach – sind deren rechtliche Implikationen bereits jetzt zu beachten.
Januar 2024, S. 10, 16, 20 mwN. Dort wird das Zusammenspiel
von Mensch und Maschine als „Koaktivität“ bezeichnet.
39 Long/Magerko, What is AI literacy? Competencies and Design
Considerations, Proceedings of the 2020 CHI Conference on
Human Factors in Computing Systems, 2020, S. 2.
40 Ähnlich auch Knoth et al., Developing a holistic AI literacy as-
sessment matrix – Bridging generic, domain-specific, and ethical competencies, Computers and Education Open 6 (2024) 100177, S. 3 ff.; Michaeli/Romeike/Seegerer, What students can learn about artificial intelligence — recommendations for K‑12 computing education, Proceedings of IFIP WCCE 2022, S. 5 ff.
Bronner · Selbstlernende Syteme in Lernumgebungen 3 2 3
1. Hintergrund: Der Regelungsinhalt der KI-VO
Die KI-VO verfolgt das ehrgeizige Ziel der Förderung eines vertrauenswürdigen und menschenzentrierten KI- Einsatzes in der EU, flankiert durch den Schutz von Grundrechten und öffentlichen Interessen sowie innova- tionsfördernden Maßnahmen.41 Hierbei verfolgt sie einen horizontalen Ansatz, der sich nicht auf bestimmte Sektoren beschränkt. Einzelne Anwendungsfelder wie der Einsatz von KI-Systemen ausschließlich zu wissen- schaftlicher Forschung und Entwicklung werden von der KI-VO nicht adressiert.42 Kernelement der KI-VO als produktsicherheitsrechtliche Verordnung43 ist ein risiko- basierter Regulierungsansatz, der KI-Systeme insbeson- dere nach Einsatzbereich, aber auch aufgrund bestimm- ter Eigenschaften als Produkt oder dessen Sicherheits- komponente in verschiedene Risikokategorien klassifiziert und daran anknüpfend teilweise stark diver- gierende Rechtsfolgen vorsieht. Die KI-VO differenziert zwischen KI-Systemen mit unannehmbarem Risiko (Verbot), Hochrisiko-KI-Systemen (umfassende Anfor- derungen und Konformitätsbewertung als Instrument der Ko-Regulierung), bestimmten weiteren KI-Syste- men (Transparenzpflichten) und solchen ohne ein signi- fikantes Risiko. Losgelöst dieser Klassifizierung werden „KI-Modelle mit allgemeinem Verwendungszweck“ (General Purpose AI Models bzw. GPAI-Models), unter die auch generative KI-Systeme fallen,44 ebenfalls risiko- orientiert abgestuft reguliert. Daneben soll durch Instru- mente wie sog. „AI regulatory sandboxes“ auch die Inno- vationsförderung gewährleistet sein.45 Zur Überwa- chung der Einhaltung und Durchsetzung der KI-VO wird eine vielschichtige Aufsichtsstruktur aus EU- und mitgliedstaatlichen Behörden etabliert,46 gleichzeitig sieht die KI-VO vereinzelt Rechtsbehelfe47 sowie Sankti- onen für die Nichteinhaltung der Verordnung vor.48
2. KI-Systeme und GPAI-Modelle als Regelungsobjekt
Regulierungsgegenstand der KI-VO sind vor allem „KI- Systeme“. Diese werden in Art. 3 Nr. 1 KI-VO legaldefi- niert als
„maschinengestütztes System, das für einen in unter- schiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für ex-
- 41 Art. 1 Abs. 1 KI-VO.
- 42 Vgl. Art. 2 Abs. 6 KI-VO; Erwgr. 25 KI-VO.
- 43 Zur Einstufung der KI-VO als produktsicherheitsrechtlicherVerordnung vgl. statt vieler Krönke, Das europäische KI-Gesetz:Eine Verordnung mit Licht und Schatten, NVwZ 2024, 529, 531.
- 44 Erwgr. 99 S. 1, 105 S. 1 KI-VO.
- 45 Art. 57 ff. KI-VO.
plizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Ent- scheidungen erstellt werden, die physische oder virtuel- le Umgebungen beeinflussen können“.
Diese Definition ist aufgrund des technologieneutralen Ansatzes der KI-VO sehr auslegungsoffen. „In unter- schiedlichem Grade autonom“ meint die Unabhängig- keit der Funktionsweise des Systems von menschlichem Eingreifen49 und schließt somit vollständig determinier- te regelbasierte Systeme vom Anwendungsbereich der KI-VO aus. Die „Anpassungsfähigkeit“ bezieht sich auf die Lernfähigkeit von Systemen50 und durch die Eigen- schaft, selbständig aus dem Input ein Output abzuleiten, werden vor allem Systeme maschinellen Lernens und logik- und wissensgestützte Systeme von der KI-VO adressiert. Adaptive ITS und generative KI-Systeme wer- den somit ebenso wie algorithmische Entscheidungssys- teme z.B. von Lehrkräften bei der Bewertung von Aufga- ben und Prüfungen von der KI-VO erfasst. Zudem adressiert der sachliche Anwendungsbereich der KI-VO auch GPAI-Modelle, die sich ausweislich ihrer Legaldefi- nition in Art. 3 Nr. 63 KI-VO durch Training auf großen Datenmengen, allgemeine Verwendbarkeit und die Fähigkeit, verschiedenste Aufgaben zu bewältigen, aus- zeichnen. Auch wenn der Begriff des „Modells“ in der KI-VO nicht näher geklärt wird, wird hierunter wohl die informatische Architektur der Programmierung ver- standen werden.51
3. Schulen als Akteure in der KI-Wertschöpfungskette
Die KI-VO adressiert verschiedene Akteure mit diver- gierenden Pflichten in der KI-Wertschöpfungskette: Anbieter, deren (potenzielle) Bevollmächtigte in der EU, Einführer,HändlerundBetreiber.InkonsequenterAus- prägung der Risikoorientierung müssen Anbieter in Verantwortung über den Entwicklungsprozess des KI- Systems mit den Anforderungen der Art. 8 ff. als Basis für die Konformitätserklärung i.S.d. Art. 43 KI-VO die umfangreichsten Pflichten erfüllen. Betreiber ist nach Art. 3 Nr. 4 KI-VO jede natürliche oder juristische Per- son, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet. Ausge- schlossen sind zudem Betreiber, die KI-Systeme aus- schließlich persönlich und nicht beruflich verwenden. Sofern Betreiber und andere Akteure wesentliche Ände-
46 Art. 64 ff. KI-VO.
47 Art. 85 ff. KI-VO.
48 Art. 99 ff. KI-VO.
49 Erwgr. 12 S. 11 KI-VO.
50 Erwgr. 12 S. 12 KI-VO.
51 In diese Richtung auch Bomhard/Siglmüller, AI Act – das Trilog-
ergebnis, RDi 2024, 45, 50.
324 ORDNUNG DER WISSENSCHAFT 4 (2024), 317–328
rungen an KI-Systemen im Hochrisiko-Bereich vorneh- men, können auch sie unter den Voraussetzungen des Art. 25 KI-VO als Anbieter gelten.
Es ist davon auszugehen, dass Schulen künftig keine eigenen KI-Systeme entwickeln, sondern bestehende Tools verwenden, die wie einige generative KI-Anwen- dungen entweder öffentlich zugänglich sind52 oder – ggf. durch Kooperationen mit den Bundesländern – in die Schulsysteme implementiert werden.53 Öffentliche Schu- len in Bayern etwa fallen trotz ihrer Eigenschaft als „nichtrechtsfähige öffentliche Anstalten“54 unter den weiten Begriff der „Behörde“ aus Art. 1 Abs. 2 BayVwV- fG, da sie öffentliche Aufgaben wahrnehmen und Ver- waltungsakte erlassen können.55 Zwar entscheiden Schu- len zusammen mit den Schulaufwandsträgern – i.d.R. kommunale Körperschaften bzw. Kommunen56 – über den Einsatz digitaler Instrumente im Unterricht. Die konkrete, für die risikoorientierte Betrachtung und kon- sekutiv die Betreiberpflichten der KI-VO maßgebliche Einsatzhoheit gerade nach Inverkehrbringen selbständig weiterlernender KI-Anwendungen liegt aber bei den Schulen.57 Daher sind Schulen Betreiber nach der KI- VO, wenn sie KI-Systeme eigenverantwortlich verwen- den, auch wenn fremde Infrastruktur etwa in Form von Clouds genutzt wird.58
4. Rechtliche Anforderungen an den Betrieb von KI- Systemen im Schulkontext
Rechtliche Anforderungen nach der KI-VO an Schulen als Betreiber von KI-Systemen orientieren sich an der jeweiligen Risikoklassifizierung einzelner Anwendun- gen.
a) Verbot von KI-Systemen mit unannehmbarem Risiko
Art. 5 KI-VO sieht ein Verbot für sog. KI-Systeme mit unannehmbarem Risiko vor, deren Einsatz in den
- 52 Hier bieten sich datenschutzschonende lizenzierte Zugänge für gewerbliche Tools an, wie bereits Hochschulen in Bezug auf ChatGPT implementiert haben, vgl. „Erste Hochschulen bieten ChatGPT an“, Forschung & Lehre v. 14.11.2023, https://www. forschung-und-lehre.de/management/erste-deutsche-hochschu- len-bieten-chatgpt-an-6040.
- 53 S.o. unter III. 2.
- 54 Vgl. hierzu Art. 3 Abs. 1 S. 4 BayEUG; vertiefend zu Schulen als„nichtrechtsfähige öffentliche Anstalten“ auch Avenarius/Hansch-mann, Schulrecht, 9. Aufl. 2019, Kap. 6, S. 149.
- 55 Dirnaichner, in: Dirnaichner, Kommentar zum BayEUG G1,Stand: 9. NL 2014, Art. 3 BayEUG S. 2, 3 f.
- 56 S. für Bayern Art. 8 BaySchFG (staatliche Schulen) bzw. Art. 15BaySchFG (kommunale Schulen).
- 57 Vergleichend kann auch die Eigenschaft von Schulen als daten-
abschließend in Art. 5 Abs. 1 KI-VO aufgelisteten Berei- chen für schlicht unvereinbar mit den Grundwerten der Union eingestuft wird, wie z.B. KI-Systeme zur Ausnut- zung einer Schutzbedürftigkeit von Personen59 mit (potenziellem) Schädigungspotenzial (lit. b) oder Social Scoring, das zu einer Benachteiligung von Personen führt (lit. c). Für KI in der Schule von besonderer Bedeu- tung ist das Verbot von Emotionserkennungssystemen in Bildungseinrichtungen nach Art. 5 Abs. 1 lit. f KI-VO, das Ausnahmen für medizinische (therapeutische) oder sicherheitsbezogene Zwecke vorsieht. Emotionserken- nungssysteme wurden in anderen Ländern schon in der Schule eingesetzt.60 Da diese Systeme einige Schwach- stellen aufweisen und so ein erhebliches Diskriminie- rungs- und – in Bezug auf Grundrechte — Schädigungsri- siko innewohnt, sollen sie gerade im Schulbereich ver- boten sein.61
b) Hochrisiko-KI-Systeme
Nach Art. 6 Abs. 2 i.V.m. Anh. III Nr. 3 KI-VO gelten die dort aufgeführten KI-Systeme im Kontext der allgemei- nen (Schul-) und beruflichen Bildung als Hochrisiko- KI-Systeme. Die EU-Kommission kann den Katalog durch delegierte Rechtsakte nach Art. 7 Abs. 1 lit. a KI- VO i.V.m. Art. 97 KI-VO künftig um weitere KI-Anwen- dungen in der Bildung erweitern.
aa) Anwendungsbereiche des Art. 6 Abs. 2 i.V.m. Anh. III Nr. 3 KI-VO
Anh. III Nr. 3 KI-VO sieht vier konkrete Hochrisiko- Szenarien im Bildungsbereich „auf allen Ebenen“ und damit auch in der Schulbildung vor, wenn KI-Systeme für die dortigen Anwendungen „bestimmungsgemäß“ verwendet werden sollen. Dies betrifft zunächst den Ein- satz von KI-Systemen zur Feststellung des Zugangs, der Zulassung oder Zuweisung von Personen zu Bildungs-
schutzrechtlich Verantwortliche i.S.d. Art. 4 Nr. 7 DSGVO heran- gezogen werden, vgl. auch Sassenberg, Datenschutz in Schule und Schulverwaltung, in: Specht/Mantz, Handbuch Europäisches und deutsches Datenschutzrecht, 2019, § 24 Rn. 25 ff.
58 Vgl. so zum KI-VO‑E auch Bomhard/Merkle, Europäische KI- Verordnung – Der aktuelle Kommissionsentwurf und praktische Auswirkungen, RDi 2021, 276, 278.
59 Die Schutzbedürftigkeit von Kindern wird in Erwgr. 48 KI-VO thematisiert.
60 Eine Übersicht mit Darstellung der Risiken bietet Bellio, Pseudo-Science entering education, Automated Society (106) on AlgorithmWatch, https://r.algorithmwatch.org/nl3/dAy5-iYV4K- k4Edf6OpbOmg.
61 Erwgr. 44 KI-VO.
Bronner · Selbstlernende Syteme in Lernumgebungen 3 2 5
einrichtungen (Anh. III Nr. 3 lit. a KI-VO),62 also algo- rithmische Entscheidungssysteme63 (bzw. Unterstüt- zungssysteme) auf Ebene der Schulorganisation. Ein hohes Risiko stellen auch KI-Systeme zur Bewertung von Lernergebnissen einschließlich der Steuerung von Lernprozessen dar (Anh. III Nr. 3 lit. b KI-VO). Hiervon dürften adaptive ITS regelmäßig erfasst sein, denn ihre Funktionsfähigkeit basiert gerade auf dem Monitoring von Lernergebnissen, um Inhalte an einen individuell bedarfsgerechten Lernprozess anzupassen.64 Neben KI- Systemen zur Bewertung des angemessenen Bildungsni- veaus (Anh. III Nr. 3 lit. c KI-VO) werden auch Systeme zur Überwachung und Erkennung von verbotenen Ver- halten von Schülern bei Prüfungen (Anh. III Nr. 3 lit. d KI-VO) etwa durch automatisierte Prüfungsaufsicht mittels sog. Proctoring-Software65 als hohes Risiko ein- gestuft. Die Hochrisiko-Klassifizierung betrifft neben der Organisationsebene somit vor allem die Unter- richtsebene in mehrfacher Ausprägung und dabei Ein- satzbereiche, die trotz aller Potenziale von KI im Bil- dungsbereich bei nicht sachgemäßem Einsatz der KI- Systeme ein besonders intrusives Diskriminierungspo- tenzial bergen.66
bb) Anforderungen an Schulen als Betreiber von Hoch- risiko-KI-Systemen
Die Anbieter dieser schulbezogenen Hochrisiko-KI-Sys- teme müssen die Einhaltung der umfangreichen Anfor- derungen hinsichtlich dieser Systeme nach den Art. 8 ff. KI-VO sicherstellen. Schulen als Betreiber von Hochrisi- ko-KI-Systemen werden durch die KI-VO z.B. durch die Informationsbereitstellung in Art. 13 KI-VO von Anbie- tern zwar auch begünstigt, als Inhaber der Einsatzhoheit über KI-Systeme in der konkreten Anwendung trifft sie aber auch eine Reihe von Pflichten, die sich maßgeblich an Art. 26 KI-VO orientieren.67 Exemplarisch sind dies etwa die Ergreifung technisch-organisatorischer Maß-
- 62 Ein solches System wird bspw. seit einigen Jahren in der Stadt New York zur gerechteren Verteilung von Schülerinnen und Schülern auf weiterführende Schulen genutzt, s. Tullis, How Game Theory Helped Improve New York City’s High School Ap- plication Process, New York Times vom 5.12.2014, https://www. nytimes.com/2014/12/07/nyregion/how-game-theory-helped- improve-new-york-city-high-school-application-process.html. Vgl. zu den Vorteilen und Risiken auch Krüger/Lischka, Damit Maschinen den Menschen dienen, 2018, S. 15 ff.
- 63 Zum Begriff des algorithmischen Entscheidungssystems vgl. Zweig/Krafft, Fairness und Qualität algorithmischer Entschei- dungen, in: Mohabbat Kar/Thapa/Parycek, (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, 2018, S. 204, 208.
nahmen (Abs. 1), die Übertragung der menschlichen Aufsicht über den Einsatz des Systems an eine hierfür geeignete und kompetente Person (Abs. 2), die Sicher- stellung, dass die Eingabedaten zweckentsprechend und repräsentativ sind (Abs. 4), die Überwachung des Betriebs des Systems (Abs. 5) sowie auch die regelmäßi- ge Information gegenüber betroffenen Personen über die konkrete Konfrontation mit KI-Systemen (Abs. 11).
Nach Art. 27 KI-VO müssen Schulen als Einrichtun- gen des öffentlichen Rechts68 bei Hochrisiko-KI-Syste- men schließlich eine „Grundrechte-Folgenabschätzung“ durchführen, die etwa die Beschreibung des Verfahrens, den Zeitraum und die Häufigkeit der Verwendung, die Kategorie der betroffenen Personen und die Schadensri- siken umfasst. Die Wirkung dieser Folgenabschätzung muss sich in der Rechtspraxis erst noch herausstellen. Schulen sind nach Art. 1 Abs. 3 GG bzw. Art. 51 GRCh ohnehin grundrechtsgebunden, wenn sie nach anderen Gesetzen verpflichtende Risiko- und Technikfolgenab- schätzungen durchführen. Um keine andere Folgenab- schätzung wird es sich trotz des vielversprechend anmu- tenden Namens bei der Grundrechte-Folgenabschät- zung handeln, mit einem kleinen, aber wichtigen Unter- schied: Die Abschätzung der Auswirkungen, die der Einsatz eines KI-Systems auf Grundrechte i.S.d. Art. 27 Abs. 1 KI-VO hat, muss auch die Chancen von KI-Syste- men in der Schule als Teil der Grundrechtsverwirkli- chung und ganz generell berücksichtigen.
cc) Ausnahme des Art. 6 Abs. 3 KI-VO
Trotz der Klassifizierung nach Abs. 6 Abs. 2 i.V.m. Anh. III KI-VO gilt ein KI-System, das in die dortigen Ein- satzbereiche fällt, schließlich dann nicht als hochriskant, wenn es das Ergebnis menschlicher Entscheidungsfin- dung „nicht wesentlich“ beeinflusst und dadurch kein erhöhtes Risiko von ihm ausgeht. Davon wird bei Vorlie- gen einer oder mehrerer der in Art. 6 Abs. 3 S. 2 lit. a – d
64 S.o. III. 2. a).
65 Vgl. zur Funktionsweise von Proctoring-Software und den
rechtlichen Implikationen im Hochschulkontext bei Fernprüfun- gen auch Rachut/Besner, Künstliche Intelligenz und Proctoring- Software, MMR 2021, 851 ff.
66 Erwgr. 56 S. 3 KI-VO.
67 Zu dieser „Janusköpfigkeit“ noch bezogen auf den – begrifflich
unterschiedlichen aber inhaltlich deckungsgleichen – „Nutzer“ des KI-VO‑E auch Gless/Janal, in: Hilgendorf/Roth-Isigkeit, Die neue Verordnung der EU zur Künstlichen Intelligenz, 2023, § 2 Rn. 44 ff.
68 S.o. V. 3.
326 ORDNUNG DER WISSENSCHAFT 4 (2024), 317–328
KI-VO abschließend aufgezählter Bedingungen ausge- gangen. Eine wesentliche Beeinflussung wird verneint, wenn ein KI-System dazu bestimmt ist, (a) eng umgrenz- te formale Verfahrensaufgaben durchzuführen69, (b) das Ergebnis einer abgeschlossenen menschlichen Entschei- dung zu optimieren70, © Abweichungsmuster in abge- schlossenen menschlichen Entscheidungen zu erken- nen71 oder (d) eine vorbereitende Aufgabe für eine menschliche Bewertung i.S.d. Anh. III durchzuführen.72 Ist eine dieser Anwendungen mit einem Profiling i.S.d. Art. 4 Nr. 4 DSGVO, also der Verwendung personenbe- zogener Daten zur Bewertung von Personen, verbunden, gilt sie durch eine Rückausnahme von Art. 6 Abs. 3 KI- VO immer als hochriskant.
Die Ausnahme des Art. 6 Abs. 3 KI-VO stellt eine schlüssige Ausprägung des risikobasierten Regulie- rungsansatzes dar,73 da hierdurch Akteure durch den Einsatz von KI-Systemen, die in den in Anh. III aufgelis- teten Bereichen angewendet werden, aber keine Ent- scheidungserheblichkeit aufweisen, mit den umfangrei- chen und in diesen Fällen außer Verhältnis stehenden Anforderungen an Hochrisiko-KI-Systeme konfrontiert wären. Die einzelnen Bedingungen in Art. 6 Abs. 3 S. 2 KI-VO weisen allerdings ganz unterschiedliche Auswir- kungen in der Mensch-Maschine-Interaktion auf: Wäh- rend sich die nachträgliche Verbesserung oder Mus- tererkennung auf abgeschlossene Entscheidungen bezieht und ihr Einfluss auf die menschliche Entschei- dungsfindung daher gering ist, können Vorbereitungs- handlungen regelmäßig einen maßgeblichen Einfluss auf diemenschliche Entscheidung ausüben.74 Die genaue Abgrenzung danach, wann eine menschliche Entschei- dung „wesentlich“ ist, wird künftig also mindestens genauso wichtig sein, wie die Vorschrift in ihrer Bedeu- tung selbst. Für die auf der Unterrichtsebene relevanten ITS wird die Ausnahme selten greifen, da der individuel- le Lernfortschritt i.d.R. mit einem Profiling zusammen-
- 69 Bspw. die in der Schulorganisation bedeutsame Strukturierung unstrukturierter Datenmengen oder Kategorisierung einzelner Dokumente, vgl. auch Erwgr. 53 S. 4 KI-VO.
- 70 Hierunter fällt etwa die Verbesserung von Texten oder Aufsätzen in Sprachstil bzw. Ausdruck, vgl. auch Erwgr. 53 S. 8 KI-VO.
- 71 Erwgr. 53 S. 11 KI-VO nennt hier ausdrücklich den Einsatz zur Erkennung von Abweichungen im Benotungsmuster von Lehr- kräften.
- 72 Dies umfasst z.B. die Unterstützung bei Aufsatzerstellung und Textbearbeitung mittels Suche, Textverarbeitung oder dem Ein- satz von KI-Übersetzungstools, vgl. Erwgr. 53 S. 13 KI-VO.
- 73 Vgl. so auch Hacker, Comments on the Final Trilogue Version of the AI Act, 13.4.2024, S. 9, https://papers.ssrn.com/sol3/papers. cfm?abstract_id=4757603.
- 74 Vgl. vor diesem Hintergrund auch die Entscheidung des EuGH
hängt. Anwendungen zur Textbearbeitung oder Über- setzung können aber durchaus unter die Ausnahme fal- len.
c) Bestimmte KI-Systeme, Art. 50 KI-VO: Transparenz und Kennzeichnung
Art. 50 KI-VO sieht für bestimmte KI-Systeme Transpa- renzpflichten i.S.e. Kennzeichnung, dass es sich bei der Anwendung um ein KI-System handelt, vor. Entwickelt eine Schule einen eigenen Chatbot i.S.d. Art. 50 Abs. 1 KI-VO und ist demnach Anbieter, gilt die Pflicht zur Information gegenüber betroffenen Personen auch für sie. Andernfalls werden Pflichten für Betreiber im Schul- kontext v.a. im Kontext von Deepfakes gem. Art. 50 Abs. 4 KI-VO relevant, die zur Inhaltsvermittlung durchaus pädagogisch wertvolle Elemente aufweisen können. Hierbei ist die künstliche Erzeugung von Inhalten offen- zulegen. Bei der Erfüllung der Transparenz- und Infor- mationspflichten gegenüber minderjährigen Schülerin- nen und Schülern ist – vergleichbar zu den Transparenz- pflichten der DSGVO – eine adressatengerechte Vermittlung in einfacher Sprache, ggf. mit bildlichen oder spielerischen Elementen zur Herstellung von Ver- trauen unerlässlich.75
d) Generative KI-Modelle, Art. 51 ff. KI-VO
Anbieter von GPAI-Modellen haben die in Art. 53 KI- VO verankerten Pflichten bzw. bei Vorliegen eines syste- mischen Risikos von GPAI-Modellen76 die Pflichten des Art. 55 KI-VO einzuhalten. Schulen als Betreiber müssen die besonderen Anforderungen an generative KI-Model- le nicht erfüllen. Wird ein GPAI-Modell in ein GPAI- System integriert und dieses wiederum in ein KI-Sys- tem,77 greifen hinsichtlich diesem die Betreiberpflichten aus Art. 26 KI-VO. Insgesamt lässt sich aber festhalten, dass der Einsatz von nicht eigens entwickelter generati- ver KI im Bildungskontext für Schulen aus der KI-VO
im Kontext von Art. 22 DSGVO, wonach die Bonitätsprüfung im Vorfeld einer Kreditgewährung einen so maßgeblichen Einfluss auf die finale Entscheidung hat, dass bereits von der Prüfung
der Kreditwürdigkeit ein erhöhtes Risikopotenzial ausgeht, vgl. EuGH, Urt. v. 7.12.2023 – C‑634/21, NJW 2024, 413, 415, Rn. 48, 50. Anm. hierzu auch Bronner, jurisPR-ITR 05/2024 Anm. 4.
75 Vgl. zu Art. 12 DSGVO, an dem sich durchaus orientiert werden kann Heckmann/Paschke, in: Ehmann/Selmayr, 3. Aufl. 2024, DSGVO Art. 12 Rn. 12 ff., 21.
76 Das systemische Risiko von GPAI-Modellen wird bei „Fähig- keiten mit hohem Wirkungsgrad“ nach Art. 51 Abs. 1, 2 KI-VO angenommen, die u.a. mit der Leistungsfähigkeit von Prozesso- ren gemessen werden.
77 Erwgr. 100 KI-VO.
Bronner · Selbstlernende Syteme in Lernumgebungen 3 2 7
heraus keine besonderen Pflichten vorsieht. Gleichwohl stellen sich in diesem Kontext eine Reihe weiterer recht- licher Fragestellungen, etwa aus dem Urheber- oder Datenschutzrecht.
VI. Fazit und Ausblick
Der Einsatz von KI-Systemen in der Schule ist vor dem Hintergrund seiner immensen Chancen, gleichzeitig aber der aufgezeigten rechtlichen Anforderungen durch die KI-VO für Schulen künftig eine Abwägungsentschei- dung, die aufgrund der Potenziale selbstlernender Syste- me in Lernumgebungen für Ressourcen- und Per- sonaleffizienz sowie inklusives und individuell förderli- ches Lernen immer zugunsten des verantwortungsbe- wussten KI-Einsatzes ausfallen sollte. KI in der Schulbil- dung steht noch am Anfang und viele – auch rechtliche – Fragestellungen, z.B. im Bereich von Urheberschaft oder Datenschutz, sind noch klärungsbedürftig. Die Klärung dieser Fragen neben der großen Herausforderung, einen vertrauenswürdigen KI-Einsatz in den Schulen sicherzu- stellen, wird nur gemeinsam möglich sein: Kultusminis- terien, Behörden, Schulen, Lehrkräfte und Eltern sind kooperativ gefordert. Dabei sollte nicht nur an Schulen,
sondern auch aus der Erfahrung gelernt werden, bevor Aufsichtsbehörden ohne hinreichende Abwägung KI- Systeme und EdTech-Tools voreilig aus dem Unterricht verbannen. Für die Wissenschaft haben die vorstehen- den Ausführungen zum KI-Einsatz an Schulen eine dop- pelte Bedeutung: Zum einen eröffnet sich ein wichtiges Forschungsfeld der Bildungswissenschaften, die sowohl empirisch als auch normativ wichtige Erkenntnisse, etwa im Hinblick auf Lernprozesse in der Co-Kreation, gewin- nen können. Zum anderen gilt es, die Curricula der Lehramtsstudiengänge auf diese neue Entwicklung abzu- stimmen. So gesehen müssen die Fragenkreise zum KI- Einsatz an Schulen und an Hochschulen gemeinsam betrachtet werden. Die Ordnung der Wissenschaft ist in Zeiten generativer KI auch eine Neuordnung des Leh- rens und Lernens.
Pascal Bronner ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Recht und Sicherheit der Digitalisierung (Prof. Dr. Dirk Heckmann) an der Technischen Universi- tät München. Er forscht und lehrt zu Rechtsfragen der Digitalisierung mit den Schwerpunkten Datenrecht, Datenschutzrecht und insbesondere dem Recht der Künstlichen Intelligenz.
328 ORDNUNG DER WISSENSCHAFT 4 (2024), 317–328