Menü Schließen
Klicke hier zur PDF-Version des Beitrags!

Die­ser Auf­satz wird nicht in der Lage sein, das The­ma umfas­send zu behandeln,1 viel­mehr wer­den wesent­li­che Gedan­ken­an­sät­ze der Künst­li­chen Intel­li­genz (KI) beleuch­tet und erläu­tert. Auf Mathe­ma­tik wird weit­ge- hend ver­zich­tet. Der Bei­trag zeigt die ele­men­ta­ren Wirk- prin­zi­pi­en heu­ti­ger KI auf, ver­weist auf eine Rei­he erfolg­rei­cher Anwen­dun­gen und zeigt Per­spek­ti­ven für die Zukunft auf.

I. Was ist künst­li­che Intelligenz?

Die Visi­on, dass Maschi­nen eines Tages spre­chen, abs- trak­te Kon­zep­te bil­den, die glei­chen Pro­ble­me wie Men- schen lösen und sich stän­dig ver­bes­sern, führ­te 1956 zur Grün­dung des For­schungs­ge­biets Künst­li­che Intel­li­genz (KI). Es war schon immer ein Traum der Infor­ma­ti­ker, dass man mit einem Com­pu­ter intel­li­gen­te­re Din­ge tun kann als nur Zah­len zu addie­ren und zu multiplizieren.

Künst­li­che Intel­li­genz (KI, engl. arti­fi­ci­al intel­li­gence oder AI) defi­niert man heu­te als Teil­ge­biet der Infor­ma- tik, das sich mit der Auto­ma­ti­sie­rung intel­li­gen­ten Ver- hal­tens und dem maschi­nel­len Ler­nen befasst. Der Be- griff, ist schwie­rig zu defi­nie­ren, da es bereits an einer ge- nau­en Defi­ni­ti­on von „Intel­li­genz“ man­gelt. Den­noch wird er in For­schung und Ent­wick­lung verwendet.2

Im All­ge­mei­nen bezeich­net Künst­li­che Intel­li­genz (KI) den Ver­such, bestimm­te Ent­schei­dungs­struk­tu­ren des Men­schen nach­zu­bil­den, indem z. B. ein Com­pu­ter so gebaut und pro­gram­miert wird, dass er von Daten ler- nen und rela­tiv eigen­stän­dig Pro­ble­me bear­bei­ten kann. Künst­li­che Intel­li­genz gilt als die wich­tigs­te Basis­tech­no- logie unse­rer Zeit, ver­bun­den mit der Aus­sicht auf subs- tan­zi­el­le Pro­duk­ti­vi­täts- und Wachs­tums­ef­fek­te quer durch alle Bran­chen. Nach vie­len Miss­erfol­gen dau­er­te es über 55 Jah­re bis die KI leis­tungs­fä­hi­ge Ergeb­nis­se vor­wei­sen konn­te. Vor etwa 10–12 Jah­ren hat­te die KI letzt­end­lich ihren Durchbruch.

1 2021 Stu­dy Panel Report der Stan­ford Uni­ver­si­ty „The One Hundred Year Stu­dy on Arti­fi­ci­al Intel­li­gence (AI100)”, umfasst 82 Seiten.

II. Para­dig­men­wech­sel: vom modell­ba­sier­ten Ansatz zum Lernen

Die frü­hen Jah­re der Künst­li­chen Intel­li­genz (ers­te Ansät­ze schon 1956) waren ein ziem­li­cher Miss­erfolg (syn­tax­ori­en­tier­te, graph- und regel­ba­sier­te Ansätze).

Der klas­si­sche Ansatz der KI zur Lösung von Pro­ble- men, wie auch in vie­len ande­ren Berei­chen sieht fol­gen- der­ma­ßen aus: Man macht sich ein deter­mi­nis­ti­sches oder auch sto­chas­ti­sches mathe­ma­ti­sches Modell von ei- ner Pro­blem­stel­lung und mit nume­ri­schen Opti­mie- rungs­me­tho­den ermit­telt man die Para­me­ter des Mo- dells, wel­che eine Ziel­funk­ti­on oder ein Güte­kri­te­ri­um opti­mal erfül­len. Dabei sind i. Allg. sehr schwie­ri­ge ma- the­ma­ti­sche Glei­chun­gen zu bewältigen.

Mit die­sem Ansatz war die KI jedoch über eini­ge Jahr­zehn­te sehr wenig erfolgreich.

1. Künst­li­che Neu­ro­na­le Netze

Mit dem Ein­satz von künst­li­chen Neu­ro­na­len Net­zen (KNN) voll­zog man einen radi­ka­len Para­dig­men­wech- sel.

Anstatt für ein Pro­blem ein Modell zu ent­wi­ckeln, die Para­me­ter eines Lösungs­an­sat­zes zu opti­mie­ren und einen Algo­rith­mus zu schrei­ben (pro­ze­du­ra­le schritt- wei­se Anwei­sun­gen) trai­niert man ganz ein­fach ein Neu- rona­les Netz mit Daten oder Ergeb­nis­sen von einem Ex- peri­ment, um eine opti­ma­le Lösung durch sys­te­ma­ti­sche Suche über dem gesam­ten Ereig­nis­raum zu finden.

In Anleh­nung an das mensch­li­che Gehirn schuf man ein mathe­ma­ti­sches Modell von einem NN. Solch ein Netz lernt, ohne dass man auch nur eine ein­zi­ge Zei­le Pro­gramm­code schrei­ben muss. Den Code für ein Netz schreibt man nur ein­mal für die Netz­op­ti­mie­rung und dann kann es für unter­schied­li­che Auf­ga­ben i. Allg. un- ver­än­dert über­nom­men werden.

Hans Burk­hardt

Ein Bei­trag zur Künst­li­chen Intelligenz

2 Wiki­pe­dia: „Künst­li­che Intel­li­genz“. Ord­nung der Wis­sen­schaft 2023, ISSN 2197–9197

72 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78

Für ein ein­zel­nes natür­li­ches Neu­ron (Abb. 1) wur­de 1943 ein mathe­ma­ti­sches Modell ver­öf­fent­lich, wel­ches heu­te noch Ver­wen­dung fin­det (Abb. 2).

Die neu­ro­na­le Akti­vi­tät wird durch ein Ska­lar­pro- dukt zwi­schen dem Gewichts­vek­tor w und den Ein- gangs­ka­nä­len xi mit einer sich anschlie­ßen­den nicht­li- nea­ren Akti­vie­rungs-Funk­ti­on f(s) beschrie­ben. Die Ein­gangs­ka­nä­le wer­den gespeist von Sen­so­ren wie das Auge oder das Ohr. Dabei kön­nen die Erre­gun­gen xi ver- stär­kend oder hem­mend wir­ken, was zu posi­ti­ven oder nega­ti­ven Gewichts­wer­ten wi kor­re­spon­diert. Ein hoher Gewichts­wert bedeu­tet, dass ein Neu­ron sei­ne Infor­ma- tion mit hohem Ein­fluss an ein Neu­ron der nächs­ten Schicht wei­ter­gibt, ein nied­ri­ger Gewichts­wert bedeu­tet, dass das Vor­gän­ger­neu­ron kei­nen gro­ßen Ein­fluss auf das nach­fol­gen­de Neu­ron besitzt.

Ein ein­zel­nes Neu­ron kann bis zu 10.000 Syn­ap­sen besit­zen und damit von so vie­len Neu­ro­nen der vor­her- gehen­den Schicht beein­flusst werden.

Das gesam­te Gehirn besteht nun aus sehr vie­len La- gen sol­cher Neu­ro­nen, wobei ein Neu­ron einer Schicht

sei­ne Infor­ma­ti­on an die Neu­ro­nen der nach­fol­gen­den Schich­ten wei­ter­gibt. Damit erhält man das Modell des Multilagen-Perceptrons.

Die Ein-Aus­gangs­ab­bil­dung oder die Funk­ti­on des Net­zes wird allein durch die Gewich­te der Syn­ap­sen in Abb. 2 fest­ge­legt. Ler­nen bedeu­tet die­se Gewich­te opti- mal an die Bedürf­nis­se des Net­zes anzu­pas­sen. Stark ver- ein­facht geschieht dies, indem man die Gewich­te gering- fügig ver­än­dert und den Wert bei­be­hält, falls das Ergeb- nis sich dadurch ver­bes­sert hat. Das Netz wird durch das Ergeb­nis einer Ziel­funk­ti­on belohnt oder bestraft, falls man eine rich­ti­ge oder fal­sche Anpas­sung eines Gewich- tes durch­ge­führt hat. Die­ses ver­stär­ken­de Ler­nen („Re- inforce­ment Lear­ning“) nutzt ein ähn­li­ches Prin­zip wie das mensch­li­che Gehirn. Eine Ziel­funk­ti­on ist z. B. beim Schach­spie­len die Anzahl der gewon­ne­nen Partien.

Genau­er gesagt beinhal­tet Ler­nen den Ein­satz von nume­ri­schen Opti­mie­rungs­ver­fah­ren für die Berech- nung der Gewich­te. Beliebt sind Gra­di­en­ten­al­go­rith­men (z.B. Back­pro­pa­ga­ti­on-Algo­rith­mus) zur Maxi­mie­rung einer Ziel­funk­ti­on. Wenn man auf den höchs­ten Berg im

Abb. 2: Mathe­ma­ti­sches Modell eines Neu- rons mit sei­nen Ver­bin­dun­gen von 19433

page2image55400336 page2image55408656

Abb. 1: Natür­li­ches Neuron

page2image55407824

Abb. 3: Das Mul­ti­la­gen-Per­cep­tron mit 3 Schichten4

W. S. McCul­loch and W. Pitts: “A logi­cal cal­cu­lus of the ide­as imma– Rosen­blatt, in: The per­cep­tron: a pro­ba­li­stic model for infor­ma­ti­on nent in neu­rons acti­vi­ty”, Bull. Math. Bio­phys., vol. 5, pp. 115–133, sto­rage and orga­niza­ti­on in the brain“, Psy­cho­lo­gi­cal Review, 1958. 1943.

Burk­hardt · Ein Bei­trag zur Künst­li­chen Intel­li­genz 7 3

Schwarz­wald möch­te, so erreicht man das, indem man immer den Weg des steils­ten Anstiegs folgt (Gra­di­en- ten­al­go­rith­mus). Sucht man die xy-Koor­di­na­ten des Feld­bergs und star­tet man mit den Koor­di­na­ten von Bä- ren­thal, so wird man damit aller Vor­aus­sicht nach am Feld­berg raus­kom­men. Der Feld­berg ist das glo­ba­le Ma- ximum im gan­zen Schwarz­wald mit 1493 m. Star­tet man hin­ge­gen in Men­zen­schwand und folgt immer dem Weg des steils­ten Anstiegs, so wird man vor­aus­sicht­lich am Her­zo­gen­horn raus­kom­men. Dies ist nur ein loka­les Maxi­mum mit nur 1414 m Höhe und damit ledig­lich eine sub­op­ti­ma­le Lösung.

Uni­ver­sa­li­tät eines KNNs: Es gibt einen schö­nen Be- weis, dass man mit nur 3 Lagen eines Per­cep­trons jede belie­bi­ge mathe­ma­ti­sche Abbil­dung rea­li­sie­ren kann. Aber mit immer mehr Lagen erhöht man die Fle­xi­bi­li­tät und damit die Leis­tungs­fä­hig­keit eines KNNs.

Gene­ra­li­sie­rungs­fä­hig­keit eines NN: Wich­tig zu wis­sen ist, wie sich das Netz in nicht gelern­ten Situa­tio- nen ver­hält. KNNs sind im All­ge­mei­nen in der Lage zu

inter­po­lie­ren oder auch zu extra­po­lie­ren und damit auch auf nicht gelern­te Situa­tio­nen zu reagieren.

Die­ser Lern­an­satz mit Künst­li­chen Neu­ro­na­len Net- zen war revo­lu­tio­när in der KI, aber die Net­ze waren für die Pra­xis weit­ge­hend untaug­lich. KNNs erfüll­ten vor 20 Jah­ren noch nicht die an sie gesetz­ten Hoff­nun­gen und wur­den ad acta gelegt. Man konn­te ledig­lich rela­tiv klei- ne Net­ze bis etwa 1.000 — 10.000 Neu­ro­nen nume­risch sta­bil beherr­schen. Dies reich­te wegen der gerin­gen Va- ria­bi­li­tät nicht aus, um rea­le gro­ße Pro­ble­me zu lösen. Wähl­te man grö­ße­re Net­ze, so erziel­te die Opti­mie­rung i. Allg. nur sub­op­ti­ma­le und weit­ge­hend unbrauch­ba­re Ergeb­nis­se und man hat des­halb den KNNs kei­ne Zu- kunft gegeben.

Sie waren zu die­sem Zeit­punkt ledig­lich eine aka­de- mische Spiel­wie­se, aber kein rea­les Instru­ment für har­te Anwen­dun­gen. Ande­re mathe­ma­ti­sche Metho­den wa- ren wesent­lich leis­tungs­fä­hi­ger (z.B. Sup­port Vec­tor Machines).

page3image55402416

Abb. 4: Ein künst­li­ches Neu­ro­na­les Netz mit meh­re­ren Lagen zur Mus­teer­ken­nung von hand­ge­schrie­be­nen Ziffern

Abb. 5a: Über­kopf­pen­del Abb. 5b: Über­kopf­pen­del mit einem zwei­ten Gelenk

page3image55399296

74 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78

III. Über­kopf­pen­del

Ein sehr frü­hes Expe­ri­ment in der KI war das Über­kopf- pen­del, wobei damit ins­be­son­de­re der Para­dig­men­wech- sel ver­deut­licht wer­den kann.

Ein klei­ner Wagen muss so bewegt wer­de, dass ein Stab mit einem Gelenk auf dem Wagen nicht umfällt (Abb. 5). Selbst wenn man den Stab antippt (Stö­rung), muss er wie­der aus­ge­re­gelt wer­den und darf nicht umfallen.

Die­ses Pro­blem wur­de schon vor län­ge­rer Zeit ana­ly- tisch gelöst. Man hat eine Dif­fe­ren­ti­al­glei­chung für die Bewe­gung und die Dyna­mik des Sta­bes auf­ge­stellt und dann mit Metho­den der Rege­lungs­theo­rie einen Reg­ler ent­wi­ckelt. Dies gelingt auch für den schwie­ri­ge­ren Fall, dass der Stab noch ein zwei­tes Gelenk hat (theo­re­tisch wur­de auch der Fall mit n Gelen­ken gelöst); auch die­ser Stab wird senk­recht gehalten.

Die glei­che Rege­lung wird z.B. beim Start einer Rake- te benö­tigt. Ohne Rege­lung wür­de die Rake­te nach kur- zer Zeit umkippen.

Man kann nun aber ein­wen­den, dass es auch einem Kind nach eini­ger Zeit Übung gelingt, einen Stab auf der Hand zu balan­cie­ren, ohne etwas von Dif­fe­ren­ti­al­glei- chun­gen und Reg­ler­ent­wurf zu ver­ste­hen. Das Kind lernt die Lösung durch Experimentieren.

Dies hat KI-Wis­sen­schaft­ler moti­viert, das Pro­blem des Über­kopf­pen­dels mit einem KNN zu lösen, was mit gro­ßem Erfolg gelang und mit einem wesent­lich gerin- gerem Ent­wick­lungs­auf­wand ver­bun­den war als die ana- lyti­sche Lösung. Ein schö­nes Video für die Rege­lung ei- nes Über­kopf­pen­dels mit einem zwei­ten Gelenk fin­det man unter der Internet-Adresse.5

Ein sehr ähn­li­ches Bei­spiel, aber noch wesent­lich kom­ple­xer, ist die Auf­ga­be, einem huma­no­iden Robo­ter den auf­rech­ten Gang oder Trep­pen stei­gen bei­zu­brin- gen. Die Robo­tik hat erstaun­lich lan­ge gebraucht, um wirk­lich funk­tio­nie­ren­de huma­no­ide Zwei­bei­ner zu ent- wickeln. Denn Gehen ist kei­ne ein­fa­che Auf­ga­be, vor al- lem auf zwei Bei­nen. Man muss die Vor­wärts­be­we­gung kon­trol­lie­ren und sich gleich­zei­tig auf­recht hal­ten. Es ge- lang mit Hil­fe eines Neu­ro­na­les Net­zes und Rein­force- ment Ler­nen erfolg­reich eine recht flüs­sig aus­se­hen­de huma­no­ide Geh­be­we­gung nachzuahmen.6 Ein ein- drucks­vol­les Video fin­det man unter.7

5 Video Über­kopf­pen­del: https://blog.otoro.net/2015/02/11/cne-algorithm-to-train-self- balan­cing-dou­ble-inver­ted-pen­dulum/ (letz­ter Zugriff am 08.03.2023)
https://otoro.net/ml/pendulum-cne/ (letz­ter Zugriff am 08.03.2023)

IV. Deep Blue

Ein ers­ter Durch­bruch der KI gelang 1996 als mit dem von IBM ent­wi­ckel­ten Sys­tem Deep Blue, mit der Schach-Welt­meis­ter Gar­ri Kas­pa­rov in sechs Par­tien geschla­gen wur­de. Die Soft­ware dazu war klas­sisch regel- basiert geschrie­ben und der Ent­wick­lungs­auf­wand dafür war erheb­lich. Schach­com­pu­ter im Stil von Deep Blue ver­rich­ten ihre Arbeit mit­hil­fe des soge­nann­ten Alpha- Beta-Algo­rith­mus. Dahin­ter steckt im wesent­li­chen bru- tale Rechen­ge­walt („bru­te force“-Ansatz), wobei alle mög­li­chen Züge bis zu einer gewis­sen Spiel­tie­fe durch­ge- rech­net wer­den. Außer­dem war der Ansatz zwar adap­tiv, aber nicht lernend.

Das Pro­jekt Deep-Blue kos­te­te IBM ins­ge­samt etwa 5 Mil­lio­nen US-Dol­lar. Zudem muss­te ein sehr leis­tungs- fähi­ger gro­ßer Rech­ner ver­wen­det werden.

Im Vor­griff auf die nächs­ten Kapi­tel: Alpha Zero lern­te Schach in nur 4 Stun­den und erreich­te einen Elo- Wert von ca. 3300. Der Elo-Wert ist eine Maß­zahl für die Spiel­stär­ke einer Per­son oder einer Maschi­ne. Der am- tie­ren­de Welt­meis­ter Magnus Carlsen hat einen Elo- Wert von etwa 2.850. Ein Mensch braucht in der Regel min­des­tens 15 Jah­re um auf Welt­ni­veau Schach zu spielen.

V. Der Durch­bruch: Deep Lear­ning mit Fal­tungs­net- zen.

Es gab einen his­to­ri­schen Durch­bruch der künst­li­chen Intel­li­genz in den Jah­ren 2008–2016 mit Hil­fe sehr gro- ßer künst­li­cher Neu­ro­na­ler Fal­tungs­net­ze (con­vo­lu­tio- nal net­works) mit vie­len Lagen (Deep Lear­ning). Damit ist man in der Lage sehr gro­ße Daten­men­gen zu verar- bei­ten. Wir kön­nen Maschi­nen ent­wi­ckeln, wel­che intel- ligen­tes Han­deln direkt aus den vor­lie­gen­den Daten ler- nen kön­nen, anstatt pro­gram­miert zu werden.

Heu­te beherrscht man durch­aus Net­ze mit 108 – 1011 Neu­ro­nen mit sta­bi­len nume­ri­schen Ergeb­nis­sen. Das mensch­li­che Gehirn zum Ver­gleich, besitzt 1011 = 100 Mil­li­ar­den Neuronen.

Bei Fal­tungs­net­zen (con­vo­lu­tio­nal net­works, CNN) sind lokal benach­bar­te Neu­ro­nen mit­ein­an­der gekop- pelt. Dies kann als mathe­ma­ti­sche Regu­la­ri­sie­rung des KNNs inter­pre­tiert wer­den und des­halb konvergieren

Haar­no­jaTuo­mas, et al. „Lear­ning to walk via deep rein­force­ment lear­ning.“ arXiv pre­print arXiv:1812.11103 (2018).

7 Video zum The­ma Lau­fen ler­nen: https://youtu.be/WmN7zq-D3cg (letz­ter Zugriff am 08.03.2023)

Burk­hardt · Ein Bei­trag zur Künst­li­chen Intel­li­genz 7 5

damit auch sehr gro­ße und tie­fe Net­ze mit vie­len Lagen, wie sie in rea­len Anwen­dun­gen benö­tigt werden.

Es gab glück­li­cher­wei­se ein paar weni­ge Wis­sen- schaft­ler, wel­che den Glau­ben an das Poten­ti­al der KNNs trotz der frü­hen Miss­erfol­ge nicht ver­lo­ren. Ihnen ist es zu ver­dan­ken, dass KNNs heu­te auch für sehr gro­ße Net- ze in rea­len Anwen­dun­gen ein­ge­setzt wer­den kön­nen. Yoshua Ben­gioGeoffrey Hin­ton und Yann LeCun, wur­de 2018 der Turing Award ver­lie­hen; die­se Aus­zeich­nung gilt als der Nobel­preis der Infor­ma­tik. Alle drei wer­den durch ihre zum Teil gemein­sa­men Arbei­ten als „Väter der Deep-Lear­ning-Revo­lu­ti­on“ ange­se­hen (sie­he dazu auch8,9). Yan LeCun gilt als Schöp­fer der Con­vo­lu­tio­nal Neu­ral Networks.

VI. Alpha­Go Zero und Alpha Zero von Deep Mind (Goog­le)

1. Alpha­Go Zero (Okt 2017)10

Das Chi­ne­si­sche Brett­spiel Go besteht aus nur vier Grund­re­geln, gilt aber als eines der kom­ple­xes­ten Brett- spie­le der Welt, wesent­lich kom­ple­xer als Schach.

Vier Ver­sio­nen von Alpha­Go zählt Deep­Mind mitt- ler­wei­le. Sie alle beru­hen auf einer Kom­bi­na­ti­on von neu­ro­na­len Net­zen und der Baum­such­tech­nik Mon­te Car­lo Tree Search (MCTS).

Die ursprüng­li­che Alpha­Go-Ver­si­on, besieg­te 2016 den 18-fachen Go-Welt­meis­ter Lee Sedol mit 4:1. Alpha Go trai­nier­te ein KNN zunächst mit allen je inter­na­tio- nal auf­ge­zeich­ne­ten Go-Wett­be­wer­ben. Danach spiel­ten zwei Alpha­Go-Maschi­nen gegen­ein­an­der und ver­bes- ser­ten ihre Spiel­stär­ke noch ein­mal um einen deut­li­chen Prozentsatz.

Der Nach­fol­ger Alpha­Go Zero, lernt durch Mil­lio­nen von Par­tien gegen sich selbst, vor­ge­ge­ben wer­den ledig- lich die Spiel­re­geln.
Ein neu­es Para­dig­ma: Ler­nen ohne jeg­li­ches Vor­wis­sen und Ver­zicht auf mensch­li­ches Wis­sen! Vor­her­ge­hen­de Ver­sio­nen lern­ten zunächst tau­sen­de von Men­schen auf Tur­nie­ren gespiel­te Par­tien. Der Lern­vor­gang funk­tio- niert allei­ne nach dem Prin­zip des „Rein­force­ment-Lear- ning”, indem das Pro­gramm gegen sich selbst spiel­te und ohne das mensch­li­che Vor­wis­sen über Eröff­nun­gen und End­spie­le zu ver­wen­den und ohne die kom­ple­xe Theo­rie der Spie­le zu stu­die­ren. Es stell­te sich her­aus, dass die Ver­wen­dung von mensch­li­chem Wis­sen eher hin­der­lich war und zu einer schlech­te­ren Kon­ver­genz des Lern­vor- gangs führte.

Ein mensch­li­cher Spie­ler hät­te inzwi­schen kei­ne Chan­ce mehr gegen die Maschi­ne zu gewin­nen (Abb. 6). Sehr inter­es­sant ist auch, dass die KI voll­kom­men neue Spiel­stra­te­gien her­aus­fand, welch zuvor noch von

kei­nem mensch­li­chen Spie­ler gespielt wurden.

2. Alpha Zero von Deep­Mind (Dez 2017)11

Alpha Zero zeigt eine völ­lig neue Ent­wick­lung auf, näm- lich hin zur uni­ver­sel­len Lernmaschine.

Alpha­Ze­ro ist eben­falls eine Soft­ware der Goog­le- Toch­ter Deep­Mind. Der Nach­fol­ger von Alpha­Go lernt durch Mil­lio­nen von Par­tien gegen sich selbst, vor­ge­ge- ben wer­den ledig­lich die Spielregeln.

Ein selbst­ler­nen­der Algo­rith­mus hat 3 kom­ple­xe stra- tegi­sche Spie­le gelernt, ohne die kom­pli­zier­te Theo­rie, wel­che sich dahin­ter ver­birgt, zu stu­die­ren. Alpha­Ze­ro war in der Lage, mit einem ein­zi­gen KNN gleich­zei­tig GoSchach und Sho­gi (Japa­ni­sches Schach) zu lernen.

page5image55408448

Abb. 6: Fort­schritt in der

  1. 8  Sze, Y. H. Chen, T. J. Yang and J. S. Emer: „Effi­ci­ent Pro­ces­sing of Deep Neu­ral Net­works: A Tuto­ri­al and Sur­vey“, In Pro­cee­dings of the IEEE, vol. 105, no. 12, pp. 2295–2329, Dec. 2017
  2. 9  Jason Mayes„Machi­ne Lear­ning 101“, https://docs.google.com/ presentation/d/1kSuQyW5DTnkVaZEjGYCkfOxvzCqGEFzWB y4e9Uedd9k/edit#slide=id.g168a3288f7_0_58 (letz­ter Zugriff am

Spiel­stär­ke von AlphaG0

(08.03.2023).
10 David Sil­ver et al.: „Mas­te­ring the game of Go wit­hout human know-

ledge”, Natu­re 550, 354–359 (19. Octo­ber 2017).
11 David Sil­ver et al.: „Mas­te­ring Chess and Sho­gi by Self-Play with a

Gene­ral Rein­force­ment Lear­ning Algo­rithm”, arXiv:1712.01815 [cs. AI], Cor­nell University.

76 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78

Ohne jeg­li­ches Vor­wis­sen, außer den Spiel­re­geln, er- reich­te das Sys­tem nach 24 Stun­den über­mensch­li­che Spiel­stär­ke in allen drei Spie­len.
Das Sys­tem lernte:

– Sho­gun in nur 2 Stun­den – Schach in 4 Stun­den
– Go in 8 Stunden

Die ursprüng­li­che Alpha­Go-Ver­si­on, muss­te noch meh- rere Mona­te lang trai­niert werden!

Bei der hohen Über­le­gen­heit des Ansat­zes gegen­über Men­schen macht es kei­nen Sinn mehr KI-Lösun­gen durch Test­spie­le gegen die bes­ten Spie­ler der Welt zu be- wei­sen. „Com­pu­ter­schach­pro­gram­me sind mitt­ler­wei­le so gut, dass es illu­so­risch ist, dage­gen zu spie­len“, sagt der Welt­klas­se­spie­ler Johan­nes Zwanzger.

Des­halb hat man Alpha Zero gegen die bis­her bes­ten klas­sisch ent­wor­fe­nen Brett­spiel­pro­gram­me antre­ten las­sen. Es spiel­te stär­ker als Stock­fi­sh (Schach) und Elmo (Sho­gi) und bewies damit ein­drucks­voll die Über­le­gen- heit des selbst­ler­nen­den Ansat­zes der KI, bei gleich­zei­tig wesent­lich gerin­ge­rem Ent­wick­lungs­auf­wand. Außer- dem war es stär­ker als das zuvor nur für Go ent­wi­ckel­te Alpha­Go Zero.

In 100 Spie­len hat Alpha­Ze­ro kein ein­zi­ges Spiel in Schach ver­lo­ren, es ver­lor 8 bei Sho­gi und 40 bei Go. Der Algo­rith­mus lief auf einem ein­zi­gen PC mit 4 TPUs. Stock­fi­sh und Elmo ver­wen­de­ten 64 CPU-Kerne.

3. Fort­schrit­te bei der Hard­ware und dem Ener­gie­ver- brauch beim Spielen

Die Fort­schrit­te beim Ener­gie­ver­brauch und bei der Kom­ple­xi­tät der ver­wen­de­ten Hard­ware sind enorm. Nur noch eine Maschi­ne mit 4 TPUs braucht Alpha­Go Zero; bei der ers­ten Ver­si­on war es noch ein Clus­ter mit

über 1000 CPU-Ker­nen und 176 GPUs. Ten­sor Pro­ces- sing Units (TPUs), auch Ten­sor-Pro­zes­so­ren, sind von Goog­le ent­wi­ckel­te anwen­dungs­spe­zi­fi­sche Chips um Anwen­dun­gen im Rah­men des maschi­nel­len Ler­nens zu beschleunigen.

Es wird vor­aus­sicht­lich nicht lan­ge dau­ern, bis die­se Spiel­leis­tung auch auf Mobil­te­le­fo­nen ver­füg­bar sein wird.

VII. Bes­ser als der Mensch

Der Grad­mes­ser für Leis­tungs­mes­sun­gen bei Künst­li- cher Intel­li­genz war immer der Mensch

Inzwi­schen sind vie­le KI-Lösun­gen in unter­schied- lichs­ten Anwen­dun­gen wesent­lich bes­ser gewor­den als der Mensch und sie ler­nen auch wesent­lich schnel­ler. Man darf gespannt sein, was von die­ser Ent­wick­lung noch zu erwar­ten ist. Neu­ro­chips ler­nen 10.000-mal schnel­ler als unser Gehirn und sie fin­den häu­fig neue Lösun­gen für Pro­ble­me, wel­che Men­schen zuvor noch nie ent­deckt haben.

Wei­te­re Anwen­dungs­bei­spie­le der KI:
– Kla­rer Sieg für die künst­li­che Intel­li­genz: Beim

US-Game­show-Klas­si­ker „Jeo­par­dy“ hat der IBM- Com­pu­ter „Wat­son“ (seman­ti­sche Such­ma­schi­ne) zwei mensch­li­che Cham­pi­ons besiegt (2011).

– Ler­nen von Ata­ri-Spie­len mit KI basie­rend allei­ne auf Video­auf­nah­men des Com­pu­ter-Bild­schirms. Ers­ten Ansät­zen mit Rein­force­ment Ler­nen gelang es sehr erfolg­reich eine Anzahl von Ata­ri-Spie­len zu ler­nen. Man schei­ter­te jedoch bei bestimm­ten Spie- len. Die Autoren von „Go-Explo­re“12 erziel­ten erheb- liche Fort­schrit­te durch eine Kom­bi­na­ti­on von CNNs mit stra­te­gi­schen Entscheidungsstrategien

page6image55408240

Abb. 7: Fort­schrit­te bei der Hard­ware und dem Ener­gie­ver­brauch beim Spie­len
12 Ecof­fet, A., Hui­zin­ga, J., Leh­man, J., Stan­ley, K. O., & Clune, J. (2021). „First return, then explo­re“, Natu­re, 590(7847), 580–586.

Burk­hardt · Ein Bei­trag zur Künst­li­chen Intel­li­genz 7 7

und Domä­nen­wis­sen. Go-Explo­re merkt sich kon- kre­te Zustän­de der Lösungs­do­mä­ne und geht immer wie­der zum letz­ten erfolg­rei­chen Punkt zurück, um von dort aus erneut alles zu erkun­den. In allen 55 getes­te­ten Titeln spiel­te Go-Explo­re ins­ge­samt über- mensch­lich, selbst im Erkun­dungs­spiel „Pit­fall!“, in dem älte­re KIs bis­lang über­haupt kei­ne Punk­te erzie­len konn­ten. Das Pro­gramm setz­te einen Rekord indem es den mensch­li­chen Welt­re­kord brach.

– Hand­schrift­er­ken­nung:
Hand­schrift­er­ken­nung war schon immer eine Domä­ne des Men­schen, wel­che man von Kind auf trai­niert hat. Maschi­nel­le Lösun­gen taten sich zunächst schwer, ver­gleich­ba­re Lösun­gen zu fin­den. Klas­si­sche Ansät­ze der Mus­ter­er­ken­nung erreich­ten dann doch bemer­kens­wer­te Ergeb­nis­se mit einer Feh­ler­ra­te von nur 0,6%. Getes­tet wur­den die Lösun- gen anhand der MNIST-Daten­bank, wel­che tau­sen- de von hand­ge­schrie­be­nen Buch­sta­ben und Zif­fern ent­hält. Men­schen errei­chen bei die­ser Daten­bank eine Feh­ler­ra­te von 1,4%. Die bes­ten Ergeb­nis­se mit Deep Lear­ning lie­gen inzwi­schen bei einer Feh­ler­ra- te von 0,21% und damit fast 7‑mal bes­ser als der Mensch.13

– Ankün­di­gung von Deep­Mind Health durch Goog- le (24. Febr. 2016)

– Goog­le: Deep­Mind redu­zier­te mit maschi­nel­lem Ler­nen den Ener­gie­ver­brauch der Kühl­sys­te­me in ihren For­schungs­zen­tren um erstaun­li­che 40%.

– Goog­le trai­niert ein ein­zi­ges Neu­ro­na­les Netz wel­ches 100 Spra­chen über­set­zen kann.

– Luft­kampf (Dog Fight) gegen einen der erfah­rens- ten Pilo­ten der US-Air Force. Der Pilot hat­te kei­ne Chan­ce gegen die KI.

– Sieg beim Poker­spiel: Die sieg­rei­che KI-Soft­ware mit Namen Libra­tus wur­de von zwei For­schern der

Car­ne­gie Mel­lon-Uni­ver­si­tät ent­wi­ckelt und strich bei dem Match gegen vier der welt­bes­ten Poker­spie- ler mit deut­li­chem Vor­sprung den angeb­li­chen Mil- lio­nen-Pot ein. Dies ist inso­fern bemer­kens­wert, weil man der KI kei­nen so gro­ßen Erfolg pro­phe­zeit hat, wo die mensch­li­che Intui­ti­on oder das „Bauch- gefühl“ benö­tigt wird.

– ImageN­et ist ein jähr­li­cher Bil­der­ken­nungs­wett­be- werb, also z.B. die Fra­ge ist in einem Bild eine Kat­ze zu fin­den. 2015 unter­bot ein Deep-Lear­ning-Sys­tem von Micro­soft in einer Kate­go­rie mit 4,9 Pro­zent die mensch­li­che Feh­ler­ra­te von 5,1 Prozent.

– Goog­le Musik­su­che; die Musik­erken­nungs­soft­ware von Goog­le erkennt in weni­gen Sekun­den, wel­ches Musik­stück gera­de zu hören ist; viel­mehr ist das Pro­gramm jetzt auch in der Lage, Musik­stü­cke durch blo­ßes Vor­sum­men, Pfei­fen oder Sin­gen zu erkennen.

VIII. Com­pu­ter-Hard­ware

Der Erfolg beim Maschi­nel­len Ler­nen ist nur mög­lich mit enor­mer Rechen­leis­tung. Eine zen­tra­le Rol­le spie­len dabei GPUs. Eine „GPU“ ist die Gra­phic Pro­ces­sing Unit, also der Pro­zes­sor der Gra­fik­kar­te eines PCs. Mit sol- chen Gra­phik­kar­ten las­sen sich Lern­vor­gän­ge bei gro- ßen KNNs erheb­lich beschleunigen.

Leis­tungs­da­ten der Gra­fik­kar­te NVIDIA GeForce GTX 1080:

– 2.560 Ker­ne, Takt: 2 GHz
– 7,2 Mil­li­ar­den Tran­sis­to­ren
– 10 Tera­FLOPS = 1013 FLOPS = 10.000.000.000.000

FLOPS
– (1 FLOP ist eine Floa­ting-Point-Ope­ra­ti­on wie z.B.

eine Addi­ti­on oder eine Mul­ti­pli­ka­ti­on zwei­er Gleit- kommazahlen)

page7image55408864

13

Abb. 8: Gra­fik­kar­te NVIDIA GeForce GTX 1080

A. Bal­do­mi­nos, Y. Saez, P. Isa­si“A sur­vey of hand­writ­ten cha­rac­ter reco­gni­ti­on with MNIST and EMNIST” Appli­ed Sci­en­ces, 2019 — mdpi.com (letz­ter Zugriff am 08.03.2023).

78 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78

  • –  Etwa 100-mal schnel­ler als ein PC
  • –  Ener­gie­ver­brauch: ca. 150 Watt
  • –  Kos­ten: ca. 800,-€Zum Vergleich:
  • –  2002 erreich­te der welt­weit schnells­te Super­com­pu- ter 10 TFLOPS,
  • –  Ener­gie­ver­brauch: 3,2 MWatt
  • –  Kos­ten: 50 Mio$ –Dass man heu­te alles auf einem PC rech­nen kann und kei­nen Super­com­pu­ter für 50 Mil­lio­nen braucht, hat ganz wich­tig dazu bei­getra­gen, dass vie­le tau­send Wis- sen­schaft­ler und Ent­wick­ler auf der gan­zen Welt heu­te an sol­chen Pro­ble­men arbei­ten und die Sys­te­me wei­ter- ent­wi­ckeln kön­nen.XI. Aus­blickIn den letz­ten 5 Jah­ren hat die KI gro­ße Fort­schrit­te ins- beson­de­re auf fol­gen­den Gebie­ten gemacht: Com­pu­ter Visi­on, Sprach­er­ken­nung und Sprach­syn­the­se, natür­li- ches Sprach­ver­ste­hen, Bild- und Video Gene­rie­rung, Mul­ti­agen­ten­sys­te­me, Pla­nungs­stra­te­gien, Robo­tik, Spie­le, medi­zi­ni­sche Dia­gno­se, Logis­tik, auto­no­mes Fah­ren, Über­set­zer, Arz­nei­mit­tel­syn­the­se. Fort­schrit­te wur­den erzielt in Bezug auf: Ler­nen, Leis­tungs­fä­hig­keit, Hard­ware und Energieverbrauch.Es ist zu erwar­ten, dass in naher Zukunft vie­le wei­te- re Anwen­dungs­ge­bie­te hin­zu­kom­men. Z.B. wer­den Such­ma­schi­nen in der Lage sein, wesent­lich prä­zi­se­re se- man­ti­sche Anfra­gen zu beant­wor­ten und nicht nur eine Ansamm­lung von Stich­wör­tern aus­zu­wer­ten. Auf Mo- bil­te­le­fo­nen wird die KI bereits inten­siv eingesetzt.Google ist über­zeugt vom gro­ßen Poten­ti­al von Deep Lear­ning und hat des­halb mit einer Erst­in­ves­ti­ti­on von

600 Mio US$ die Toch­ter­fir­ma Deep Mind gegrün­det. Apple, IBM und Micro­soft zie­hen nach und stel­len vie­le neue Mit­ar­bei­ter für die­ses Gebiet ein.

Chi­na strebt nach welt­wei­ter Domi­nanz bei Künst­li- cher Intel­li­genz. Der Staats­rat der Volks­re­pu­blik Chi­na hat im Juli 2017 die Künst­li­che Intel­li­genz zur wich­tigs- ten Schlüs­sel­tech­no­lo­gie erklärt und einen Plan zu deren Wei­ter­ent­wick­lung beschlos­sen mit enor­men Inves­ti­tio- nen. Schon 2030 soll die chi­ne­si­sche KI-Indus­trie min- des­tens 150 Mil­li­ar­den US$ auf die­sem Gebiet umsetzen.

Trotz der groß­ar­ti­gen Erfol­ge der KI im letz­ten Jahr- zehnt, müs­sen die Ergeb­nis­se jedoch auch etwas rela­ti- viert wer­den, da alle damit gelös­ten Pro­ble­me wie etwa typi­scher­wei­se das Schach­spiel, einer gewis­sen Klas­se von Intel­li­genz zuzu­ord­nen sind, wel­che man als „me- cha­nis­ti­sche Intel­li­genz“ bezeich­nen könn­te und wel­che alle eine klar for­mu­lier­ba­re Ein-/Aus­gangs­funk­tio­na­li­tät auf­wei­sen. Wenn es hin­ge­gen um Gebie­te der Intel­li­genz geht, wo Eigen­schaf­ten wie etwa Krea­ti­vi­tät, Intui­ti­on oder Asso­zia­ti­vi­tät gefragt sind, dann kann die KI noch kei­ne so gro­ßen Erfol­ge im Ver­gleich zum Men­schen vor­wei­sen. Hier ist der Mensch der Maschi­ne noch deut- lich über­le­gen; aber es wird dar­an gearbeitet.

Man kann jedoch fest­stel­len, dass der Traum der In- for­ma­ti­ker, mensch­li­che Intel­li­genz mit Com­pu­tern nach­zu­bil­den, in den letz­ten 10 Jah­ren zu einem bemer- kens­wer­ten Teil in Erfül­lung gegan­gen ist.

Der Autor ist Pro­fes­sor am Insti­tut für Infor­ma­tik an der Albert-Lud­wigs-Uni­ver­si­tät Frei­burg. Sei­ne For- schungs­schwer­punk­te lie­gen in den Berei­chen Com- puter Visi­on, Künst­li­che Intel­li­genz und Mus­ter­er­ken- nung.