Dieser Aufsatz wird nicht in der Lage sein, das Thema umfassend zu behandeln,1 vielmehr werden wesentliche Gedankenansätze der Künstlichen Intelligenz (KI) beleuchtet und erläutert. Auf Mathematik wird weitge- hend verzichtet. Der Beitrag zeigt die elementaren Wirk- prinzipien heutiger KI auf, verweist auf eine Reihe erfolgreicher Anwendungen und zeigt Perspektiven für die Zukunft auf.
I. Was ist künstliche Intelligenz?
Die Vision, dass Maschinen eines Tages sprechen, abs- trakte Konzepte bilden, die gleichen Probleme wie Men- schen lösen und sich ständig verbessern, führte 1956 zur Gründung des Forschungsgebiets Künstliche Intelligenz (KI). Es war schon immer ein Traum der Informatiker, dass man mit einem Computer intelligentere Dinge tun kann als nur Zahlen zu addieren und zu multiplizieren.
Künstliche Intelligenz (KI, engl. artificial intelligence oder AI) definiert man heute als Teilgebiet der Informa- tik, das sich mit der Automatisierung intelligenten Ver- haltens und dem maschinellen Lernen befasst. Der Be- griff, ist schwierig zu definieren, da es bereits an einer ge- nauen Definition von „Intelligenz“ mangelt. Dennoch wird er in Forschung und Entwicklung verwendet.2
Im Allgemeinen bezeichnet Künstliche Intelligenz (KI) den Versuch, bestimmte Entscheidungsstrukturen des Menschen nachzubilden, indem z. B. ein Computer so gebaut und programmiert wird, dass er von Daten ler- nen und relativ eigenständig Probleme bearbeiten kann. Künstliche Intelligenz gilt als die wichtigste Basistechno- logie unserer Zeit, verbunden mit der Aussicht auf subs- tanzielle Produktivitäts- und Wachstumseffekte quer durch alle Branchen. Nach vielen Misserfolgen dauerte es über 55 Jahre bis die KI leistungsfähige Ergebnisse vorweisen konnte. Vor etwa 10–12 Jahren hatte die KI letztendlich ihren Durchbruch.
1 2021 Study Panel Report der Stanford University „The One Hundred Year Study on Artificial Intelligence (AI100)”, umfasst 82 Seiten.
II. Paradigmenwechsel: vom modellbasierten Ansatz zum Lernen
Die frühen Jahre der Künstlichen Intelligenz (erste Ansätze schon 1956) waren ein ziemlicher Misserfolg (syntaxorientierte, graph- und regelbasierte Ansätze).
Der klassische Ansatz der KI zur Lösung von Proble- men, wie auch in vielen anderen Bereichen sieht folgen- dermaßen aus: Man macht sich ein deterministisches oder auch stochastisches mathematisches Modell von ei- ner Problemstellung und mit numerischen Optimie- rungsmethoden ermittelt man die Parameter des Mo- dells, welche eine Zielfunktion oder ein Gütekriterium optimal erfüllen. Dabei sind i. Allg. sehr schwierige ma- thematische Gleichungen zu bewältigen.
Mit diesem Ansatz war die KI jedoch über einige Jahrzehnte sehr wenig erfolgreich.
1. Künstliche Neuronale Netze
Mit dem Einsatz von künstlichen Neuronalen Netzen (KNN) vollzog man einen radikalen Paradigmenwech- sel.
Anstatt für ein Problem ein Modell zu entwickeln, die Parameter eines Lösungsansatzes zu optimieren und einen Algorithmus zu schreiben (prozedurale schritt- weise Anweisungen) trainiert man ganz einfach ein Neu- ronales Netz mit Daten oder Ergebnissen von einem Ex- periment, um eine optimale Lösung durch systematische Suche über dem gesamten Ereignisraum zu finden.
In Anlehnung an das menschliche Gehirn schuf man ein mathematisches Modell von einem NN. Solch ein Netz lernt, ohne dass man auch nur eine einzige Zeile Programmcode schreiben muss. Den Code für ein Netz schreibt man nur einmal für die Netzoptimierung und dann kann es für unterschiedliche Aufgaben i. Allg. un- verändert übernommen werden.
Hans Burkhardt
Ein Beitrag zur Künstlichen Intelligenz
2 Wikipedia: „Künstliche Intelligenz“. Ordnung der Wissenschaft 2023, ISSN 2197–9197
72 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78
Für ein einzelnes natürliches Neuron (Abb. 1) wurde 1943 ein mathematisches Modell veröffentlich, welches heute noch Verwendung findet (Abb. 2).
Die neuronale Aktivität wird durch ein Skalarpro- dukt zwischen dem Gewichtsvektor w und den Ein- gangskanälen xi mit einer sich anschließenden nichtli- nearen Aktivierungs-Funktion f(s) beschrieben. Die Eingangskanäle werden gespeist von Sensoren wie das Auge oder das Ohr. Dabei können die Erregungen xi ver- stärkend oder hemmend wirken, was zu positiven oder negativen Gewichtswerten wi korrespondiert. Ein hoher Gewichtswert bedeutet, dass ein Neuron seine Informa- tion mit hohem Einfluss an ein Neuron der nächsten Schicht weitergibt, ein niedriger Gewichtswert bedeutet, dass das Vorgängerneuron keinen großen Einfluss auf das nachfolgende Neuron besitzt.
Ein einzelnes Neuron kann bis zu 10.000 Synapsen besitzen und damit von so vielen Neuronen der vorher- gehenden Schicht beeinflusst werden.
Das gesamte Gehirn besteht nun aus sehr vielen La- gen solcher Neuronen, wobei ein Neuron einer Schicht
seine Information an die Neuronen der nachfolgenden Schichten weitergibt. Damit erhält man das Modell des Multilagen-Perceptrons.
Die Ein-Ausgangsabbildung oder die Funktion des Netzes wird allein durch die Gewichte der Synapsen in Abb. 2 festgelegt. Lernen bedeutet diese Gewichte opti- mal an die Bedürfnisse des Netzes anzupassen. Stark ver- einfacht geschieht dies, indem man die Gewichte gering- fügig verändert und den Wert beibehält, falls das Ergeb- nis sich dadurch verbessert hat. Das Netz wird durch das Ergebnis einer Zielfunktion belohnt oder bestraft, falls man eine richtige oder falsche Anpassung eines Gewich- tes durchgeführt hat. Dieses verstärkende Lernen („Re- inforcement Learning“) nutzt ein ähnliches Prinzip wie das menschliche Gehirn. Eine Zielfunktion ist z. B. beim Schachspielen die Anzahl der gewonnenen Partien.
Genauer gesagt beinhaltet Lernen den Einsatz von numerischen Optimierungsverfahren für die Berech- nung der Gewichte. Beliebt sind Gradientenalgorithmen (z.B. Backpropagation-Algorithmus) zur Maximierung einer Zielfunktion. Wenn man auf den höchsten Berg im
Abb. 2: Mathematisches Modell eines Neu- rons mit seinen Verbindungen von 19433
Abb. 1: Natürliches Neuron
Abb. 3: Das Multilagen-Perceptron mit 3 Schichten4
3 W. S. McCulloch and W. Pitts: “A logical calculus of the ideas imma– 4 Rosenblatt, in: The perceptron: a probalistic model for information nent in neurons activity”, Bull. Math. Biophys., vol. 5, pp. 115–133, storage and organization in the brain“, Psychological Review, 1958. 1943.
Burkhardt · Ein Beitrag zur Künstlichen Intelligenz 7 3
Schwarzwald möchte, so erreicht man das, indem man immer den Weg des steilsten Anstiegs folgt (Gradien- tenalgorithmus). Sucht man die xy-Koordinaten des Feldbergs und startet man mit den Koordinaten von Bä- renthal, so wird man damit aller Voraussicht nach am Feldberg rauskommen. Der Feldberg ist das globale Ma- ximum im ganzen Schwarzwald mit 1493 m. Startet man hingegen in Menzenschwand und folgt immer dem Weg des steilsten Anstiegs, so wird man voraussichtlich am Herzogenhorn rauskommen. Dies ist nur ein lokales Maximum mit nur 1414 m Höhe und damit lediglich eine suboptimale Lösung.
Universalität eines KNNs: Es gibt einen schönen Be- weis, dass man mit nur 3 Lagen eines Perceptrons jede beliebige mathematische Abbildung realisieren kann. Aber mit immer mehr Lagen erhöht man die Flexibilität und damit die Leistungsfähigkeit eines KNNs.
Generalisierungsfähigkeit eines NN: Wichtig zu wissen ist, wie sich das Netz in nicht gelernten Situatio- nen verhält. KNNs sind im Allgemeinen in der Lage zu
interpolieren oder auch zu extrapolieren und damit auch auf nicht gelernte Situationen zu reagieren.
Dieser Lernansatz mit Künstlichen Neuronalen Net- zen war revolutionär in der KI, aber die Netze waren für die Praxis weitgehend untauglich. KNNs erfüllten vor 20 Jahren noch nicht die an sie gesetzten Hoffnungen und wurden ad acta gelegt. Man konnte lediglich relativ klei- ne Netze bis etwa 1.000 — 10.000 Neuronen numerisch stabil beherrschen. Dies reichte wegen der geringen Va- riabilität nicht aus, um reale große Probleme zu lösen. Wählte man größere Netze, so erzielte die Optimierung i. Allg. nur suboptimale und weitgehend unbrauchbare Ergebnisse und man hat deshalb den KNNs keine Zu- kunft gegeben.
Sie waren zu diesem Zeitpunkt lediglich eine akade- mische Spielwiese, aber kein reales Instrument für harte Anwendungen. Andere mathematische Methoden wa- ren wesentlich leistungsfähiger (z.B. Support Vector Machines).
Abb. 4: Ein künstliches Neuronales Netz mit mehreren Lagen zur Musteerkennung von handgeschriebenen Ziffern
Abb. 5a: Überkopfpendel Abb. 5b: Überkopfpendel mit einem zweiten Gelenk
74 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78
III. Überkopfpendel
Ein sehr frühes Experiment in der KI war das Überkopf- pendel, wobei damit insbesondere der Paradigmenwech- sel verdeutlicht werden kann.
Ein kleiner Wagen muss so bewegt werde, dass ein Stab mit einem Gelenk auf dem Wagen nicht umfällt (Abb. 5). Selbst wenn man den Stab antippt (Störung), muss er wieder ausgeregelt werden und darf nicht umfallen.
Dieses Problem wurde schon vor längerer Zeit analy- tisch gelöst. Man hat eine Differentialgleichung für die Bewegung und die Dynamik des Stabes aufgestellt und dann mit Methoden der Regelungstheorie einen Regler entwickelt. Dies gelingt auch für den schwierigeren Fall, dass der Stab noch ein zweites Gelenk hat (theoretisch wurde auch der Fall mit n Gelenken gelöst); auch dieser Stab wird senkrecht gehalten.
Die gleiche Regelung wird z.B. beim Start einer Rake- te benötigt. Ohne Regelung würde die Rakete nach kur- zer Zeit umkippen.
Man kann nun aber einwenden, dass es auch einem Kind nach einiger Zeit Übung gelingt, einen Stab auf der Hand zu balancieren, ohne etwas von Differentialglei- chungen und Reglerentwurf zu verstehen. Das Kind lernt die Lösung durch Experimentieren.
Dies hat KI-Wissenschaftler motiviert, das Problem des Überkopfpendels mit einem KNN zu lösen, was mit großem Erfolg gelang und mit einem wesentlich gerin- gerem Entwicklungsaufwand verbunden war als die ana- lytische Lösung. Ein schönes Video für die Regelung ei- nes Überkopfpendels mit einem zweiten Gelenk findet man unter der Internet-Adresse.5
Ein sehr ähnliches Beispiel, aber noch wesentlich komplexer, ist die Aufgabe, einem humanoiden Roboter den aufrechten Gang oder Treppen steigen beizubrin- gen. Die Robotik hat erstaunlich lange gebraucht, um wirklich funktionierende humanoide Zweibeiner zu ent- wickeln. Denn Gehen ist keine einfache Aufgabe, vor al- lem auf zwei Beinen. Man muss die Vorwärtsbewegung kontrollieren und sich gleichzeitig aufrecht halten. Es ge- lang mit Hilfe eines Neuronales Netzes und Reinforce- ment Lernen erfolgreich eine recht flüssig aussehende humanoide Gehbewegung nachzuahmen.6 Ein ein- drucksvolles Video findet man unter.7
5 Video Überkopfpendel: https://blog.otoro.net/2015/02/11/cne-algorithm-to-train-self- balancing-double-inverted-pendulum/ (letzter Zugriff am 08.03.2023)
https://otoro.net/ml/pendulum-cne/ (letzter Zugriff am 08.03.2023)
IV. Deep Blue
Ein erster Durchbruch der KI gelang 1996 als mit dem von IBM entwickelten System Deep Blue, mit der Schach-Weltmeister Garri Kasparov in sechs Partien geschlagen wurde. Die Software dazu war klassisch regel- basiert geschrieben und der Entwicklungsaufwand dafür war erheblich. Schachcomputer im Stil von Deep Blue verrichten ihre Arbeit mithilfe des sogenannten Alpha- Beta-Algorithmus. Dahinter steckt im wesentlichen bru- tale Rechengewalt („brute force“-Ansatz), wobei alle möglichen Züge bis zu einer gewissen Spieltiefe durchge- rechnet werden. Außerdem war der Ansatz zwar adaptiv, aber nicht lernend.
Das Projekt Deep-Blue kostete IBM insgesamt etwa 5 Millionen US-Dollar. Zudem musste ein sehr leistungs- fähiger großer Rechner verwendet werden.
Im Vorgriff auf die nächsten Kapitel: Alpha Zero lernte Schach in nur 4 Stunden und erreichte einen Elo- Wert von ca. 3300. Der Elo-Wert ist eine Maßzahl für die Spielstärke einer Person oder einer Maschine. Der am- tierende Weltmeister Magnus Carlsen hat einen Elo- Wert von etwa 2.850. Ein Mensch braucht in der Regel mindestens 15 Jahre um auf Weltniveau Schach zu spielen.
V. Der Durchbruch: Deep Learning mit Faltungsnet- zen.
Es gab einen historischen Durchbruch der künstlichen Intelligenz in den Jahren 2008–2016 mit Hilfe sehr gro- ßer künstlicher Neuronaler Faltungsnetze (convolutio- nal networks) mit vielen Lagen (Deep Learning). Damit ist man in der Lage sehr große Datenmengen zu verar- beiten. Wir können Maschinen entwickeln, welche intel- ligentes Handeln direkt aus den vorliegenden Daten ler- nen können, anstatt programmiert zu werden.
Heute beherrscht man durchaus Netze mit 108 – 1011 Neuronen mit stabilen numerischen Ergebnissen. Das menschliche Gehirn zum Vergleich, besitzt 1011 = 100 Milliarden Neuronen.
Bei Faltungsnetzen (convolutional networks, CNN) sind lokal benachbarte Neuronen miteinander gekop- pelt. Dies kann als mathematische Regularisierung des KNNs interpretiert werden und deshalb konvergieren
6 Haarnoja, Tuomas, et al. „Learning to walk via deep reinforcement learning.“ arXiv preprint arXiv:1812.11103 (2018).
7 Video zum Thema Laufen lernen: https://youtu.be/WmN7zq-D3cg (letzter Zugriff am 08.03.2023)
Burkhardt · Ein Beitrag zur Künstlichen Intelligenz 7 5
damit auch sehr große und tiefe Netze mit vielen Lagen, wie sie in realen Anwendungen benötigt werden.
Es gab glücklicherweise ein paar wenige Wissen- schaftler, welche den Glauben an das Potential der KNNs trotz der frühen Misserfolge nicht verloren. Ihnen ist es zu verdanken, dass KNNs heute auch für sehr große Net- ze in realen Anwendungen eingesetzt werden können. Yoshua Bengio, Geoffrey Hinton und Yann LeCun, wurde 2018 der Turing Award verliehen; diese Auszeichnung gilt als der Nobelpreis der Informatik. Alle drei werden durch ihre zum Teil gemeinsamen Arbeiten als „Väter der Deep-Learning-Revolution“ angesehen (siehe dazu auch8,9). Yan LeCun gilt als Schöpfer der Convolutional Neural Networks.
VI. AlphaGo Zero und Alpha Zero von Deep Mind (Google)
1. AlphaGo Zero (Okt 2017)10
Das Chinesische Brettspiel Go besteht aus nur vier Grundregeln, gilt aber als eines der komplexesten Brett- spiele der Welt, wesentlich komplexer als Schach.
Vier Versionen von AlphaGo zählt DeepMind mitt- lerweile. Sie alle beruhen auf einer Kombination von neuronalen Netzen und der Baumsuchtechnik Monte Carlo Tree Search (MCTS).
Die ursprüngliche AlphaGo-Version, besiegte 2016 den 18-fachen Go-Weltmeister Lee Sedol mit 4:1. Alpha Go trainierte ein KNN zunächst mit allen je internatio- nal aufgezeichneten Go-Wettbewerben. Danach spielten zwei AlphaGo-Maschinen gegeneinander und verbes- serten ihre Spielstärke noch einmal um einen deutlichen Prozentsatz.
Der Nachfolger AlphaGo Zero, lernt durch Millionen von Partien gegen sich selbst, vorgegeben werden ledig- lich die Spielregeln.
Ein neues Paradigma: Lernen ohne jegliches Vorwissen und Verzicht auf menschliches Wissen! Vorhergehende Versionen lernten zunächst tausende von Menschen auf Turnieren gespielte Partien. Der Lernvorgang funktio- niert alleine nach dem Prinzip des „Reinforcement-Lear- ning”, indem das Programm gegen sich selbst spielte und ohne das menschliche Vorwissen über Eröffnungen und Endspiele zu verwenden und ohne die komplexe Theorie der Spiele zu studieren. Es stellte sich heraus, dass die Verwendung von menschlichem Wissen eher hinderlich war und zu einer schlechteren Konvergenz des Lernvor- gangs führte.
Ein menschlicher Spieler hätte inzwischen keine Chance mehr gegen die Maschine zu gewinnen (Abb. 6). Sehr interessant ist auch, dass die KI vollkommen neue Spielstrategien herausfand, welch zuvor noch von
keinem menschlichen Spieler gespielt wurden.
2. Alpha Zero von DeepMind (Dez 2017)11
Alpha Zero zeigt eine völlig neue Entwicklung auf, näm- lich hin zur universellen Lernmaschine.
AlphaZero ist ebenfalls eine Software der Google- Tochter DeepMind. Der Nachfolger von AlphaGo lernt durch Millionen von Partien gegen sich selbst, vorgege- ben werden lediglich die Spielregeln.
Ein selbstlernender Algorithmus hat 3 komplexe stra- tegische Spiele gelernt, ohne die komplizierte Theorie, welche sich dahinter verbirgt, zu studieren. AlphaZero war in der Lage, mit einem einzigen KNN gleichzeitig Go, Schach und Shogi (Japanisches Schach) zu lernen.
Abb. 6: Fortschritt in der
- 8 Sze, Y. H. Chen, T. J. Yang and J. S. Emer: „Efficient Processing of Deep Neural Networks: A Tutorial and Survey“, In Proceedings of the IEEE, vol. 105, no. 12, pp. 2295–2329, Dec. 2017
- 9 Jason Mayes: „Machine Learning 101“, https://docs.google.com/ presentation/d/1kSuQyW5DTnkVaZEjGYCkfOxvzCqGEFzWB y4e9Uedd9k/edit#slide=id.g168a3288f7_0_58 (letzter Zugriff am
Spielstärke von AlphaG0
(08.03.2023).
10 David Silver et al.: „Mastering the game of Go without human know-
ledge”, Nature 550, 354–359 (19. October 2017).
11 David Silver et al.: „Mastering Chess and Shogi by Self-Play with a
General Reinforcement Learning Algorithm”, arXiv:1712.01815 [cs. AI], Cornell University.
76 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78
Ohne jegliches Vorwissen, außer den Spielregeln, er- reichte das System nach 24 Stunden übermenschliche Spielstärke in allen drei Spielen.
Das System lernte:
– Shogun in nur 2 Stunden – Schach in 4 Stunden
– Go in 8 Stunden
Die ursprüngliche AlphaGo-Version, musste noch meh- rere Monate lang trainiert werden!
Bei der hohen Überlegenheit des Ansatzes gegenüber Menschen macht es keinen Sinn mehr KI-Lösungen durch Testspiele gegen die besten Spieler der Welt zu be- weisen. „Computerschachprogramme sind mittlerweile so gut, dass es illusorisch ist, dagegen zu spielen“, sagt der Weltklassespieler Johannes Zwanzger.
Deshalb hat man Alpha Zero gegen die bisher besten klassisch entworfenen Brettspielprogramme antreten lassen. Es spielte stärker als Stockfish (Schach) und Elmo (Shogi) und bewies damit eindrucksvoll die Überlegen- heit des selbstlernenden Ansatzes der KI, bei gleichzeitig wesentlich geringerem Entwicklungsaufwand. Außer- dem war es stärker als das zuvor nur für Go entwickelte AlphaGo Zero.
In 100 Spielen hat AlphaZero kein einziges Spiel in Schach verloren, es verlor 8 bei Shogi und 40 bei Go. Der Algorithmus lief auf einem einzigen PC mit 4 TPUs. Stockfish und Elmo verwendeten 64 CPU-Kerne.
3. Fortschritte bei der Hardware und dem Energiever- brauch beim Spielen
Die Fortschritte beim Energieverbrauch und bei der Komplexität der verwendeten Hardware sind enorm. Nur noch eine Maschine mit 4 TPUs braucht AlphaGo Zero; bei der ersten Version war es noch ein Cluster mit
über 1000 CPU-Kernen und 176 GPUs. Tensor Proces- sing Units (TPUs), auch Tensor-Prozessoren, sind von Google entwickelte anwendungsspezifische Chips um Anwendungen im Rahmen des maschinellen Lernens zu beschleunigen.
Es wird voraussichtlich nicht lange dauern, bis diese Spielleistung auch auf Mobiltelefonen verfügbar sein wird.
VII. Besser als der Mensch
Der Gradmesser für Leistungsmessungen bei Künstli- cher Intelligenz war immer der Mensch
Inzwischen sind viele KI-Lösungen in unterschied- lichsten Anwendungen wesentlich besser geworden als der Mensch und sie lernen auch wesentlich schneller. Man darf gespannt sein, was von dieser Entwicklung noch zu erwarten ist. Neurochips lernen 10.000-mal schneller als unser Gehirn und sie finden häufig neue Lösungen für Probleme, welche Menschen zuvor noch nie entdeckt haben.
Weitere Anwendungsbeispiele der KI:
– Klarer Sieg für die künstliche Intelligenz: Beim
US-Gameshow-Klassiker „Jeopardy“ hat der IBM- Computer „Watson“ (semantische Suchmaschine) zwei menschliche Champions besiegt (2011).
– Lernen von Atari-Spielen mit KI basierend alleine auf Videoaufnahmen des Computer-Bildschirms. Ersten Ansätzen mit Reinforcement Lernen gelang es sehr erfolgreich eine Anzahl von Atari-Spielen zu lernen. Man scheiterte jedoch bei bestimmten Spie- len. Die Autoren von „Go-Explore“12 erzielten erheb- liche Fortschritte durch eine Kombination von CNNs mit strategischen Entscheidungsstrategien
Abb. 7: Fortschritte bei der Hardware und dem Energieverbrauch beim Spielen
12 Ecoffet, A., Huizinga, J., Lehman, J., Stanley, K. O., & Clune, J. (2021). „First return, then explore“, Nature, 590(7847), 580–586.
Burkhardt · Ein Beitrag zur Künstlichen Intelligenz 7 7
und Domänenwissen. Go-Explore merkt sich kon- krete Zustände der Lösungsdomäne und geht immer wieder zum letzten erfolgreichen Punkt zurück, um von dort aus erneut alles zu erkunden. In allen 55 getesteten Titeln spielte Go-Explore insgesamt über- menschlich, selbst im Erkundungsspiel „Pitfall!“, in dem ältere KIs bislang überhaupt keine Punkte erzielen konnten. Das Programm setzte einen Rekord indem es den menschlichen Weltrekord brach.
– Handschrifterkennung:
Handschrifterkennung war schon immer eine Domäne des Menschen, welche man von Kind auf trainiert hat. Maschinelle Lösungen taten sich zunächst schwer, vergleichbare Lösungen zu finden. Klassische Ansätze der Mustererkennung erreichten dann doch bemerkenswerte Ergebnisse mit einer Fehlerrate von nur 0,6%. Getestet wurden die Lösun- gen anhand der MNIST-Datenbank, welche tausen- de von handgeschriebenen Buchstaben und Ziffern enthält. Menschen erreichen bei dieser Datenbank eine Fehlerrate von 1,4%. Die besten Ergebnisse mit Deep Learning liegen inzwischen bei einer Fehlerra- te von 0,21% und damit fast 7‑mal besser als der Mensch.13
– Ankündigung von DeepMind Health durch Goog- le (24. Febr. 2016)
– Google: DeepMind reduzierte mit maschinellem Lernen den Energieverbrauch der Kühlsysteme in ihren Forschungszentren um erstaunliche 40%.
– Google trainiert ein einziges Neuronales Netz welches 100 Sprachen übersetzen kann.
– Luftkampf (Dog Fight) gegen einen der erfahrens- ten Piloten der US-Air Force. Der Pilot hatte keine Chance gegen die KI.
– Sieg beim Pokerspiel: Die siegreiche KI-Software mit Namen Libratus wurde von zwei Forschern der
Carnegie Mellon-Universität entwickelt und strich bei dem Match gegen vier der weltbesten Pokerspie- ler mit deutlichem Vorsprung den angeblichen Mil- lionen-Pot ein. Dies ist insofern bemerkenswert, weil man der KI keinen so großen Erfolg prophezeit hat, wo die menschliche Intuition oder das „Bauch- gefühl“ benötigt wird.
– ImageNet ist ein jährlicher Bilderkennungswettbe- werb, also z.B. die Frage ist in einem Bild eine Katze zu finden. 2015 unterbot ein Deep-Learning-System von Microsoft in einer Kategorie mit 4,9 Prozent die menschliche Fehlerrate von 5,1 Prozent.
– Google Musiksuche; die Musikerkennungssoftware von Google erkennt in wenigen Sekunden, welches Musikstück gerade zu hören ist; vielmehr ist das Programm jetzt auch in der Lage, Musikstücke durch bloßes Vorsummen, Pfeifen oder Singen zu erkennen.
VIII. Computer-Hardware
Der Erfolg beim Maschinellen Lernen ist nur möglich mit enormer Rechenleistung. Eine zentrale Rolle spielen dabei GPUs. Eine „GPU“ ist die Graphic Processing Unit, also der Prozessor der Grafikkarte eines PCs. Mit sol- chen Graphikkarten lassen sich Lernvorgänge bei gro- ßen KNNs erheblich beschleunigen.
Leistungsdaten der Grafikkarte NVIDIA GeForce GTX 1080:
– 2.560 Kerne, Takt: 2 GHz
– 7,2 Milliarden Transistoren
– 10 TeraFLOPS = 1013 FLOPS = 10.000.000.000.000
FLOPS
– (1 FLOP ist eine Floating-Point-Operation wie z.B.
eine Addition oder eine Multiplikation zweier Gleit- kommazahlen)
13
Abb. 8: Grafikkarte NVIDIA GeForce GTX 1080
A. Baldominos, Y. Saez, P. Isasi: “A survey of handwritten character recognition with MNIST and EMNIST” Applied Sciences, 2019 — mdpi.com (letzter Zugriff am 08.03.2023).
78 ORDNUNG DER WISSENSCHAFT 2 (2023), 71–78
- – Etwa 100-mal schneller als ein PC
- – Energieverbrauch: ca. 150 Watt
- – Kosten: ca. 800,-€Zum Vergleich:
- – 2002 erreichte der weltweit schnellste Supercompu- ter 10 TFLOPS,
- – Energieverbrauch: 3,2 MWatt
- – Kosten: 50 Mio$ –Dass man heute alles auf einem PC rechnen kann und keinen Supercomputer für 50 Millionen braucht, hat ganz wichtig dazu beigetragen, dass viele tausend Wis- senschaftler und Entwickler auf der ganzen Welt heute an solchen Problemen arbeiten und die Systeme weiter- entwickeln können.XI. AusblickIn den letzten 5 Jahren hat die KI große Fortschritte ins- besondere auf folgenden Gebieten gemacht: Computer Vision, Spracherkennung und Sprachsynthese, natürli- ches Sprachverstehen, Bild- und Video Generierung, Multiagentensysteme, Planungsstrategien, Robotik, Spiele, medizinische Diagnose, Logistik, autonomes Fahren, Übersetzer, Arzneimittelsynthese. Fortschritte wurden erzielt in Bezug auf: Lernen, Leistungsfähigkeit, Hardware und Energieverbrauch.Es ist zu erwarten, dass in naher Zukunft viele weite- re Anwendungsgebiete hinzukommen. Z.B. werden Suchmaschinen in der Lage sein, wesentlich präzisere se- mantische Anfragen zu beantworten und nicht nur eine Ansammlung von Stichwörtern auszuwerten. Auf Mo- biltelefonen wird die KI bereits intensiv eingesetzt.Google ist überzeugt vom großen Potential von Deep Learning und hat deshalb mit einer Erstinvestition von
600 Mio US$ die Tochterfirma Deep Mind gegründet. Apple, IBM und Microsoft ziehen nach und stellen viele neue Mitarbeiter für dieses Gebiet ein.
China strebt nach weltweiter Dominanz bei Künstli- cher Intelligenz. Der Staatsrat der Volksrepublik China hat im Juli 2017 die Künstliche Intelligenz zur wichtigs- ten Schlüsseltechnologie erklärt und einen Plan zu deren Weiterentwicklung beschlossen mit enormen Investitio- nen. Schon 2030 soll die chinesische KI-Industrie min- destens 150 Milliarden US$ auf diesem Gebiet umsetzen.
Trotz der großartigen Erfolge der KI im letzten Jahr- zehnt, müssen die Ergebnisse jedoch auch etwas relati- viert werden, da alle damit gelösten Probleme wie etwa typischerweise das Schachspiel, einer gewissen Klasse von Intelligenz zuzuordnen sind, welche man als „me- chanistische Intelligenz“ bezeichnen könnte und welche alle eine klar formulierbare Ein-/Ausgangsfunktionalität aufweisen. Wenn es hingegen um Gebiete der Intelligenz geht, wo Eigenschaften wie etwa Kreativität, Intuition oder Assoziativität gefragt sind, dann kann die KI noch keine so großen Erfolge im Vergleich zum Menschen vorweisen. Hier ist der Mensch der Maschine noch deut- lich überlegen; aber es wird daran gearbeitet.
Man kann jedoch feststellen, dass der Traum der In- formatiker, menschliche Intelligenz mit Computern nachzubilden, in den letzten 10 Jahren zu einem bemer- kenswerten Teil in Erfüllung gegangen ist.
Der Autor ist Professor am Institut für Informatik an der Albert-Ludwigs-Universität Freiburg. Seine For- schungsschwerpunkte liegen in den Bereichen Com- puter Vision, Künstliche Intelligenz und Mustererken- nung.