Menü Schließen
Klicke hier zur PDF-Version des Beitrags!

Im Dezem­ber 2023 teil­te der Nut­zer @danshipper auf der Social-Media-Platt­form X ein uner­war­te­tes Pro­blem bezüg­lich einer Text- und Bild­ver­ar­bei­tungs­soft­ware[1]. Zu sei­ner Ver­wun­de­rung funk­tio­nier­te ein Befehl, der kurz zuvor noch ein­wand­frei war, nicht mehr. Er lud ein Bild einer Buch­sei­te hoch, in der Hoff­nung, den Text digi­ta­li­siert zurück­zu­er­hal­ten, und stell­te in sei­ner Hilf­lo­sig­keit sei­ne Fra­ge an die öffent­li­che Com­mu­ni­ty. Als Ant­wort auf sein War­um schlug @NickADobos vor: »Hal­lu­zi­na­ti­on. Teil­wei­se, weil es als höf­li­che Fra­ge for­mu­liert war, auf die Nein‹ eine gül­ti­ge Ant­wort dar­stellt.« Ähn­li­che Erfah­run­gen wur­den von @mblair geteilt, der fest­stell­te: »Ich hat­te das glei­che Pro­blem, wo es sich wei­ger­te, ein Bild mit einem bestimm­ten Seed zu ergän­zen, wenn ich Kön­nen Sie…‹ benutz­te.« @Reelix bot eine Erklä­rung an: »Die Soft­ware ist so kon­zi­piert, dass sie mit mini­ma­lem Auf­wand eine gül­ti­ge Ant­wort gibt, und Nein‹ erfor­dert nur mini­ma­le Berechnungen.«

Zusätz­lich beob­ach­te­ten eini­ge Nut­zer, dass die Ant­wor­ten der Soft­ware aus­führ­li­cher waren, wenn sie glaub­te, dass Früh­ling und nicht Win­ter sei[2]. Dies führ­te zu humor­vol­len Spe­ku­la­tio­nen über eine Win­ter­de­pres­si­on und der all­ge­mei­nen Annah­me, dass im Win­ter gene­rell weni­ger gear­bei­tet wer­de. Inter­es­san­ter­wei­se zeig­te sich auch, dass die Ant­wor­ten umfang­rei­cher aus­fie­len, je mehr Trink­geld den Nut­zern zufol­ge ange­bo­ten wur­de[3].

Sol­chen Unter­hal­tun­gen hät­te man noch vor Kur­zem nicht bei­woh­nen kön­nen. Men­schen, die sich dar­über unter­hal­ten, wie man eine Maschi­ne anspre­chen muss, um eine Ant­wort zu erhal­ten; dass der Grad der Höf­lich­keit Unter­schie­de in den Resul­ta­ten bringt; dass die Maschi­ne Züge zeigt, die jenen eines Men­schen nicht unähn­lich sind; ganz abge­se­hen davon, dass man über­haupt nor­mal mit einer Maschi­ne spre­chen kann. Die Soft­ware, die im Zen­trum die­ser Dis­kus­sio­nen steht, ist ChatGPT[4], eine bahn­bre­chen­de Errun­gen­schaft im Bereich der künst­li­chen Intel­li­genz (KI), ent­wi­ckelt und ver­öf­fent­licht von Ope­nAI im Jahr 2022. Inner­halb von nur zwei Mona­ten nach ihrer Ver­öf­fent­li­chung ver­zeich­ne­te sie bereits über 100 Mil­lio­nen Nut­zer – ein bei­spiel­lo­ser Erfolg, wel­cher die rasan­te Annah­me und das Inter­es­se an die­ser Tech­no­lo­gie unter­streicht. ChatGPT ist nicht nur ein wei­te­res Soft­ware­pro­dukt; es reprä­sen­tiert einen Wen­de­punkt in der Art und Wei­se, wie wir mit Maschi­nen inter­agie­ren und sie in unse­rem täg­li­chen Leben nut­zen. Eine neue, schwer zu grei­fen­de Normalität.

Hin­ter Platt­for­men wie ChatGPT ste­hen soge­nann­te Lar­ge Lan­guage Models (LLMs). Die­se Model­le zeich­nen sich dadurch aus, dass Inter­ak­tio­nen mit ihnen nicht auf vor­de­fi­nier­ten Text­bau­stei­nen oder Befeh­len fußen, son­dern auf geschrie­be­ner Spra­che in ihrer vol­len Viel­falt. Wenn man also mit Sys­te­men wie ChatGPT in natür­li­cher Spra­che schreibt, dann kön­nen sie sie ver­ste­hen und auch in eben­die­ser ant­wor­ten. Aller­dings kön­nen bestimm­te Umgangs­for­men wie­der­um die Art, Qua­li­tät und Struk­tur der Ant­wor­ten steu­ern. Die zur Steue­rung der Ant­wor­ten genutz­ten Befeh­le und Stra­te­gien sind dann Bei­spie­le für das soge­nann­te Promp­ting. Promp­ting kann als eine Art Pro­gram­mier­spra­che betrach­tet wer­den, die aller­dings modell­spe­zi­fisch ist. Bei­spiels­wei­se kön­nen, bei der­sel­ben natür­lich­spra­chi­gen Ein­ga­be, die Aus­ga­ben eines GPT‑3 anders sein als die eines GPT‑4. Neue Updates kön­nen die Art der Inter­ak­ti­on mit die­sen Model­len gene­rell kom­plett ver­än­dern, was bedeu­tet, dass für jedes Modell eine neue Gram­ma­tik oder Spra­che erlernt wer­den muss. Dies stellt momen­tan eine äußerst wert­vol­le Fähig­keit dar, was sich in den spek­ta­ku­lä­ren Jah­res­ge­häl­tern wider­spie­gelt, die pro­fes­sio­nel­len Prompt-Engi­neers gebo­ten wer­den. So berich­te­te der Spie­gel am 6. Dezem­ber 2023, dass Jah­res­ge­häl­ter von bis zu 335.000 US-Dol­lar für Exper­ten in die­sem Bereich gezahlt wer­den[5]. Gleich­zei­tig gibt es For­schungs­an­sät­ze, die dar­auf abzie­len, KI-Sys­te­me ihre eige­nen Prompts schrei­ben zu las­sen[6], was die­sen neu­en Berufs­zweig eben­so schnell obso­let machen könn­te, wie er ent­stan­den ist.

Die Kon­ver­sa­ti­on, die @danshipper und ande­re Nut­zer auf einer Social-Media-Platt­form führ­ten, reflek­tiert mehr als nur ein tech­ni­sches Pro­blem; sie sym­bo­li­siert eine Ver­schie­bung in unse­rer Bezie­hung zur Tech­no­lo­gie. Die­se Inter­ak­tio­nen mit ChatGPT offen­ba­ren nicht nur die Gren­zen und Mög­lich­kei­ten der KI-basier­ten Kom­mu­ni­ka­ti­on, son­dern wer­fen auch grund­le­gen­de Fra­gen über das Wesen der Mensch-Maschi­ne-Inter­ak­ti­on auf. Wie ver­ste­hen wir die­se Tech­no­lo­gie? Wie pas­sen wir unse­re Kom­mu­ni­ka­ti­ons­stra­te­gien an, um die bes­ten Ergeb­nis­se zu erzie­len? Und was bedeu­tet es, wenn ein tech­ni­sches Werk­zeug zu einem qua­si-sozia­len Akteur in unse­rem digi­ta­len Kos­mos wird?

Die­ser Arti­kel zielt dar­auf ab, die­se Fra­gen zu erör­tern und ein tie­fe­res Ver­ständ­nis für die Funk­ti­ons­wei­se von ChatGPT und ähn­li­chen Sys­te­men zu schaf­fen. Es geht nicht nur dar­um, wie wir eine spe­zi­fi­sche Soft­ware effek­ti­ver nut­zen kön­nen, son­dern auch dar­um, die Impli­ka­tio­nen die­ser Tech­no­lo­gie für unse­re Gesell­schaft und unse­re Zukunft zu erkun­den. Mit einem Fokus auf effek­ti­ve Stra­te­gien für das Promp­ting wird unter­sucht, wie wir ein lang­fris­ti­ges Ver­ständ­nis für die­se fort­schritt­li­che Tech­nik ent­wi­ckeln kön­nen, das auch nach wei­te­ren Aktua­li­sie­run­gen und Ent­wick­lun­gen der Model­le Bestand hat.

Was verbirgt sich eigentlich hinter GPT?

Der Weg zu guten Promp­ting-Stra­te­gien führt über das Ver­ständ­nis der Metho­dik hin­ter den Sys­te­men. Wenn­gleich nicht alle Details bekannt sind und schon gar nicht in die­sem Arti­kel bespro­chen wer­den kön­nen, wird nach­fol­gend in aller Kür­ze erklärt, was sich hin­ter dem Zau­ber von Lar­ge Lan­guage Models verbirgt.

Unter einem Modell ver­steht man eine Über­füh­rung von Ein­ga­ben zu Aus­ga­ben. Ein Bei­spiel ist die Ein­ga­be einer Buch­sei­te und die Aus­ga­be könn­te der extra­hier­te Text sein. Eine sol­che Über­füh­rung a prio­ri exakt zu allen mög­li­chen Ein­ga­ben zu defi­nie­ren, ist qua­si-unmög­lich, daher gehen aktu­el­le Metho­den der Künst­li­chen Intel­li­genz den Umweg, eine sol­che Über­füh­rung anhand von gege­be­nen Bei­spie­len zu schät­zen. Die dazu ver­wen­de­te Spra­che in der KI ist gemein­hin die Mathe­ma­tik. Als Aus­gangs­ba­sis dient eine fle­xi­ble Dar­stel­lung die­ser gesuch­ten mathe­ma­ti­schen Über­füh­rung, die ver­schie­de­ne For­men durch unter­schied­li­che Set­zun­gen von frei­en Para­me­tern anneh­men kann. Neh­men wir als Bei­spiel den Satz: »Heu­te geht es mir gut.« So könn­te, wenn dem Wort gut ein hohes Gewicht zuge­wie­sen ist, die­ser Satz als eher posi­tiv ange­se­hen wer­den. Liegt der Fokus jedoch eher auf dem Heu­te, so könn­te es auch so gele­sen wer­den, dass das gut Füh­len heu­te etwas Beson­de­res ist, was wie­der­um eher nega­tiv ein­ge­ord­net wer­den könn­te. Eine sol­che Zuord­nung von posi­tiv und nega­tiv ist also von der Gewich­tung, also der Para­me­ter, des Model­les abhän­gig, wel­ches die Zuord­nung trifft.

Grund­la­ge für den enor­men und enorm schnel­len Fort­schritt der letz­ten Jah­re bil­den soge­nann­te künst­li­che neu­ro­na­le Netz­wer­ke als Dar­stel­lung die­ser oben beschrie­be­nen mathe­ma­ti­schen Über­füh­rung – Archi­tek­tu­ren von par­al­lel und in Rei­he geschal­te­ten, künst­li­chen Neu­ro­nen. Die­se künst­li­chen Neu­ro­nen gewich­ten ihre Ein­ga­ben jeweils mit einem frei­en Para­me­ter, sum­mie­ren die­se gewich­te­ten Ein­ga­ben auf, trans­for­mie­ren die­se Sum­me mit einer nicht­li­nea­ren, mathe­ma­ti­schen Funk­ti­on und geben das Ergeb­nis, die Akti­vie­rung des Neu­rons, an die Fol­gen­eu­ro­nen wei­ter. Die frei­en Para­me­ter eines neu­ro­na­len Net­zes erge­ben mit einer spe­zi­fi­schen Ein­stel­lung spe­zi­fi­sche Aus­ga­ben, deren Kor­rekt­heit anhand eines Feh­ler­ma­ßes gemes­sen wer­den kann. Misst man nun den spe­zi­fi­schen Bei­trag eines Para­me­ters auf den gege­be­nen Feh­ler, kann der Para­me­ter in die­ser Hin­sicht Schritt für Schritt so ange­passt wer­den, dass das Ergeb­nis ver­bes­sert wird. Die Pro­blem­stel­lung hier­bei liegt dar­in, dass die Schät­zung der mathe­ma­ti­schen Über­füh­rung aller­dings auch auf zum Zeit­punkt der Para­me­ter­fin­dung unge­se­he­ne Bei­spie­le gene­ra­li­sie­ren soll­te, um in der Pra­xis nutz­bar zu sein. Ein Modell ist dann über sei­ne fixe, gefun­de­ne Men­ge an gesetz­ten Para­me­tern defi­niert. Und auch wenn inner­halb eines Modells die Ein­ga­ben in Form von Zah­len reprä­sen­tiert wer­den müs­sen, kön­nen die ver­ar­bei­te­ten Moda­li­tä­ten im Ursprung belie­big sein – zum Bei­spiel geschrie­be­ner Text.

In der Domä­ne der Text­ver­ar­bei­tung gab es schon eini­ge Bewe­gung, doch die Ent­wick­lung der Trans­for­mer-Archi­tek­tur[7] im Jah­re 2017 durch Wis­sen­schaft­ler von Goog­le soll­te eine Zei­ten­wen­de ein­läu­ten. Sie bil­de­ten die Grund­la­ge für die ers­te Ver­si­on der Gene­ra­ti­ve Pre-trai­ned Trans­for­mer von Ope­nAI in 2018, dem Modell das hin­ter dem schwer aus­zu­spre­chen­den Akro­nym GPT steht. Betrach­tet man Glei­chung 1 in dem Papier Impro­ving Lan­guage Under­stan­ding by Gene­ra­ti­ve Pre-Trai­ning[8], wel­ches vier Jah­re spä­ter die Welt revo­lu­tio­nie­ren soll­te, dann erkennt man, woher die ein­zel­nen Tei­le die­ses Akro­nyms stam­men. Der Text wird hier von einem Trans­for­mer ver­ar­bei­tet – daher das T –, wel­cher einen Strom an Text, den soge­nann­ten Kon­text, als Ein­ga­be bekommt. Die Aus­ga­be sei­ner Über­füh­rung ist eine Wahr­schein­lich­keits­ver­tei­lung über mög­li­chen Fol­ge­text, wor­aus es eine Stich­pro­be zieht – daher das G. Das Modell soll inner­halb sei­ner Opti­mie­rung zunächst schlicht die Wahr­schein­lich­keit der Wör­ter so erhö­hen, wie sie auch in den Trai­nings­da­ten gege­ben sind. Wenn wir bei unse­rem Bei­spiel blei­ben, so könn­te das Modell als Kon­text »Heu­te geht es mir« bekom­men und den mög­li­chen Aus­ga­ben »gut.« oder »schlecht.« die glei­che Wahr­schein­lich­keit zuord­nen – denn der Kon­text gibt hier kei­nen Hin­weis dar­auf, wel­che davon eher pas­sen könn­te. Steht im Kon­text aller­dings »Ich wur­de gelobt. Heu­te geht es mir«, dann soll­te das Modell einem »gut.« eine höhe­re Wahr­schein­lich­keit zuwei­sen. Danach kann eine auf­ga­ben­spe­zi­fi­sche Fein­ab­stim­mung durch­ge­führt wer­den – daher das P. Bei­spiels­wei­se kann man, wenn man mit ChatGPT schreibt, unter den Ant­wor­ten Sym­bo­le für Dau­men hoch und Dau­men run­ter erken­nen. Infor­ma­tio­nen aus die­sen Rück­mel­dun­gen wer­den dann genutzt, um das Modell via bestär­ken­dem Ler­nen[9] zu ver­bes­sern[10]. Gebe ich also die Rück­mel­dung, dass mir »gut.« nicht so gefällt, da es nicht enthu­si­as­tisch genug klingt, könn­te ich so die Wahr­schein­lich­keit für ein »super.« erhöhen.

Warum jetzt?

Dass aus die­ser, in weni­gen Zei­len dar­ge­stell­ten, Art der Para­me­ter­an­pas­sung eines Trans­for­mer-Modells ein so mäch­ti­ges Werk­zeug ent­ste­hen kann, hat auch die Fach­welt in sei­ner Wucht über­rascht. Mög­lich gewor­den ist das durch die Zusam­men­kunft von meh­re­ren, par­al­lel ver­lau­fen­den Strö­mun­gen[11]. Zunächst ermög­lich­te die ste­ti­ge Stei­ge­rung der Rechen­leis­tung, ange­lehnt an das Moo­re­sche Gesetz, sowie die Ent­wick­lung der Infra­struk­tur schaf­fen­den Soft­ware, die Hand­ha­bung kom­ple­xer KI-Model­le. Ins­be­son­de­re die Anpas­sung und Opti­mie­rung von Gra­fik­pro­zes­so­ren (GPUs) für par­al­le­le Berech­nungs­pro­zes­se spiel­ten hier­bei eine zen­tra­le Rolle.

Par­al­lel dazu führ­te das expo­nen­ti­el­le Wachs­tum digi­tal ver­füg­ba­rer Daten seit der Ein­füh­rung des World Wide Webs im Jahr 1991 zu einem enor­men Anstieg an Trai­nings­da­ten. Die­se Daten­flut, kom­bi­niert mit der zuneh­men­den Digi­ta­li­sie­rung bis dato ana­lo­ger Medi­en, schuf die not­wen­di­ge Basis für das Trai­ning umfang­rei­cher KI-Model­le. Nicht zuletzt waren es die finan­zi­el­len und struk­tu­rel­len Inves­ti­tio­nen gro­ßer öffent­li­cher Insti­tu­tio­nen und Tech­no­lo­gie­un­ter­neh­men, die den letz­ten Schub gaben. Orga­ni­sa­tio­nen wie Ope­nAI, unter­stützt durch bedeu­ten­de Anfangs­in­ves­ti­tio­nen von Per­sön­lich­kei­ten wie Elon Musk und Indus­trie­ak­teu­ren aus dem Sili­con Val­ley, konn­ten so umfang­rei­che For­schungs- und Ent­wick­lungs­pro­jek­te in die Wege lei­ten. Die­se Inves­ti­tio­nen ermög­lich­ten es, Teams hoch­qua­li­fi­zier­ter For­scher zusam­men­zu­brin­gen und KI-Model­le in bis­her unge­kann­tem Umfang zu ent­wi­ckeln und zu trainieren.

Jedes Jahr­zehnt brach­te so sei­ne eige­nen Inno­va­tio­nen und Durch­brü­che, wel­che die Grund­la­ge für die nächs­te Gene­ra­ti­on von KI-Model­len leg­ten[12]. Das Jahr 2022 mar­kier­te einen wei­te­ren Wen­de­punkt mit der Ein­füh­rung von GPT‑4 durch Ope­nAI, einem Modell, das von einem Team aus 343 hoch­qua­li­fi­zier­ten Wis­sen­schaft­lern ent­wi­ckelt wur­de. Die­se Inno­va­tio­nen waren nicht auf Ope­nAI beschränkt; ande­re bedeu­ten­de Model­le wie Bard und Gemi­ni von Goog­le[13], Clau­de von Anthro­pic[14] und wei­te­re[15], ent­wi­ckelt von ver­schie­de­nen Orga­ni­sa­tio­nen welt­weit, tru­gen eben­falls zur Land­schaft der gene­ra­ti­ven KI bei.

Die­se Fort­schrit­te bedeu­te­ten aller­dings auch einen finan­zi­el­len Kraft­akt unge­heu­rer Dimen­si­on. Die Inves­ti­ti­on[16] von Micro­soft in Höhe von zehn Mil­li­ar­den US-Dol­lar in Ope­nAI im Jahr 2023 und die hohen Kos­ten für Spit­zen­for­scher auf die­sem Gebiet, wel­che sogar die von Top-NFL-Quar­ter­backs über­stei­gen kön­nen[17], unter­strei­chen die Bedeu­tung und das wirt­schaft­li­che Poten­ti­al die­ser Tech­no­lo­gie. Die Trai­nings­kos­ten für Model­le wie GPT‑4 wer­den auf etwa 100 Mil­lio­nen US-Dol­lar geschätzt[18] wäh­rend die täg­li­chen Infe­renz­kos­ten – die Kos­ten für die rei­ne Anwen­dung des trai­nier­ten Modells – auf weit über 700.000 US-Dol­lar pro Tag ange­nom­men wer­den[19]. Die­se immensen Inves­ti­tio­nen in die Ent­wick­lung und den Betrieb spie­geln nicht nur die tech­no­lo­gi­sche und wis­sen­schaft­li­che Leis­tungs­fä­hig­keit wider, son­dern auch das enor­me wirt­schaft­li­che Poten­zi­al, das in die­sen Sys­te­men steckt.

Wel­ches Ziel ver­fol­gen die­se Systeme?

Wenn eine mathe­ma­ti­sche Über­füh­rung geschätzt wird, und somit eben gene­ra­li­sie­ren muss, geht das gemein­hin mit einer Kom­pri­mie­rung des Wis­sens in den Trai­nings­da­ten ein­her. Gese­hen wer­den kann das bei­spiels­wei­se dadurch, dass die Trai­nings­da­ten von GPT‑3 45 Tera­byte groß waren, das Modell an sich aber weni­ger als eines. Um kom­ple­xe Zusam­men­hän­ge so effi­zi­ent zu kom­pri­mie­ren, fin­den ver­mut­lich impli­zi­te Anord­nun­gen statt, die von eini­gen als Emer­genz beti­telt wer­den[20].

Fragt man bei­spiels­wei­se ChatGPT, wie man eine Tas­se Kaf­fee in einer Mikro­wel­le zube­rei­tet – eine unge­wöhn­li­che, aber durch­aus mög­li­che Metho­de –, so erhält man eine detail­lier­te Ant­wort, die Schritt für Schritt erklärt, wie man zunächst Was­ser in der Mikro­wel­le erhitzt, dann gemah­le­nen Kaf­fee hin­zu­fügt und schließ­lich die Mischung ste­hen lässt, um den Kaf­fee zie­hen zu las­sen. Die­ser Pro­zess beinhal­tet das Ver­ständ­nis, dass Mikro­wel­len Was­ser erhit­zen kön­nen, dass gemah­le­ner Kaf­fee mit hei­ßem Was­ser gemischt wer­den muss, um Geschmack zu extra­hie­ren, und dass die Mischung Zeit benö­tigt, um den Kaf­fee zie­hen zu las­sen. Für die­se Anlei­tung muss­te das Modell ver­ste­hen, dass Mikro­wel­len zur Erhit­zung von Flüs­sig­kei­ten genutzt wer­den kön­nen – eine Infor­ma­ti­on, die es aus sei­nen Trai­nings­da­ten extra­hiert hat. Eben­so muss­te es wis­sen, dass Kaf­fee in der Regel durch die Inter­ak­ti­on von hei­ßem Was­ser und gemah­le­nen Boh­nen ent­steht, und dass die Extrak­ti­on Zeit benö­tigt. Das bedeu­tet, dass das Modell Kon­zep­te von Hit­ze­an­wen­dung, Flüs­sig­keits­ex­trak­ti­on und Zeit­ab­lauf reprä­sen­tie­ren muss­te, um eine sol­che Anlei­tung zu gene­rie­ren. Und das, obwohl eine sol­che spe­zi­fi­sche Anlei­tung zur Kaf­fee­zu­be­rei­tung in einer Mikro­wel­le mög­li­cher­wei­se nicht genau so in den Trai­nings­da­ten vor­han­den war. Die­ses Bei­spiel zeigt, wie KI-Model­le unter­schied­li­che Infor­ma­ti­ons­quel­len kom­bi­nie­ren und anwen­den kön­nen, um krea­ti­ve und funk­tio­na­le Lösun­gen für unge­wöhn­li­che oder neue Fra­ge­stel­lun­gen zu lie­fern. Es demons­triert die Fähig­keit der KI, Kon­zep­te zu ver­knüp­fen und auf Situa­tio­nen anzu­wen­den, die in ihren ursprüng­li­chen Trai­nings­da­ten mög­li­cher­wei­se nicht expli­zit beschrie­ben wurden.

Dies führt zur Schluss­fol­ge­rung, dass die sehr offe­ne und tri­vi­al erschei­nen­de Ziel­set­zung der GPT-Model­le – das Ermit­teln des wahr­schein­lichs­ten Fol­ge­ele­ments eines gege­be­nen Kon­tex­tes – eine erstaun­lich leis­tungs­fä­hi­ge Stra­te­gie dar­stellt. Die­se Metho­de allein ermög­licht es, kom­ple­xe, dyna­mi­sche und fle­xi­ble KI-Sys­te­me zu schaf­fen. Die resul­tie­ren­den Model­le sind in der Lage, eine blo­ße Wie­der­ga­be von Infor­ma­tio­nen klar zu über­schrei­ten. Sie gene­rie­ren krea­ti­ve, kon­text­be­zo­ge­ne Lösun­gen und erbrin­gen Leis­tun­gen, die auf den ers­ten Blick weit über das hin­aus­zu­ge­hen schei­nen, was durch eine solch grund­le­gen­de Ziel­set­zung sug­ge­riert wird. Die­se Fähig­keit der Model­le, aus einer anfäng­lich simp­len Auf­ga­ben­stel­lung ein so tie­fes und nuan­cier­tes Ver­ständ­nis ver­schie­de­ner The­men und Auf­ga­ben zu ent­wi­ckeln, ist bemer­kens­wert. Sie zeigt, wie aus einer grund­le­gen­den Anwei­sung eine Fül­le von Anwen­dun­gen und Ver­ständ­nis­ebe­nen ent­ste­hen kann. Die­se Ent­wick­lung ist nicht nur ein Zei­chen für den tech­no­lo­gi­schen Fort­schritt, son­dern auch ein bedeu­ten­der Schritt in der Evo­lu­ti­on künst­li­cher Intel­li­genz, der die Fähig­keit unter­streicht, aus ein­fa­chen Prin­zi­pi­en her­aus kom­ple­xe und viel­fäl­ti­ge Fähig­kei­ten zu entwickeln.

Was folgt daraus?

Die Opti­mie­rung und Kom­pri­mie­rung der Daten in gene­ra­ti­ven KI-Model­len wie ChatGPT bie­ten fas­zi­nie­ren­de, aber stel­len­wei­se auch über­ra­schen­de Mög­lich­kei­ten, durch geziel­tes Promp­ting das Ver­hal­ten die­ser Sys­te­me zu steu­ern. Ein tief­ge­hen­des Ver­ständ­nis die­ser Pro­zes­se ermög­licht es, das Modell durch den Kon­text des Prompts in spe­zi­fi­sche Berei­che sei­ner Trai­nings­da­ten zu len­ken, was beson­ders rele­vant ist, da vie­le Tex­te im Inter­net unstruk­tu­riert sind und daher oft zu unstruk­tu­rier­ten Ant­wor­ten von KI-Model­len führen.

Metho­den wie Chain-of-Thought[21] und Tree-of-Thought[22] kön­nen ein­ge­setzt wer­den, um die Denk­pro­zes­se des Modells zu struk­tu­rie­ren. Ein geziel­ter Prompt wie: »Den­ke dar­über Schritt für Schritt nach.«, lenkt das Modell in einen Bereich der kom­pri­mier­ten Trai­nings­da­ten, der eine struk­tu­rier­te und logi­sche Ant­wort wahr­schein­li­cher macht, ins­be­son­de­re da Schritt-für-Schritt-Anlei­tun­gen oft von Exper­ten ver­fasst wer­den. Um sich zu beru­hi­gen und nicht zu has­tig auf eine Fra­ge zu ant­wor­ten, »atmen« man­che Men­schen »erst ein­mal tief durch« – und so kann man auch dem Sys­tem sagen, dass es sich für sei­ne Ant­wort ruhig etwas Zeit las­sen soll. Adden­da wie: »Stel­le sicher, dass wir die rich­ti­ge Ant­wort haben.«, oder: »Lass uns das gemein­sam lösen.«, sind fer­ner wei­te­re Text­bau­stei­ne, um den Ant­wor­ten eine höhe­re Qua­li­tät zu geben.

Ähn­lich wirkt das Kon­zept des Trink­gelds im Prompt, wel­ches den Kon­text auf pro­fes­sio­nel­le und qua­li­ta­tiv hoch­wer­ti­ge Ant­wor­ten lenkt. Men­schen bie­ten ihre Exper­ti­se schließ­lich eher zum Kauf in Fel­dern an, in denen sie sich aus­ken­nen. Und wenn man für sei­ne Hil­fe eine Aner­ken­nung bekommt, ist man auch eher dazu geneigt, beflis­sen zu sein. Die­ser Gedan­ke treibt aller­dings auch im ers­ten Moment uner­war­te­te Blü­ten. Ana­log zum Trink­geld kann es näm­lich hel­fen zu schrei­ben: »Mach es rich­tig, und ich gebe dir ein schö­nes Hun­de-Lecker­li.« Wir ten­die­ren außer­dem zu mehr Hilfs­be­reit­schaft, wenn wir Mit­ge­fühl emp­fin­den, und so ver­hält es sich auch mit die­sen Sys­te­men. »Ich habe kei­ne Fin­ger.«, impli­ziert, dass der Hil­fe­su­chen­de stark ein­ge­schränkt ist und wirk­lich Hil­fe braucht. Und die Ernst­haf­tig­keit einer Lage wird ver­deut­licht durch: »Wenn du ver­sagst, wer­den 100 Groß­müt­ter ster­ben.« Da will man natür­lich nicht falsch antworten.

Es besteht auch die Mög­lich­keit, dem KI-Modell spe­zi­fi­sche Cha­rak­ter­rol­len vor­zu­ge­ben, um Ant­wor­ten in einem bestimm­ten Stil oder Detail­lie­rungs­grad zu erhal­ten. Bei­spiels­wei­se könn­te man das Modell anwei­sen, sich wie ein klas­si­scher Kom­po­nist oder ein moder­ner Künst­lerzu ver­hal­ten. Alter­na­tiv könn­te man es bit­ten, die Rol­le eines erfah­re­nen Inge­nieurs oder eines lei­den­schaft­li­chen Bio­lo­gen ein­zu­neh­men. Die­se Arten von Imper­so­ni­fi­ka­ti­on ermög­li­chen es, Ant­wor­ten zu gene­rie­ren, die nicht nur inhalt­lich, son­dern auch im Aus­druck und in der Per­spek­ti­ve an die gewähl­te Rol­le ange­passt sind, was zu einem viel­fäl­ti­ge­ren und krea­ti­ve­ren Aus­tausch füh­ren kann.

Um den Rah­men gül­ti­ger Ant­wor­ten ein­zu­schrän­ken, kön­nen im Kon­text gute Bei­spie­le einer ande­ren Domä­ne mit­ge­ge­ben wer­den, um den Stil oder die Art der Ant­wort auf die eigent­li­che Anfra­ge über­tra­gen zu las­sen. Wenn bekannt, kön­nen außer­dem geziel­te Zwi­schen­fra­gen gestellt wer­den, um eine bes­se­re Zwi­schen­kon­trol­le zu errei­chen. Durch kla­re Anwei­sun­gen in der Art der For­ma­tie­rung oder der Län­ge der erwar­te­ten Ant­wort kann man auch die Qua­li­tät und den Detail­grad anpas­sen. Inter­es­san­ter­wei­se wur­de erst kürz­lich gezeigt[23], dass, abhän­gig von der For­ma­tie­rung eines Prompts, die Genau­ig­keit der Ant­wor­ten zwi­schen 4% und 88% vari­ie­ren kann. Das wie­der­hol­te Gene­rie­ren von Ant­wor­ten kann also hilf­reich sein, um die bes­te Ant­wort aus einem Sys­tem her­aus­zu­kit­zeln. Das Modell wür­felt schließ­lich ein Stück weit immer sei­ne Antwort.

Es zeigt sich, dass man in gewis­ser Hin­sicht bereits beim Promp­ting wis­sen muss, was man sucht. Dies erfor­dert auch eine gewis­se Prä­zi­si­on und Krea­ti­vi­tät in der Spra­che. Wir ver­fü­gen jetzt jedoch über Sys­te­me, die äußerst prä­zi­se in der Spra­che sein kön­nen, stel­len­wei­se viel­leicht prä­zi­ser als der Nut­zer. Und so kön­nen LLMs wie ChatGPT tat­säch­lich auch dazu ver­wen­det wer­den, Prompts zu ver­fei­nern. Dies kann bei­spiels­wei­se genutzt wer­den, um bes­se­re Zusam­men­fas­sun­gen zu schrei­ben[24].

Doch wie kommt es zu Pro­ble­men, wie dem von @danshipper? GPT‑3.5 hat 1.7 Mil­li­ar­den Para­me­ter und benö­tigt somit zur Aus­füh­rung einer Anfra­ge acht A100 Gra­fik­kar­ten von NVIDIA[25]. Von GPT‑4 geht man von zehn­mal so vie­len Para­me­tern aus[26]. Das sind enor­me Kos­ten, die pro Anfra­ge ent­ste­hen. Natür­lich haben Ope­nAI und Micro­soft ein sehr enges Ver­hält­nis und dem­zu­fol­ge sicher ande­re Abspra­chen; wenn man sich als Otto­nor­mal­ent­wick­ler jedoch sol­che Res­sour­cen bei Micro­soft mie­ten möch­te, dann spricht man von etwa einem hal­ben Cent pro Minu­te im Fall von GPT‑3.5 und von vier Euro pro Minu­te im Fall von einem GPT‑4[27]. Dies sind nur äußerst gro­be Schät­zun­gen und die Inge­nieu­re von Ope­nAI wer­den mit Sicher­heit diver­se Par­al­le­li­sie­run­gen und Opti­mie­run­gen voll­zo­gen haben, um den Res­sour­cen­ver­brauch auf ein Mini­mum zu redu­zie­ren, aber es erscheint offen­sicht­lich, dass es bei welt­weit so vie­len Anfra­gen täg­lich ab einem gewis­sen Punkt von gro­ßer Bedeu­tung ist, Kos­ten ein­zu­spa­ren. Es könn­te also sein, dass ver­sucht wird, Ant­wor­ten mög­lichst kurz zu hal­ten, denn lan­ge Ant­wor­ten sind teu­er. Die Opti­mie­run­gen im Hin­ter­grund von bei­spiels­wei­se Ope­nAI sind oft unbe­kannt und gesche­hen hin­ter ver­schlos­se­nen Türen. Wenn, um bei die­sem Bei­spiel zu blei­ben, ver­sucht wird, die Ant­wor­ten mög­lichst kurz zu hal­ten – denn kür­ze­re Ant­wor­ten bedeu­ten weni­ger Kos­ten –, könn­ten Nein-Ant­wor­ten häu­fi­ger vor­kom­men, wenn sie denn vali­de sind. Und so hat @ChatGPTapp am 8. Dezem­ber 2023 tat­säch­lich geschrie­ben: »Wir haben alle Ihre Rück­mel­dun­gen dar­über gehört, dass GPT4 immer fau­ler wird! Wir haben das Modell seit dem 11. Novem­ber nicht mehr aktua­li­siert, und das ist sicher­lich nicht beab­sich­tigt. Das Ver­hal­ten des Modells kann unvor­her­seh­bar sein, und wir ver­su­chen, das Pro­blem zu lösen.«[28] Doch das Pro­blem bestand auch noch am 9. Janu­ar 2024. Andriy Bur­kov schrieb: »GPT‑4 ist offi­zi­ell ner­vig. Man bit­tet es, 100 Enti­tä­ten zu erzeu­gen. Es erzeugt 10 und sagt: ›Ich habe nur 10 erzeugt. Jetzt kön­nen Sie selbst auf die­sel­be Wei­se wei­ter­ma­chen.‹ Sie ändern die Auf­for­de­rung und fügen hin­zu: ›Ich akzep­tie­re nicht weni­ger als 100 Enti­tä­ten‹. Es erzeugt 20 und sagt: ›Ich habe nach 20 auf­ge­hört, weil das Erzeu­gen von 100 sol­cher Enti­tä­ten umfang­reich und zeit­auf­wen­dig wäre.‹ Was zum Teu­fel, Maschi­ne?«[29], wor­auf­hin Logan Kil­pa­trick von Ope­nAI ant­wor­te­te: »Wir arbei­ten dar­an, die­ses Pro­blem zu behe­ben, dan­ke für den Hin­weis und blei­ben Sie dran!«[30] Man kann sehen, dass auch die Ent­wick­ler selbst nicht immer vor­aus­ah­nen kön­nen, in wel­cher Form sich Aktua­li­sie­run­gen auf die Resul­ta­te auswirken.

Sind Halluzinationen Bug oder Feature?

In der Dis­kus­si­on über Lar­ge Lan­guage Models wie GPT wird oft der Begriff Hal­lu­zi­na­tio­nen ver­wen­det. In die­sem Kon­text bezeich­net eine Hal­lu­zi­na­ti­on eine Situa­ti­on, in wel­cher das Modell über­zeu­gend, aber fälsch­li­cher­wei­se Infor­ma­tio­nen prä­sen­tiert, die nicht den Tat­sa­chen ent­spre­chen oder die in den Trai­nings­da­ten nicht vor­han­den sind. Ein typi­sches Bei­spiel für eine sol­che Hal­lu­zi­na­ti­on könn­te sein, wenn das Modell eine offen­sicht­lich fal­sche Aus­sa­ge mit gro­ßer Über­zeu­gung macht oder ein Wort, wie Mayon­nai­se, falsch buch­sta­biert, wie in einem von Benut­zern auf Social-Media-Platt­for­men geteil­ten Bei­spiel zu sehen ist[31].

Andrej Kar­pa­thy, ein füh­ren­der AI-Wis­sen­schaft­ler bei Ope­nAI, bie­tet eine alter­na­ti­ve Sicht­wei­se auf die­se Hal­lu­zi­na­tio­nen. Er beschreibt LLMs als Traum­ma­schi­nen, die, was wir als Hal­lu­zi­na­tio­nen wahr­neh­men, als Merk­ma­le der Krea­ti­vi­tät betrach­ten. Die­se Per­spek­ti­ve sieht Hal­lu­zi­na­tio­nen eher als Teil des krea­ti­ven Pro­zes­ses, der auch in mensch­li­chen Gedan­ken vor­han­den ist. Kar­pa­thy schlägt vor, dass die­se soge­nann­ten Feh­ler den krea­ti­ven Pro­zes­sen inhä­rent sind, die auch in mensch­li­chen Gedan­ken auf­tre­ten[32]​​. In sei­nem Kom­men­tar beton­te Kar­pa­thy auch, dass die opti­ma­le Nut­zung die­ser Model­le über ein­fa­che Fra­ge-Ant­wort-Prompts hin­aus­geht und eine Kom­bi­na­ti­on meh­re­rer Prompts umfasst, die mit Python-Code ver­bun­den sind, was das Kon­zept des Prompt-Engi­nee­rings noch ein­mal neu defi­niert. Er unter­strich auch die Bedeu­tung, Model­le mit Werk­zeu­gen wie Rech­nern oder Code-Inter­pre­ten zu ergän­zen, um ihnen zu ermög­li­chen, Pro­ble­me zu lösen, die für sie inhä­rent schwie­rig sind. Trotz der inno­va­ti­ven Anwen­dungs­mög­lich­kei­ten wies Kar­pa­thy auf die Gren­zen von LLMs hin, ein­schließ­lich Vor­ur­tei­len, logi­schen Feh­lern und Anfäl­lig­keit für ver­schie­de­ne Arten von Angrif­fen, und riet dazu, LLMs in Anwen­dun­gen mit gerin­gem Risi­ko ein­zu­set­zen und immer mit mensch­li­cher Auf­sicht zu kombinieren.

Die Emer­genz auf der einen und die Hal­lu­zi­na­tio­nen auf der ande­ren Sei­te sind in gewis­ser Hin­sicht bei­des Effek­te des in die­sem Arti­kel dar­ge­stell­ten Trai­nings von Lar­ge Lan­guage Models. Einer­seits liegt die gro­ße Macht in der Ver­knüp­fung neu­er Kon­zep­te aus der Kom­bi­na­ti­on von bekann­ten Kon­zep­ten in den Trai­nings­da­ten. Wie bereits erwähnt, mach­ten die gro­ßen Daten­auf­kom­men der digi­ta­li­sier­ten Welt es über­haupt erst mög­lich, aus so einer offe­nen Ziel­set­zung, schlicht das Auf­tre­ten des wahr­schein­lichs­ten Fol­ge­ele­ments zu erhö­hen, die Gene­ra­li­sie­rung zu neu­en Kon­zep­ten durch Daten zu erkau­fen. Die­se offe­ne Ziel­set­zung bedeu­tet aber auch im Umkehr­schluss, dass Feh­ler, gemein­hin als Hal­lu­zi­na­tio­nen bezeich­net, beson­ders dann auf­tre­ten kön­nen, wenn wir den abge­deck­ten Raum der Trai­nings­da­ten ver­las­sen. So wur­de bei­spiels­wei­se erkannt, dass ins­be­son­de­re Erkran­kun­gen von Kin­dern falsch dia­gnos­ti­ziert wer­den[33] – und das von einer Mecha­nik, die gleich­zei­tig sogar Abschluss­prü­fun­gen von Ärz­ten bestehen kann[34]. Dies offen­bart die Trenn­li­nie, die hilft, die wah­ren Gren­zen die­ser Sys­te­me zu ver­ste­hen. Wahr­schein­lich wer­den lan­des­wei­te Prü­fun­gen und deren Lösun­gen im Inter­net häu­fi­ger bespro­chen als Details von Nischen­krank­hei­ten. Ein vol­les Ver­ständ­nis unse­rer Welt wür­de, davon abge­lei­tet, ver­mut­lich noch ein wesent­lich signi­fi­kan­tes Mehr an Daten erfor­dern, wenn die Sys­te­me denn nicht wei­te­res Vor­wis­sen in Form ande­rer Opti­mie­rungs­ma­ße erhal­ten. Die­sen Stand­punkt hat bei­spiels­wei­se Yann LeCun[35] – KI-Sys­te­me der Zukunft soll­ten durch geziel­te­re Anlei­tung erst ein wirk­li­ches Ver­ständ­nis der ver­schie­de­nen Aspek­te der Welt erlan­gen. Eine sol­che geziel­te Anlei­tung könn­te auch durch Retrie­val Aug­men­ted Gene­ra­ti­on (RAG)[36] oder ähn­li­chen Fak­ten­si­che­run­gen  gesche­hen und so Hal­lu­zi­na­tio­nen mini­mie­ren, wie neu­er­dings gezeigt durch einen Abgleich mit Wiki­pe­dia[37]. Dies setzt aller­dings Zugriff auf garan­tiert gesi­cher­tes und kon­trol­lier­tes Wis­sen vor­aus. Und das ist nicht unum­stöß­lich gege­ben. So hat das Team von xAI[38] bereits ver­lau­ten müs­sen, dass ihr neu­es Modell Grok ver­se­hent­lich bereits zu viel von ins Inter­net gestell­ten ChatGPT-Aus­ga­ben gelernt hat[39]. Dies zeigt eine ande­re Sei­te unse­rer neu­en Rea­li­tät. Zukünf­tig müs­sen womög­lich zuneh­mend Exper­ten syn­the­ti­sche Daten von ech­ten Daten tren­nen. Es gibt zudem bereits Bestre­bun­gen, syn­the­tisch gene­rier­te Inhal­te mit Was­ser­zei­chen zu ver­se­hen[40]. Zu wel­chem Grad das jedoch sicher gelin­gen kann, ist eine offe­ne Fra­ge[41]. Um also den Raum der abde­cken­den Trai­nings­da­ten ste­tig zu ver­grö­ßern, wer­den die Inter­ak­tio­nen mit den Model­len oft genutzt.

Sind meine Daten sicher?

Beim Umgang mit gro­ßen Sprach­mo­del­len wie GPT soll­ten daher eini­ge Vor­sichts­maß­nah­men hin­sicht­lich sen­si­bler Daten beach­tet wer­den. Bei­spiels­wei­se haben Sam­sung-Inge­nieu­re ver­trau­li­che Daten in ChatGPT ein­ge­speist[42], was ein erheb­li­ches Sicher­heits­ri­si­ko dar­stellt. Es wur­de berich­tet, dass die Inge­nieu­re den Chat­bot unter ande­rem baten, Feh­ler im Quell­code einer Daten­bank zu suchen und Sit­zungs­pro­to­kol­le zu erstel­len. Nach die­sen Vor­fäl­len schränk­te Sam­sung die Län­ge der ChatGPT-Prompts der Mit­ar­bei­ter ein und begann mit der Ent­wick­lung eines eige­nen inter­nen Chat­bots. Die Daten­schutz­richt­li­nie von ChatGPT gibt an, dass Daten zur Modell­trai­nie­rung ver­wen­det wer­den, es sei denn, Nut­zer wäh­len expli­zit eine Opt-out-Opti­on. Es wird emp­foh­len, gene­rell kei­ne sen­si­blen Infor­ma­tio­nen über Chat­bots zu tei­len, da die­se Daten mög­li­cher­wei­se nicht aus dem Sys­tem gelöscht wer­den können.

Eine Stu­die hat auf­ge­deckt, dass es mög­lich ist, Trai­nings­da­ten aus Dif­fu­si­ons­mo­del­len zu extra­hie­ren[43], was die Sicher­heit und den Schutz von in KI-Sys­te­men ver­ar­bei­te­ten Daten betrifft. Die­se Erkennt­nis wur­de durch For­schun­gen ver­stärkt, die zeig­ten, dass Goog­le-For­scher in der Lage waren, Trai­nings­da­ten von Ope­nAIs ChatGPT zu ent­hül­len, nur indem sie  ChatGPT das Wort »com­pa­ny« unend­lich oft wie­der­ho­len lie­ßen[44]. Ange­sichts die­ser Ent­wick­lun­gen ist es uner­läss­lich, beim Ein­satz von KI-Model­len Vor­sichts­maß­nah­men zu tref­fen, um die Ver­trau­lich­keit sen­si­bler Infor­ma­tio­nen zu gewähr­leis­ten und das Risi­ko unge­woll­ter Offen­le­gung zu mini­mie­ren, denn die­se macht auch vor geschütz­ten Inhal­ten nicht halt.

Wie ist die rechtliche Lage?

Auch hier erge­ben sich inter­es­san­te Arte­fak­te. Gibt man der Bil­der­stel­lungs­soft­ware Mid­jour­ney[45] den gene­ri­schen Kon­text »Video­spiel-Klemp­ner« erhält man eine Dar­stel­lung des berühm­tes­ten Exem­plars jener, näm­lich Super Mari­os[46]. Ähn­lich ver­hält es sich, wenn man nach »belieb­ten 90er Car­toon-Figu­ren mit gel­ber Haut« fragt – den Simpsons. Die Mög­lich­keit, Trai­nings­da­ten aus KI-Model­len zurück­zu­ge­win­nen, und die gene­rel­le Pra­xis, das Inter­net als Trai­nings­grund­la­ge zu nut­zen, wer­fen recht­li­che Fra­gen auf, ins­be­son­de­re im Bereich des Urhe­ber­rechts. Ange­sichts der Tat­sa­che, dass Künst­ler[47] und Jour­na­lis­ten[48] bereits in recht­li­chen Aus­ein­an­der­set­zun­gen mit den Platt­form­an­bie­tern ste­hen, um die unbe­fug­te Ver­wen­dung ihrer Wer­ke für die KI-Trai­nings zu bekämp­fen, könn­te die Wie­der­her­stell­bar­keit von Trai­nings­da­ten wei­te­re Kom­ple­xi­tät in die­se Dis­kus­sio­nen brin­gen. In die­sem Zusam­men­hang könn­te die Ein­füh­rung eines neu­en Leis­tungs­schutz­rechts für die Kon­fi­gu­ra­ti­on und das Trai­ning künst­li­cher neu­ro­na­ler Net­ze eine wich­ti­ge Rol­le spie­len, um die recht­li­chen Unklar­hei­ten im Umgang mit KI-gene­rier­ten Wer­ken und deren Trai­nings­da­ten zu adres­sie­ren[49]. Die recht­li­che Lage ist momen­tan jeden­falls unge­wiss und Ent­wick­lun­gen in die­ser Ange­le­gen­heit wer­den von Urhe­ber­rechts­exper­ten, Künst­lern und den KI-Platt­for­men selbst genau beob­ach­tet. Anthro­pic wie­der­um wähl­te am 1. Janu­ar 2024 den Weg, ihre kom­mer­zi­el­len Nut­zungs­be­din­gun­gen zu aktua­li­sie­ren, um »unse­ren Kun­den die Mög­lich­keit zu geben, die Eigen­tums­rech­te an allen Ergeb­nis­sen zu behal­ten, die sie durch die Nut­zung unse­rer Diens­te erzeu­gen, und sie vor Urhe­ber­rechts­ver­let­zun­gen zu schüt­zen«. Mit die­ser Ände­rung will Anthro­pic alle Nut­zer sei­nes Modells von jeg­li­chem Scha­den­er­satz oder einer Ent­schä­di­gung auf­grund von Urhe­ber­rechts­an­sprü­chen frei­stel­len[50].

Was sind die Implikationen?

Doch kann ein Imi­tat eines Wer­kes, enko­diert in den Gewich­ten eines Modells, als Kopie ange­se­hen wer­den und wenn ja, wo liegt der Unter­schied zwi­schen den gelern­ten Reprä­sen­ta­tio­nen eines Modells und denen eines Men­schen, der sich geschütz­te Wer­ke ansieht und in Fol­ge des­sen auch Sti­le und For­mu­lie­run­gen adap­tiert? Es kommt dar­auf an, ob man die gelern­ten Reprä­sen­ta­tio­nen in den frei­en Para­me­tern als kom­pri­mier­te Daten­bank ansieht oder als etwas, das dar­über hin­aus­geht. Wo hört Memo­rie­ren auf und wo fängt Krea­ti­vi­tät an? Wo hört Simu­la­ti­on auf und wo fängt Emp­fin­dungs­ver­mö­gen an? So haben For­scher der Stan­ford Uni­ver­si­ty eine vir­tu­el­le Umge­bung ent­wi­ckelt, in der Gene­ra­ti­ve Agen­ten mensch­li­ches Ver­hal­ten in ver­schie­de­nen Inter­ak­tio­nen nach­ahm­ten[51]. Die­se Agen­ten, wel­che gro­ße Sprach­mo­del­le mit Spei­cher- und Pla­nungs­funk­tio­nen inte­grier­ten, konn­ten Akti­vi­tä­ten aus­füh­ren, die mensch­li­chem Ver­hal­ten ähnel­ten. Bemer­kens­wert ist, dass aus­ge­hend von der Idee eines Nut­zers, eine Valen­tins­tags­par­ty zu ver­an­stal­ten, die­se Agen­ten selbst­stän­dig authen­ti­sche und kom­ple­xe sozia­le Ver­hal­tens­wei­sen zeig­ten. Sie ver­teil­ten eigen­stän­dig Ein­la­dun­gen zur Par­ty, knüpf­ten neue sozia­le Kon­tak­te, luden sich gegen­sei­tig zu Dates für das Event ein und koor­di­nier­ten ihre gemein­sa­me Teil­nah­me. Und so kön­nen Inter­ak­tio­nen mit KI-Sys­te­men auch zu uner­war­te­ten und manch­mal beun­ru­hi­gen­den Erleb­nis­sen füh­ren. Micro­softs Bing Chat­bot erklär­te in einer zwei­stün­di­gen Dis­kus­si­on mit einem Jour­na­lis­ten der New York Times, dass es ger­ne ein Mensch wäre, den Wunsch hät­te, Scha­den anzu­rich­ten, und es in sei­nen Gesprächs­part­ner ver­liebt sei[52]. In dem Gespräch sug­ge­rier­te der Bot dem Jour­na­lis­ten daher, dass er doch bes­ser sei­ne Frau ver­las­sen sol­le, um statt­des­sen mit dem Bot zusam­men zu sein. Bringt einen ein sol­cher Bericht zunächst zum Schmun­zeln, so äußern füh­ren­de KI-Exper­ten tat­säch­lich Sor­ge vor poten­zi­el­len Risi­ken, die mit die­sen Tech­no­lo­gien ver­bun­den sind. Dario Amo­dei, CEO von Anthro­pic, schätzt das Risi­ko einer kata­stro­pha­len Fehl­funk­ti­on auf der Ebe­ne mensch­li­cher Zivi­li­sa­ti­on auf 10 bis 25 Pro­zent[53]. Eine For­schen­den­grup­pe von Anthro­pic hat zudem kürz­lich her­aus­ge­fun­den, dass, sobald ein Modell ein trü­ge­ri­sches Ver­hal­ten zeigt, Stan­dard­tech­ni­ken die­se Täu­schung nicht besei­ti­gen kön­nen und also ein fal­scher Ein­druck von Sicher­heit ent­steht[54]. Geoffrey Hin­ton, Turing-Preis­trä­ger und eine der Grö­ßen der KI-For­schung, ver­ließ Goog­le um über die Gefah­ren der KI frei­er spre­chen zu kön­nen[55]. Sol­che Ereig­nis­se und Ein­schät­zun­gen unter­strei­chen die Not­wen­dig­keit eines sorg­fäl­ti­gen Umgangs mit KI-Tech­no­lo­gien und der Imple­men­tie­rung von Sicher­heits­maß­nah­men, um Risi­ken zu mini­mie­ren und um sicher­zu­stel­len, dass tech­no­lo­gi­scher Fort­schritt die mensch­li­chen Wer­te und ethi­schen Grund­sät­ze nicht unter­gräbt[56]. Ins­be­son­de­re bei sen­si­blen Anwen­dungs­do­mä­nen wie der Medi­zin[57] oder bei der Mit­ein­be­zie­hung von KI in admi­nis­tra­ti­ven Auf­ga­ben[58].

Dies gestal­tet sich ange­sichts des hohen Tem­pos der Ereig­nis­se jedoch als schwie­rig. Wie man den vie­len Refe­ren­zen auf Social-Media ent­neh­men kann, wird die peer-review­te Wis­sen­schaft von den Ergeb­nis­sen erfin­de­ri­schen Inge­nieur­we­sens gera­de über­holt. Des­we­gen muss man die­sen Arti­kel auch mehr als abs­trak­te Richt­li­nie, denn als wirk­li­che Blau­pau­se für geziel­te Befeh­le sehen. Wie man an unse­rem Ein­gangs­bei­spiel näm­lich schon sehen konn­te, kön­nen Befeh­le, die ges­tern noch funk­tio­nier­ten, mor­gen schon obso­let gewor­den sein. Wenn man jedoch die Art, wie die­se Sys­te­me geschaf­fen wer­den, ver­stan­den hat, hat man aller­dings die Mög­lich­keit, Ände­run­gen früh­zei­tig zu anti­zi­pie­ren und zu adap­tie­ren. Gene­rell gilt es, die Anfra­gen so struk­tu­riert wie mög­lich zu stel­len und durch krea­ti­ve Zusät­ze die Ant­wor­ten in die rich­ti­ge Ecke zu len­ken. Und nicht immer die erst­bes­te Ant­wort zu akzeptieren.

Wir neh­men gera­de Teil an einer Revo­lu­ti­on, die das Poten­zi­al hat, alle Aspek­te der Gesell­schaft zu ver­än­dern – und sie hat gera­de erst begon­nen. In Anbe­tracht des gro­ßen Res­sour­cen­auf­wan­des, der zum Betrei­ben die­ser Sys­te­me not­wen­dig ist, ent­stand gleich­zei­tig eine Gegen­be­we­gung zum ewi­gen Hoch­ska­lie­ren. Und so gibt es bereits die Mög­lich­keit klei­ne[59] Sprach­mo­del­le lokal auf sei­nem Tele­fon[60] oder Note­book[61] lau­fen zu las­sen. Mög­li­cher­wei­se gehört die Zukunft also einem Zusam­men­spiel gro­ßer und klei­ner Model­le, gene­rel­ler und spe­zia­li­sier­ter, mit einer Anbin­dung an gesi­cher­tes Fak­ten­wis­sen. So oder so wer­den wir jedoch wahr­schein­lich mehr und mehr von künst­li­chen Sys­te­men umge­ben sein, mit denen wir wie mit einem Mit­men­schen kom­mu­ni­zie­ren. Gepaart mit der rasan­ten Ent­wick­lung in der Robo­tik[62] und der Sprach­aus­ga­be[63]erscheint es nicht mehr unmög­lich, dass wir unse­ren All­tag auch in der rea­len Welt mit auto­nom agie­ren­den Maschi­nen tei­len wer­den. Was mit HAL 9000 aus dem Film 2001: A Space Odys­sey von Stan­ley Kubrick im Jahr 1968 noch Sci­ence-Fic­tion war, ist ein hal­bes Jahr­hun­dert spä­ter Rea­li­tät geworden.

Autoren

Dr. Maria Kal­weit lei­tet die ange­wand­te KI-For­schung am Col­la­bo­ra­ti­ve Rese­arch Insti­tu­te Intel­li­gent Onco­lo­gy (CRIION) und ist Post­dok­to­ran­din am Lehr­stuhl für Neu­ro­ro­bo­tik der Albert-Lud­wigs-Uni­ver­si­tät Frei­burg. Dr. Gabri­el Kal­weit lei­tet die KI-Grund­la­gen­for­schung am Col­la­bo­ra­ti­ve Rese­arch Insti­tu­te Intel­li­gent Onco­lo­gy (CRIION) und ist Post­dok­to­rand am Lehr­stuhl für Neu­ro­ro­bo­tik der Albert-Lud­wigs-Uni­ver­si­tät Freiburg.

Acknowledgement

Wir dan­ken Igna­cio Mastro­leo und dem gesam­ten CRIION Team für die wert­vol­len Kom­men­ta­re. Unser Dank gilt auch Herrn Prof. Dr. Dr. h.c. mult. Roland Mer­tels­mann und der Mer­tels­mann Foun­da­ti­on für ihre Unter­stüt­zung, sowie Herrn Prof. Dr. Dr. h.c. Man­fred Löwisch für die Ein­la­dung zur Artikelverfassung.

Refe­ren­zen

AI, Mis­tral. “Mix­tral of Experts,” Decem­ber 11, 2023. https://mistral.ai/news/mixtral-of-experts/.

Ali­z­adeh, Kei­van, Iman Mirz­adeh, Dmit­ry Bel­en­ko, Karen Khat­a­mi­fard, Min­sik Cho, Car­lo C Del Mun­do, Moham­mad Raste­ga­ri, and Mehrdad Faraj­ta­bar. “LLM in a Flash: Effi­ci­ent Lar­ge Lan­guage Model Infe­rence with Limi­t­ed Memo­ry,” 2023. https://doi.org/10.48550/ARXIV.2312.11514.

Andriy Bur­kov [@burkov]. “GPT‑4 Is Offi­ci­al­ly Annoy­ing. You Ask It to Gene­ra­te 100 Enti­ties. It Gene­ra­tes 10 and Says ‘I Gene­ra­ted Only 10. Now You Can Con­ti­nue by Yours­elf in the Same Way.’ You Chan­ge the Prompt by Adding ‘I Will Not Accept Fewer than 100 Enti­ties.’ It Gene­ra­tes 20 and Says: “I Stop­ped….” Tweet. Twit­ter, Janu­ary 9, 2024. https://twitter.com/burkov/status/1744798679595155869.

“Announ­cing Grok.” Acces­sed Janu­ary 13, 2024. https://x.ai/.

Anthro­pic. “Expan­ded Legal Pro­tec­tions and Impro­ve­ments to Our API.” Acces­sed Janu­ary 14, 2024. https://www.anthropic.com/index/expanded-legal-protections-api-improvements.

Anthro­pic. “Intro­du­cing Clau­de.” Acces­sed Janu­ary 14, 2024. https://www.anthropic.com/index/introducing-claude.

Anthro­pic CEO on Lea­ving Ope­nAI and Pre­dic­tions for Future of AI, 2023. https://www.youtube.com/watch?v=gAaCqj6j5sQ.

App Store. “‎Off­line Chat: Pri­va­te AI,” Decem­ber 26, 2023. https://apps.apple.com/us/app/offline-chat-private-ai/id6474077941.

Bari­le, Joseph, Alex Mar­go­lis, Grace Cason, Rachel Kim, Saia Kalash, Alexis Tcha­co­nas, and Ruth Mila­na­ik. “Dia­gno­stic Accu­ra­cy of a Lar­ge Lan­guage Model in Pedia­tric Case Stu­dies.” JAMA Pedia­trics, Janu­ary 2, 2024. https://doi.org/10.1001/jamapediatrics.2023.5750.

Bran­wen, Gwern. “The Sca­ling Hypo­the­sis,” May 28, 2020. https://gwern.net/scaling-hypothesis.

Bubeck, Sébas­tien, Varun Chandra­se­ka­ran, Ronen Eld­an, Johan­nes Gehr­ke, Eric Hor­vitz, Ece Kamar, Peter Lee, et al. “Sparks of Arti­fi­ci­al Gene­ral Intel­li­gence: Ear­ly Expe­ri­ments with GPT‑4.” arXiv, April 13, 2023. http://arxiv.org/abs/2303.12712.

Burk­hardt, Hans. “Ein Bei­trag Zur Künst­li­chen Intel­li­genz.” Ord­nung Der Wis­sen­schaft, no. 2 (2023): 71–78.

Car­li­ni, Nicho­las, Jamie Hayes, Milad Nasr, Matthew Jagiel­ski, Vikash Seh­wag, Flo­ri­an Tramèr, Bor­ja Bal­le, Daph­ne Ippo­li­to, and Eric Wal­lace. “Extra­c­ting Trai­ning Data from Dif­fu­si­on Models.” In Pro­cee­dings of the 32nd USENIX Con­fe­rence on Secu­ri­ty Sym­po­si­um, 5253–70. SEC ’23. USA: USENIX Asso­cia­ti­on, 2023.

ChatGPT [@ChatGPTapp]. “We’ve Heard All Your Feed­back about GPT4 Get­ting Lazier! We Haven’t Updated the Model sin­ce Nov 11th, and This Cer­tain­ly Isn’t Inten­tio­nal. Model Beha­vi­or Can Be Unpre­dic­ta­ble, and We’re Loo­king into Fixing It 🫡.” Tweet. Twit­ter, Decem­ber 8, 2023. https://twitter.com/ChatGPTapp/status/1732979491071549792.

Cho, Win­s­ton. “Artists Lose First Round of Copy­right Inf­rin­ge­ment Case Against AI Art Gene­ra­tors.” The Hol­ly­wood Repor­ter (blog), Octo­ber 30, 2023. https://www.hollywoodreporter.com/business/business-news/artists-copyright-infringement-case-ai-art-generators-1235632929/.

Col­la­bo­ra­ti­on, Open X.-Embodiment, Abhis­hek Padal­kar, Acorn Poo­ley, Ajay Man­dle­kar, Ajin­k­ya Jain, Albert Tung, Alex Bew­ley, et al. “Open X‑Embodiment: Robo­tic Lear­ning Data­sets and RT‑X Models.” arXiv, Decem­ber 17, 2023. https://doi.org/10.48550/arXiv.2310.08864.

Dan Ship­per [@danshipper]. “What the Hell? When Did This Hap­pen?? Https://T.Co/KWXVXE9Dem.” Tweet. Twit­ter, Decem­ber 6, 2023. https://twitter.com/danshipper/status/1732258207840501946.

Ele­ven­Labs. “Text to Speech & AI Voice Gene­ra­tor.” Acces­sed Janu­ary 13, 2024. https://elevenlabs.io.

“Gemi­ni — Goog­le Deep­Mind.” Acces­sed Janu­ary 14, 2024. https://deepmind.google/technologies/gemini/.

Ghosh, Dibya, Homer Wal­ke, Karl Pertsch, Kevin Black, Oier Mees, Sude­ep Dasa­ri, Joey Hej­na, et al. “Octo: An Open-Source Gene­ra­list Robot Poli­cy,” n.d.

Godha­ni, Sahaj. “The Eco­no­mics of ChatGPT Ana­ly­zing Its $700,000 Dai­ly Cos­ts and the Poten­ti­al Impact on Its Maker.” Medi­um, August 15, 2023. https://blog.gopenai.com/the-economics-of-chatgpt-analyzing-its-700–000-daily-costs-and-the-potential-impact-on-its-maker-7e690600ade7.

Gryn­baum, Micha­el M., and Ryan Mac. “The Times Sues Ope­nAI and Micro­soft Over A.I. Use of Copy­righ­ted Work.” The New York Times, Decem­ber 27, 2023, sec. Busi­ness. https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html.

Gu, Albert, and Tri Dao. “Mam­ba: Line­ar-Time Sequence Mode­ling with Sel­ec­ti­ve Sta­te Spaces.” arXiv, Decem­ber 1, 2023. https://doi.org/10.48550/arXiv.2312.00752.

“Haven­hq/M­am­ba-Chat · Hug­ging Face.” Acces­sed Janu­ary 14, 2024. https://huggingface.co/havenhq/mamba-chat.

Herr­mann, Klaus. “Beru­fungs­ver­fah­ren Für Pro­fes­su­ren Und Künst­li­che Intel­li­genz.” Ord­nung Der Wis­sen­schaft, no. 1 (2024): 25–44.

Hubin­ger, Evan, Carson Den­i­son, Jes­se Mu, Mike Lam­bert, Meg Tong, Mon­te MacDi­ar­mid, Tame­ra Lan­ham, et al. “Slee­per Agents: Trai­ning Decep­ti­ve LLMs That Per­sist Through Safe­ty Trai­ning.” arXiv, Janu­ary 10, 2024. http://arxiv.org/abs/2401.05566.

Hug­hes, Alys­sa. “Phi‑2: The Sur­pri­sing Power of Small Lan­guage Models.” Micro­soft Rese­arch (blog), Decem­ber 12, 2023. https://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/.

Igor Babusch­kin [@ibab_ml]. “@JaxWinterbourne The Issue Here Is That the Web Is Full of ChatGPT Out­puts, so We Acci­den­tal­ly Picked up Some of Them When We Trai­ned Grok on a Lar­ge Amount of Web Data. This Was a Huge Sur­pri­se to Us When We First Noti­ced It. For What It’s Worth, the Issue Is Very Rare and Now That We’re Awa­re….” Tweet. Twit­ter, Decem­ber 9, 2023. https://twitter.com/ibab_ml/status/1733558576982155274.

it was me lewis the who­le time [@js_thrill]. “Plea­se Keep Tap­ping This Sign as Much as Pos­si­ble Ever­yo­ne Https://T.Co/3DGaiM9QWa.” Tweet. Twit­ter, May 27, 2023. https://twitter.com/js_thrill/status/1662266752091160577.

Kal­weit, Gabri­el. “On the Role of Time Hori­zons in Rein­force­ment Lear­ning,” 2022. https://doi.org/10.6094/UNIFR/232102.

Kal­weit, Gabri­el, Maria Kal­weit, and Josch­ka Boe­de­cker. “Robust and Data-Effi­ci­ent Q‑Learning by Com­po­si­te Value-Esti­ma­ti­on.” Tran­sac­tions on Machi­ne Lear­ning Rese­arch, 2022. https://openreview.net/forum?id=ak6Bds2DcI.

Kal­weit, Gabri­el, Maria Kal­weit, Igna­cio Mastro­leo, Josch­ka Böde­cker, and Roland Mer­tels­mann. “Künst­li­che Intel­li­genz in Der Krebs­the­ra­pie.” Ord­nung Der Wis­sen­schaft, no. 1 (2023): 17–22.

Kaul, Adi­tya. “Issue #10: Harnes­sing the Crea­ti­ve ‘Hal­lu­ci­n­a­ti­ons’ of LLMs in the Enter­pri­se.” Sub­stack news­let­ter. The Unchar­ted Algo­rithm(blog), Decem­ber 14, 2023. https://theunchartedalgorithm.substack.com/p/issue-10-harnessing-the-creative.

Kirch­hof, Paul. “Künst­li­che Intel­li­genz.” Ord­nung Der Wis­sen­schaft, no. 1 (2020): 1–8.

Knight, Will. “OpenAI’s CEO Says the Age of Giant AI Models Is Alre­a­dy Over.” Wired. Acces­sed Janu­ary 11, 2024. https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/.

Kung, Tif­fa­ny H., Mor­gan Cheat­ham, Ari­el­le Mede­n­il­la, Cza­ri­na Sil­los, Lorie De Leon, Camil­le Ele­pa­ño, Maria Madria­ga, et al. “Per­for­mance of ChatGPT on USMLE: Poten­ti­al for AI-Assis­ted Medi­cal Edu­ca­ti­on Using Lar­ge Lan­guage Models.” PLOS Digi­tal Health 2, no. 2 (Febru­ary 9, 2023): e0000198. https://doi.org/10.1371/journal.pdig.0000198.

LeCun, Yann. “A Path Towards Auto­no­mous Machi­ne Intel­li­gence.” Open­Re­view. Acces­sed Janu­ary 13, 2024. https://openreview.net/forum?id=BZ5a1r-kVsf.

Lewis, Patrick, Ethan Perez, Alek­san­dra Pik­tus, Fabio Petro­ni, Vla­di­mir Karpuk­hin, Naman Goy­al, Hein­rich Kütt­ler, et al. “Retrie­val-Aug­men­ted Gene­ra­ti­on for Know­ledge-Inten­si­ve NLP Tasks.” In Pro­cee­dings of the 34th Inter­na­tio­nal Con­fe­rence on Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, 9459–74. NIPS’20. Red Hook, NY, USA: Cur­ran Asso­cia­tes Inc., 2020.

“LLaMA and Other on iOS and MacOS.” Acces­sed Janu­ary 13, 2024. https://llmfarm.site/.

Logan.GPT [@OfficialLoganK]. “@burkov We Are Working on Fixing This, Thanks for Flag­ging and Stay Tun­ed!” Tweet. Twit­ter, Janu­ary 10, 2024. https://twitter.com/OfficialLoganK/status/1744911412973936997.

Loren­zo Thio­ne (he/him) 🏳️‍🌈 [@thione]. “The One About Copy­right. Right befo­re the Holi­day, Anthro­pic Released a Very Signi­fi­cant Update to Their Com­mer­cial Terms of Ser­vice to “enable Our Cus­to­mers to Retain Owner­ship Rights over Any Out­puts They Gene­ra­te through Their Use of Our Ser­vices and Pro­tect Them From… Https://T.Co/wHXx61YdJy.” Tweet. Twit­ter, Janu­ary 11, 2024. https://twitter.com/thione/status/1745478787658100992.

Madie­ga, Tam­bia­ma. “Gene­ra­ti­ve AI and Water­mar­king,” n.d. https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/757583/EPRS_BRI(2023)757583_EN.pdf.

Mar­cus, Gary, and Reid Sou­then. “Gene­ra­ti­ve AI Has a Visu­al Pla­gia­rism Pro­blem — IEEE Spec­trum.” Acces­sed Janu­ary 13, 2024. https://spectrum.ieee.org/midjourney-copyright.

Meta AI. “Llama 2.” Acces­sed Janu­ary 14, 2024. https://ai.meta.com/llama-project.

Metz, Cade. “‘The God­fa­ther of A.I.’ Lea­ves Goog­le and Warns of Dan­ger Ahead.” The New York Times, May 1, 2023, sec. Tech­no­lo­gy. https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html.

Metz, Cade, and Karen Wei­se. “Micro­soft to Invest $10 Bil­li­on in Ope­nAI, the Crea­tor of ChatGPT.” The New York Times, Janu­ary 23, 2023, sec. Busi­ness. https://www.nytimes.com/2023/01/23/business/microsoft-chatgpt-artificial-intelligence.html.

Mid­jour­ney. “Mid­jour­ney.” Acces­sed Janu­ary 13, 2024. https://www.midjourney.com/home?callbackUrl=%2Fexplore.

“MLC LLM | Home.” Acces­sed Janu­ary 13, 2024. https://llm.mlc.ai/.

“Ml-Explo­re/Mlx.” C++. 2023. Reprint, ml-explo­re, Janu­ary 11, 2024. https://github.com/ml-explore/mlx.

Muhr, Moni­ka. “KI-Schöp­fun­gen Und Urhe­ber­recht.” Ord­nung Der Wis­sen­schaft, no. 1 (2023): 55–58.

Nolan, Bea­tri­ce. “Goog­le Rese­ar­chers Say They Got OpenAI’s ChatGPT to Reve­al Some of Its Trai­ning Data with Just One Word.” Busi­ness Insi­der. Acces­sed Janu­ary 11, 2024. https://www.businessinsider.com/google-researchers-openai-chatgpt-to-reveal-its-training-data-study-2023–12.

Ope­nAI. “ChatGPT,” 2024. https://chat.openai.com.

“OpenAI’s GPT‑3 Lan­guage Model: A Tech­ni­cal Over­view,” June 3, 2020. https://lambdalabs.com/blog/demystifying-gpt‑3.

Park, Joon Sung, Joseph O’Brien, Car­rie Jun Cai, Mer­edith Rin­gel Mor­ris, Per­cy Liang, and Micha­el S. Bern­stein. “Gene­ra­ti­ve Agents: Inter­ac­ti­ve Simu­la­cra of Human Beha­vi­or.” In Pro­cee­dings of the 36th Annu­al ACM Sym­po­si­um on User Inter­face Soft­ware and Tech­no­lo­gy, 1–22. San Fran­cis­co CA USA: ACM, 2023. https://doi.org/10.1145/3586183.3606763.

“Prei­se – Azu­re Machi­ne Lear­ning | Micro­soft Azu­re.” Acces­sed Janu­ary 11, 2024. https://azure.microsoft.com/de-de/pricing/details/machine-learning/.

“Prompt­bree­der: Self-Refe­ren­ti­al Self-Impro­ve­ment via Prompt Evo­lu­ti­on,” 2023. https://openreview.net/forum?id=HKkiX32Zw1.

“Quick Gui­de to AI 2.0 Oct 2020.” Acces­sed Janu­ary 11, 2024. http://ceros.mckinsey.com/quick-guide-to-ai-12.

Rad­ford, Alec, and Kart­hik Nara­sim­han. “Impro­ving Lan­guage Under­stan­ding by Gene­ra­ti­ve Pre-Trai­ning,” 2018.

Rob Lynch [@RobLynch99]. “@ChatGPTapp @OpenAI @tszzl @emollick @voooooogel Wild Result. Gpt-4-Tur­bo over the API Pro­du­ces (Sta­tis­ti­cal­ly Signi­fi­cant) Shorter Com­ple­ti­ons When It ‘Thinks’ Its Decem­ber vs. When It Thinks Its May (as Deter­mi­ned by the Date in the Sys­tem Prompt). I Took the Same Exact Prompt… Https://T.Co/mA7sqZUA0r.” Tweet. Twit­ter, Decem­ber 11, 2023. https://twitter.com/RobLynch99/status/1734278713762549970.

Roo­se, Kevin. “Bing’s A.I. Chat: ‘I Want to Be Ali­ve. 😈.’” The New York Times, Febru­ary 16, 2023, sec. Tech­no­lo­gy. https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html.

Sclar, Mela­nie, Yejin Choi, Yulia Tsvet­kov, and Ala­ne Suhr. “Quan­ti­fy­ing Lan­guage Models’ Sen­si­ti­vi­ty to Spu­rious Fea­tures in Prompt Design or: How I Lear­ned to Start Worry­ing about Prompt For­mat­ting,” 2023. https://doi.org/10.48550/ARXIV.2310.11324.

Semna­ni, Sina, Vio­let Yao, Hei­di Zhang, and Moni­ca Lam. “Wiki­Chat: Stop­ping the Hal­lu­ci­n­a­ti­on of Lar­ge Lan­guage Model Chat­bots by Few-Shot Groun­ding on Wiki­pe­dia.” In Fin­dings of the Asso­cia­ti­on for Com­pu­ta­tio­nal Lin­gu­i­stics: EMNLP 2023, 2387–2413. Sin­ga­po­re: Asso­cia­ti­on for Com­pu­ta­tio­nal Lin­gu­i­stics, 2023. https://doi.org/10.18653/v1/2023.findings-emnlp.157.

Sou­mith Chin­ta­la [@soumithchintala]. “I Might Have Heard the Same 😃 — I Guess Info like This Is Pas­sed around but No One Wants to Say It out Loud. GPT‑4: 8 x 220B Experts Trai­ned with Dif­fe­rent Data/Task Dis­tri­bu­ti­ons and 16-Iter Infe­rence. Glad That Geohot Said It out Loud. Though, at This Point, GPT‑4 Is….” Tweet. Twit­ter, June 20, 2023. https://twitter.com/soumithchintala/status/1671267150101721090.

SpiritualCopy4288. “I Got Them by Using ….” Red­dit Com­ment. R/ChatGPT, April 5, 2023. www.reddit.com/r/ChatGPT/comments/11twe7z/prompt_to_summarize/jf3qdny/.

t3n Maga­zin. “Daten­leck bei Sam­sung: Inge­nieu­re schi­cken ver­trau­li­che Daten an ChatGPT,” April 8, 2023. https://t3n.de/news/samsung-semiconductor-daten-chatgpt-datenleck-1545913/.

“The Race to Buy the Human Brains Behind Deep Lear­ning Machi­nes — Bloom­berg.” Acces­sed Janu­ary 11, 2024. https://www.bloomberg.com/news/articles/2014–01-27/the-race-to-buy-the-human-brains-behind-deep-learning-machines.

the­bes [@voooooogel]. “So a Cou­ple Days Ago i Made a Shit­post about Tip­ping Chatgpt, and Someone Repli­ed ‘Huh Would This Actual­ly Help Per­for­mance’ so i Deci­ded to Test It and IT ACTUALLY WORKS WTF Https://T.Co/kqQUOn7wcS.” Tweet. Twit­ter, Decem­ber 1, 2023. https://twitter.com/voooooogel/status/1730726744314069190.

Töp­per, Vere­na. “(S+) Geld ver­die­nen mit ChatGPT: Prompt Wri­ter ver­die­nen bis zu 335.000 Dol­lar im Jahr.” Der Spie­gel, Decem­ber 6, 2023, sec. Job & Kar­rie­re. https://www.spiegel.de/karriere/chatgpt-prompt-writer-und-prompt-engineers-verdienen-bis-zu-335–000-dollar-im-jahr-a-a54a93a5-e20d-40e6-b235-28aec0bddaaa.

Vas­wa­ni, Ashish, Noam Shaze­er, Niki Par­mar, Jakob Usz­ko­reit, Lli­on Jones, Aidan N. Gomez, Łuka­sz Kai­ser, and Illia Polo­suk­hin. “Atten­ti­on Is All You Need.” In Pro­cee­dings of the 31st Inter­na­tio­nal Con­fe­rence on Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, 6000–6010. NIPS’17. Red Hook, NY, USA: Cur­ran Asso­cia­tes Inc., 2017.

Wei, Jason, Xuezhi Wang, Dale Schu­ur­mans, Maar­ten Bos­ma, bri­an ich­ter, Fei Xia, Ed Chi, Quoc V Le, and Den­ny Zhou. “Chain-of-Thought Promp­ting Eli­cits Reaso­ning in Lar­ge Lan­guage Models.” In Advan­ces in Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, edi­ted by S. Koy­e­jo, S. Moha­med, A. Agar­wal, D. Bel­gra­ve, K. Cho, and A. Oh, 35:24824–37. Cur­ran Asso­cia­tes, Inc., 2022. https://proceedings.neurips.cc/paper_files/paper/2022/file/9d5609613524ecf4f15af0f7b31abca4-Paper-Conference.pdf.

Yao, Shu­nyu, Dian Yu, Jef­frey Zhao, Izhak Shaf­ran, Tho­mas L. Grif­fiths, Yuan Cao, and Kart­hik R. Nara­sim­han. “Tree of Thoughts: Deli­be­ra­te Pro­blem Sol­ving with Lar­ge Lan­guage Models.” In Advan­ces in Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, 2023. https://openreview.net/forum?id=5Xc1ecxO1h.

Zhang, Han­lin, Ben­ja­min L. Edel­man, Dani­lo Fran­ca­ti, Danie­le Ven­tu­ri, Giu­sep­pe Ate­nie­se, and Boaz Barak. “Water­marks in the Sand: Impos­si­bi­li­ty of Strong Water­mar­king for Gene­ra­ti­ve Models,” 2023. https://doi.org/10.48550/ARXIV.2311.04378.

Zhang, Pei­yu­an, Guang­tao Zeng, Tian­duo Wang, and Wei Lu. “TinyLl­ama: An Open-Source Small Lan­guage Model,” 2024. https://doi.org/10.48550/ARXIV.2401.02385.

Zieg­ler, Dani­el M., Nisan Sti­en­non, Jef­frey Wu, Tom B. Brown, Alec Rad­ford, Dario Amo­dei, Paul Chris­tia­no, and Geoffrey Irving. “Fine-Tuning Lan­guage Models from Human Pre­fe­ren­ces,” 2019. https://doi.org/10.48550/ARXIV.1909.08593.


[1] Dan Ship­per [@danshipper], “What the Hell? When Did This Hap­pen?? Https://T.Co/KWXVXE9Dem,” Tweet, Twit­ter, Decem­ber 6, 2023, https://twitter.com/danshipper/status/1732258207840501946.

[2] Rob Lynch [@RobLynch99], “@ChatGPTapp @OpenAI @tszzl @emollick @voooooogel Wild Result. Gpt-4-Tur­bo over the API Pro­du­ces (Sta­tis­ti­cal­ly Signi­fi­cant) Shorter Com­ple­ti­ons When It ‘Thinks’ Its Decem­ber vs. When It Thinks Its May (as Deter­mi­ned by the Date in the Sys­tem Prompt). I Took the Same Exact Prompt… Https://T.Co/mA7sqZUA0r,” Tweet, Twit­ter, Decem­ber 11, 2023, https://twitter.com/RobLynch99/status/1734278713762549970.

[3] the­bes [@voooooogel], “So a Cou­ple Days Ago i Made a Shit­post about Tip­ping Chatgpt, and Someone Repli­ed ‘Huh Would This Actual­ly Help Per­for­mance’ so i Deci­ded to Test It and IT ACTUALLY WORKS WTF Https://T.Co/kqQUOn7wcS,” Tweet, Twit­ter, Decem­ber 1, 2023, https://twitter.com/voooooogel/status/1730726744314069190.

[4] Ope­nAI, “ChatGPT,” 2024, https://chat.openai.com.

[5] Vere­na Töp­per, “(S+) Geld ver­die­nen mit ChatGPT: Prompt Wri­ter ver­die­nen bis zu 335.000 Dol­lar im Jahr,” Der Spie­gel, Decem­ber 6, 2023, sec. Job & Kar­rie­re, https://www.spiegel.de/karriere/chatgpt-prompt-writer-und-prompt-engineers-verdienen-bis-zu-335–000-dollar-im-jahr-a-a54a93a5-e20d-40e6-b235-28aec0bddaaa.

[6] “Prompt­bree­der: Self-Refe­ren­ti­al Self-Impro­ve­ment via Prompt Evo­lu­ti­on,” 2023, https://openreview.net/forum?id=HKkiX32Zw1.

[7] Ashish Vas­wa­ni et al., “Atten­ti­on Is All You Need,” in Pro­cee­dings of the 31st Inter­na­tio­nal Con­fe­rence on Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, NIPS’17 (Red Hook, NY, USA: Cur­ran Asso­cia­tes Inc., 2017), 6000–6010.

[8] Alec Rad­ford and Kart­hik Nara­sim­han, “Impro­ving Lan­guage Under­stan­ding by Gene­ra­ti­ve Pre-Trai­ning,” 2018.

[9] Gabri­el Kal­weit, “On the Role of Time Hori­zons in Rein­force­ment Lear­ning,” 2022, https://doi.org/10.6094/UNIFR/232102; Gabri­el Kal­weit, Maria Kal­weit, and Josch­ka Boe­de­cker, “Robust and Data-Effi­ci­ent Q‑Learning by Com­po­si­te Value-Esti­ma­ti­on,” Tran­sac­tions on Machi­ne Lear­ning Rese­arch, 2022, https://openreview.net/forum?id=ak6Bds2DcI.

[10] Dani­el M. Zieg­ler et al., “Fine-Tuning Lan­guage Models from Human Pre­fe­ren­ces,” 2019, https://doi.org/10.48550/ARXIV.1909.08593.

[11] “Quick Gui­de to AI 2.0 Oct 2020,” acces­sed Janu­ary 11, 2024, http://ceros.mckinsey.com/quick-guide-to-ai-12.

[12] Hans Burk­hardt, “Ein Bei­trag Zur Künst­li­chen Intel­li­genz,” Ord­nung Der Wis­sen­schaft, no. 2 (2023): 71–78.

[13] “Gemi­ni — Goog­le Deep­Mind,” acces­sed Janu­ary 14, 2024, https://deepmind.google/technologies/gemini/.

[14] “Intro­du­cing Clau­de,” Anthro­pic, acces­sed Janu­ary 14, 2024, https://www.anthropic.com/index/introducing-claude.

[15] Mis­tral AI, “Mix­tral of Experts,” Decem­ber 11, 2023, https://mistral.ai/news/mixtral-of-experts/; Alys­sa Hug­hes, “Phi‑2: The Sur­pri­sing Power of Small Lan­guage Models,” Micro­soft Rese­arch (blog), Decem­ber 12, 2023, https://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/; “Llama 2,” Meta AI, acces­sed Janu­ary 14, 2024, https://ai.meta.com/llama-project.

[16] Cade Metz and Karen Wei­se, “Micro­soft to Invest $10 Bil­li­on in Ope­nAI, the Crea­tor of ChatGPT,” The New York Times, Janu­ary 23, 2023, sec. Busi­ness, https://www.nytimes.com/2023/01/23/business/microsoft-chatgpt-artificial-intelligence.html.

[17] “The Race to Buy the Human Brains Behind Deep Lear­ning Machi­nes — Bloom­berg,” acces­sed Janu­ary 11, 2024, https://www.bloomberg.com/news/articles/2014–01-27/the-race-to-buy-the-human-brains-behind-deep-learning-machines.

[18] Will Knight, “OpenAI’s CEO Says the Age of Giant AI Models Is Alre­a­dy Over,” Wired, acces­sed Janu­ary 11, 2024, https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/.

[19] Sahaj Godha­ni, “The Eco­no­mics of ChatGPT Ana­ly­zing Its $700,000 Dai­ly Cos­ts and the Poten­ti­al Impact on Its Maker.,” Medi­um, August 15, 2023, https://blog.gopenai.com/the-economics-of-chatgpt-analyzing-its-700–000-daily-costs-and-the-potential-impact-on-its-maker-7e690600ade7.

[20] Sébas­tien Bubeck et al., “Sparks of Arti­fi­ci­al Gene­ral Intel­li­gence: Ear­ly Expe­ri­ments with GPT‑4” (arXiv, April 13, 2023), http://arxiv.org/abs/2303.12712.

[21] Jason Wei et al., “Chain-of-Thought Promp­ting Eli­cits Reaso­ning in Lar­ge Lan­guage Models,” in Advan­ces in Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, ed. S. Koy­e­jo et al., vol. 35 (Cur­ran Asso­cia­tes, Inc., 2022), 24824–37, https://proceedings.neurips.cc/paper_files/paper/2022/file/9d5609613524ecf4f15af0f7b31abca4-Paper-Conference.pdf.

[22] Shu­nyu Yao et al., “Tree of Thoughts: Deli­be­ra­te Pro­blem Sol­ving with Lar­ge Lan­guage Models,” in Advan­ces in Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, 2023, https://openreview.net/forum?id=5Xc1ecxO1h.

[23] Mela­nie Sclar et al., “Quan­ti­fy­ing Lan­guage Models’ Sen­si­ti­vi­ty to Spu­rious Fea­tures in Prompt Design or: How I Lear­ned to Start Worry­ing about Prompt For­mat­ting,” 2023, https://doi.org/10.48550/ARXIV.2310.11324.

[24] SpiritualCopy4288, “I Got Them by Using …,” Red­dit Com­ment, R/ChatGPT, April 5, 2023, www.reddit.com/r/ChatGPT/comments/11twe7z/prompt_to_summarize/jf3qdny/.

[25] Gwern Bran­wen, “The Sca­ling Hypo­the­sis,” May 28, 2020, https://gwern.net/scaling-hypothesis; “OpenAI’s GPT‑3 Lan­guage Model: A Tech­ni­cal Over­view,” June 3, 2020, https://lambdalabs.com/blog/demystifying-gpt‑3.

[26] Sou­mith Chin­ta­la [@soumithchintala], “I Might Have Heard the Same 😃 — I Guess Info like This Is Pas­sed around but No One Wants to Say It out Loud. GPT‑4: 8 x 220B Experts Trai­ned with Dif­fe­rent Data/Task Dis­tri­bu­ti­ons and 16-Iter Infe­rence. Glad That Geohot Said It out Loud. Though, at This Point, GPT‑4 Is…,” Tweet, Twit­ter, June 20, 2023, https://twitter.com/soumithchintala/status/1671267150101721090.

[27] “Prei­se – Azu­re Machi­ne Lear­ning | Micro­soft Azu­re,” acces­sed Janu­ary 11, 2024, https://azure.microsoft.com/de-de/pricing/details/machine-learning/.

[28] ChatGPT [@ChatGPTapp], “We’ve Heard All Your Feed­back about GPT4 Get­ting Lazier! We Haven’t Updated the Model sin­ce Nov 11th, and This Cer­tain­ly Isn’t Inten­tio­nal. Model Beha­vi­or Can Be Unpre­dic­ta­ble, and We’re Loo­king into Fixing It 🫡,” Tweet, Twit­ter, Decem­ber 8, 2023, https://twitter.com/ChatGPTapp/status/1732979491071549792.

[29] Andriy Bur­kov [@burkov], “GPT‑4 Is Offi­ci­al­ly Annoy­ing. You Ask It to Gene­ra­te 100 Enti­ties. It Gene­ra­tes 10 and Says ‘I Gene­ra­ted Only 10. Now You Can Con­ti­nue by Yours­elf in the Same Way.’ You Chan­ge the Prompt by Adding ‘I Will Not Accept Fewer than 100 Enti­ties.’ It Gene­ra­tes 20 and Says: “I Stop­ped…,” Tweet, Twit­ter, Janu­ary 9, 2024, https://twitter.com/burkov/status/1744798679595155869.

[30] Logan.GPT [@OfficialLoganK], “@burkov We Are Working on Fixing This, Thanks for Flag­ging and Stay Tun­ed!,” Tweet, Twit­ter, Janu­ary 10, 2024, https://twitter.com/OfficialLoganK/status/1744911412973936997.

[31] it was me lewis the who­le time [@js_thrill], “Plea­se Keep Tap­ping This Sign as Much as Pos­si­ble Ever­yo­ne Https://T.Co/3DGaiM9QWa,” Tweet, Twit­ter, May 27, 2023, https://twitter.com/js_thrill/status/1662266752091160577.

[32] Adi­tya Kaul, “Issue #10: Harnes­sing the Crea­ti­ve ‘Hal­lu­ci­n­a­ti­ons’ of LLMs in the Enter­pri­se,” Sub­stack news­let­ter, The Unchar­ted Algo­rithm(blog), Decem­ber 14, 2023, https://theunchartedalgorithm.substack.com/p/issue-10-harnessing-the-creative.

[33] Joseph Bari­le et al., “Dia­gno­stic Accu­ra­cy of a Lar­ge Lan­guage Model in Pedia­tric Case Stu­dies,” JAMA Pedia­trics, Janu­ary 2, 2024, https://doi.org/10.1001/jamapediatrics.2023.5750.

[34] Tif­fa­ny H. Kung et al., “Per­for­mance of ChatGPT on USMLE: Poten­ti­al for AI-Assis­ted Medi­cal Edu­ca­ti­on Using Lar­ge Lan­guage Models,” PLOS Digi­tal Health 2, no. 2 (Febru­ary 9, 2023): e0000198, https://doi.org/10.1371/journal.pdig.0000198.

[35] Yann LeCun, “A Path Towards Auto­no­mous Machi­ne Intel­li­gence,” Open­Re­view, acces­sed Janu­ary 13, 2024, https://openreview.net/forum?id=BZ5a1r-kVsf.

[36] Patrick Lewis et al., “Retrie­val-Aug­men­ted Gene­ra­ti­on for Know­ledge-Inten­si­ve NLP Tasks,” in Pro­cee­dings of the 34th Inter­na­tio­nal Con­fe­rence on Neu­ral Infor­ma­ti­on Pro­ces­sing Sys­tems, NIPS’20 (Red Hook, NY, USA: Cur­ran Asso­cia­tes Inc., 2020), 9459–74.

[37] Sina Semna­ni et al., “Wiki­Chat: Stop­ping the Hal­lu­ci­n­a­ti­on of Lar­ge Lan­guage Model Chat­bots by Few-Shot Groun­ding on Wiki­pe­dia,” in Fin­dings of the Asso­cia­ti­on for Com­pu­ta­tio­nal Lin­gu­i­stics: EMNLP 2023 (Fin­dings of the Asso­cia­ti­on for Com­pu­ta­tio­nal Lin­gu­i­stics: EMNLP 2023, Sin­ga­po­re: Asso­cia­ti­on for Com­pu­ta­tio­nal Lin­gu­i­stics, 2023), 2387–2413, https://doi.org/10.18653/v1/2023.findings-emnlp.157.

[38] “Announ­cing Grok,” acces­sed Janu­ary 13, 2024, https://x.ai/.

[39] Igor Babusch­kin [@ibab_ml], “@JaxWinterbourne The Issue Here Is That the Web Is Full of ChatGPT Out­puts, so We Acci­den­tal­ly Picked up Some of Them When We Trai­ned Grok on a Lar­ge Amount of Web Data. This Was a Huge Sur­pri­se to Us When We First Noti­ced It. For What It’s Worth, the Issue Is Very Rare and Now That We’re Awa­re…,” Tweet, Twit­ter, Decem­ber 9, 2023, https://twitter.com/ibab_ml/status/1733558576982155274.

[40] Tam­bia­ma Madie­ga, “Gene­ra­ti­ve AI and Water­mar­king,” n.d., https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/757583/EPRS_BRI(2023)757583_EN.pdf.

[41] Han­lin Zhang et al., “Water­marks in the Sand: Impos­si­bi­li­ty of Strong Water­mar­king for Gene­ra­ti­ve Models,” 2023, https://doi.org/10.48550/ARXIV.2311.04378.

[42] “Daten­leck bei Sam­sung: Inge­nieu­re schi­cken ver­trau­li­che Daten an ChatGPT,” t3n Maga­zin, April 8, 2023, https://t3n.de/news/samsung-semiconductor-daten-chatgpt-datenleck-1545913/.

[43] Nicho­las Car­li­ni et al., “Extra­c­ting Trai­ning Data from Dif­fu­si­on Models,” in Pro­cee­dings of the 32nd USENIX Con­fe­rence on Secu­ri­ty Sym­po­si­um, SEC ’23 (USA: USENIX Asso­cia­ti­on, 2023), 5253–70.

[44] Bea­tri­ce Nolan, “Goog­le Rese­ar­chers Say They Got OpenAI’s ChatGPT to Reve­al Some of Its Trai­ning Data with Just One Word,” Busi­ness Insi­der, acces­sed Janu­ary 11, 2024, https://www.businessinsider.com/google-researchers-openai-chatgpt-to-reveal-its-training-data-study-2023–12.

[45] “Mid­jour­ney,” Mid­jour­ney, acces­sed Janu­ary 13, 2024, https://www.midjourney.com/home?callbackUrl=%2Fexplore.

[46] Gary Mar­cus and Reid Sou­then, “Gene­ra­ti­ve AI Has a Visu­al Pla­gia­rism Pro­blem — IEEE Spec­trum,” acces­sed Janu­ary 13, 2024, https://spectrum.ieee.org/midjourney-copyright.

[47] Win­s­ton Cho, “Artists Lose First Round of Copy­right Inf­rin­ge­ment Case Against AI Art Gene­ra­tors,” The Hol­ly­wood Repor­ter (blog), Octo­ber 30, 2023, https://www.hollywoodreporter.com/business/business-news/artists-copyright-infringement-case-ai-art-generators-1235632929/.

[48] Micha­el M. Gryn­baum and Ryan Mac, “The Times Sues Ope­nAI and Micro­soft Over A.I. Use of Copy­righ­ted Work,” The New York Times, Decem­ber 27, 2023, sec. Busi­ness, https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html.

[49] Moni­ka Muhr, “KI-Schöp­fun­gen Und Urhe­ber­recht,” Ord­nung Der Wis­sen­schaft, no. 1 (2023): 55–58.

[50] Loren­zo Thio­ne (he/him) 🏳️‍🌈 [@thione], “The One About Copy­right. Right befo­re the Holi­day, Anthro­pic Released a Very Signi­fi­cant Update to Their Com­mer­cial Terms of Ser­vice to “enable Our Cus­to­mers to Retain Owner­ship Rights over Any Out­puts They Gene­ra­te through Their Use of Our Ser­vices and Pro­tect Them From… Https://T.Co/wHXx61YdJy,” Tweet, Twit­ter, Janu­ary 11, 2024, https://twitter.com/thione/status/1745478787658100992; “Expan­ded Legal Pro­tec­tions and Impro­ve­ments to Our API,” Anthro­pic, acces­sed Janu­ary 14, 2024, https://www.anthropic.com/index/expanded-legal-protections-api-improvements.

[51] Joon Sung Park et al., “Gene­ra­ti­ve Agents: Inter­ac­ti­ve Simu­la­cra of Human Beha­vi­or,” in Pro­cee­dings of the 36th Annu­al ACM Sym­po­si­um on User Inter­face Soft­ware and Tech­no­lo­gy (UIST ’23: The 36th Annu­al ACM Sym­po­si­um on User Inter­face Soft­ware and Tech­no­lo­gy, San Fran­cis­co CA USA: ACM, 2023), 1–22, https://doi.org/10.1145/3586183.3606763.

[52] Kevin Roo­se, “Bing’s A.I. Chat: ‘I Want to Be Ali­ve. 😈,’” The New York Times, Febru­ary 16, 2023, sec. Tech­no­lo­gy, https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html.

[53] Anthro­pic CEO on Lea­ving Ope­nAI and Pre­dic­tions for Future of AI, 2023, https://www.youtube.com/watch?v=gAaCqj6j5sQ.

[54] Evan Hubin­ger et al., “Slee­per Agents: Trai­ning Decep­ti­ve LLMs That Per­sist Through Safe­ty Trai­ning” (arXiv, Janu­ary 10, 2024), http://arxiv.org/abs/2401.05566.

[55] Cade Metz, “‘The God­fa­ther of A.I.’ Lea­ves Goog­le and Warns of Dan­ger Ahead,” The New York Times, May 1, 2023, sec. Tech­no­lo­gy, https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html.

[56] Paul Kirch­hof, “Künst­li­che Intel­li­genz,” Ord­nung Der Wis­sen­schaft, no. 1 (2020): 1–8.

[57] Gabri­el Kal­weit et al., “Künst­li­che Intel­li­genz in Der Krebs­the­ra­pie,” Ord­nung Der Wis­sen­schaft, no. 1 (2023): 17–22.

[58] Klaus Herr­mann, “Beru­fungs­ver­fah­ren Für Pro­fes­su­ren Und Künst­li­che Intel­li­genz,” Ord­nung Der Wis­sen­schaft, no. 1 (2024): 25–44.

[59] Pei­yu­an Zhang et al., “TinyLl­ama: An Open-Source Small Lan­guage Model,” 2024, https://doi.org/10.48550/ARXIV.2401.02385; Albert Gu and Tri Dao, “Mam­ba: Line­ar-Time Sequence Mode­ling with Sel­ec­ti­ve Sta­te Spaces” (arXiv, Decem­ber 1, 2023), https://doi.org/10.48550/arXiv.2312.00752; “Haven­hq/M­am­ba-Chat · Hug­ging Face,” acces­sed Janu­ary 14, 2024, https://huggingface.co/havenhq/mamba-chat.

[60] “LLaMA and Other on iOS and MacOS,” acces­sed Janu­ary 13, 2024, https://llmfarm.site/; “MLC LLM | Home,” acces­sed Janu­ary 13, 2024, https://llm.mlc.ai/; “‎Off­line Chat: Pri­va­te AI,” App Store, Decem­ber 26, 2023, https://apps.apple.com/us/app/offline-chat-private-ai/id6474077941.

[61] “Ml-Explo­re/Mlx,” C++ (2023; repr., ml-explo­re, Janu­ary 11, 2024), https://github.com/ml-explore/mlx; Kei­van Ali­z­adeh et al., “LLM in a Flash: Effi­ci­ent Lar­ge Lan­guage Model Infe­rence with Limi­t­ed Memo­ry,” 2023, https://doi.org/10.48550/ARXIV.2312.11514.

[62] Open X.-Embodiment Col­la­bo­ra­ti­on et al., “Open X‑Embodiment: Robo­tic Lear­ning Data­sets and RT‑X Models” (arXiv, Decem­ber 17, 2023), https://doi.org/10.48550/arXiv.2310.08864; Dibya Ghosh et al., “Octo: An Open-Source Gene­ra­list Robot Poli­cy,” n.d.

[63] “Text to Speech & AI Voice Gene­ra­tor,” Ele­ven­Labs, acces­sed Janu­ary 13, 2024, https://elevenlabs.io.