Das Interview zum Thema KI und Finanzen wurde auch in der Zeitschrift Mein Geld abgedruckt.
Weitere Meinungen zu ChatGPT und anderen KI Modellen
vor allem kann eine KI auf ihrer Suche nach Fakten nicht…
Hier das komplette, öffentlich zugängliche, Transkript des Videos:
Ein riesengroßes Thema, eigentlich prädestiniert für diesen Kanal. Im November 2022 erscheint OpenAIs ChatGPT, eine Applikation, die nun wirklich keiner Vorstellung mehr bedarf. Und ich weiß, ich bin wahnsinnig spät dran. Das ist jetzt über 7 Monate her. Und lange war ich der Ansicht: Ich werde da wahrscheinlich nie etwas zu machen. Als es rauskam und die gesellschaftlichen Implikationen langsam deutlich wurden, habe ich schnell gemerkt: Das ist so komplex, dass ich es mir einfach nicht zutraue, darüber zu sprechen und oder zu urteilen, bis ich es wirklich durchdrungen habe. Hab ich es jetzt durchdrungen? Mit Sicherheit nicht, aber das hat so gut wie niemand da draußen und auf Kosten von uns allen hat es einige trotzdem nicht davon abgehalten, auf Bühnen zu gehen oder eloquente LinkedIn-Posts zu verfassen, in denen sie vermeintliches Wissen vorgegeben und ihr Publikum zu Annahmen verleitet haben, die so einfach nicht stimmen. ChatGPT ist die am schnellsten wachsende Applikation aller Zeiten.
Der Markt mit „KI”
Für eine Millionen Nutzer hat ChatGPT ganze fünf Tage gebraucht. Bei Instagram waren es noch zweieinhalb Monate. Es ist nach allen Regeln der Kunst ein Hype, erstmal völlig egal ob gerechtfertigt oder nicht und selbst renommierte Tech-Journalisten schreiben schnell von ChatGPTs Menschlichkeit und Gefühlen. Bald geht es nicht mehr darum wie Schulen und Universitäten mit diesem Tool in Zukunft umgehen sollen, sondern auch, besonders im Internet, wie man diese Textgenerierungsmaschine dafür nutzen kann, um um jeden Preis möglichst viel Geld damit zu verdienen. KI-generierte Motivationsvideos oder automatisierte Reddit-Post-Vertonungsprogramme, die zusammen wahrscheinlich mittlerweile die Hälfte aller YouTube Shorts ausmachen. Und in den folgenden Monaten wird klar, „KI”, speziell „Generative KI” wie ChatGPT, Stable Diffusion oder Midjourney lösen „Metaverse”, „Web3” und „Blockchain” als nahezu bedeutungslose Marketingschlagwörter ab. Natürlich ist Künstliche Intelligenz ein echtes, komplexes und wahnsinnig faszinierendes Forschungsfeld, doch wird auf den Bühnen der Welt der Begriff „KI” für mehr genutzt, als nur diese Tech-Branche zu beschreiben. Und so sind über Monate echte und nur vermeintliche Experten zu diesem Thema aus dem Boden geschossen, angebliche Superservices, die angetrieben von ChatGPT mindestens Alles können sollten zirkulierten fast täglich durch die Nachrichten. ChatGPT nimmt unter dem Namen „Bing Chat” einen recht prominenten Platz in der Microsoft-Suchmaschine ein und wird als eine Art neumodische Form von „Let Me Google That For You” demonstriert und soll in Zukunft auch stark mit Windows selbst verwoben werden. Firmen wie Meta kündigen eigene Projekte in der Hinsicht an, Google veröffentlicht seinen Konkurrenten „Bard” und Elon Musk will auch irgendwie mitmachen, natürlich mal wieder für die Meinungsfreiheit. Und langsam aber sicher vertiefen sich die Falten auf meiner Stirn. Während ich bemüht bin, mit allen Neuerungen und Hintergründen dieser Technologien Schritt zu halten, muss ich mich immer wieder Fragen, ob diese angepriesenen Anwendungsfälle aus den Mündern von Tech-Konzernen und selbsternannten KI-Experten überhaupt für das was sie tun sollen geeignet sind.
Wie funktioniert das alles?
Dafür müssen wir kurz etablieren, wie Technologien wie ChatGPT überhaupt funktionieren. Das „GPT” in ChatGPT steht für „Generative Pre-Trained Transformer” also ein (in diesem Fall) textgenerierender, vortrainierter Umwandler. ChatGPT basiert auf einem Large Language Model, einem LLM, das ChatGPT überhaupt erst die Möglichkeit gibt, sinnvolle Antworten zu liefern. Das LLM „GPT 3”, auf der die im November 2022 veröffentlichte Version von ChatGPT basierte, ist im Kern ein künstliches neuronales Netzwerk; ein dem Gehirn nachempfundenes System, in dem künstliche Synapsen, sogenannte „Units” auf verschiedenen Ebenen Zahlenwerte durchschleifen und am Ende einen einzigen Endwert berechnen und wieder ausspucken. Künstliche neuronale Netzwerke arbeiten mit Zahlen, ChatGPT soll aber natürlich in vollständigen Sätzen antworten. Also wird jedem Wort in jeder unterstützten Sprache ein individueller Zahlenwert zugewiesen, so dass GPT in der Lage ist, seine Eingabewerte, also unsere Frage oder Aufforderung im Chat, in Zahlenwerte umzukodieren, dann damit zu rechnen und am Ende einen Zahlenwert wieder auszugeben, der dann wiederum in Sprache umgewandelt wird. Dieser Output-Wert wird dann jedoch nur in ein einziges Wort umgewandelt und der ganze mathematische Durchlauf beginnt von vorn, um das nächste Wort zu ermitteln. Das sieht man im Interface von ChatGPT sogar, dort erscheint die Antwort Wort für Wort und nicht alles auf einmal. Einfach ausgedrückt handelt es sich also um eine Berechnung von Wahrscheinlichkeiten, die bestimmt, welches Wort das nächste sein sollte. Woher weiß GPT das? Dafür steht das „Pre-Trained” im Namen. Dieses Sprachmodell ist so gut darin, kohärente, grammatikalisch einwandfreie Sätze zu bilden, weil es über Monate mit über 570 GB an reinen Textdateien trainiert wurde. Diese Trainingsdaten bestehen aus Paaren von echten Anfragen und deren Antworten, die man beispielsweise von Reddit-Forenposts oder ähnlichem genommen hat. Eine Antwort, wie sie in den Trainingsdaten auf die jeweilige Anfrage gegeben wurde, hätte man gerne auch von ChatGPT, also gibt man dem Netzwerk diese Anfrage als Input-Wert, ohne dem Netzwerk aber zu sagen, wie die als korrekt eingestufte Antwort aussieht und lässt es selbst eine Antwort berechnen. Gerade zu Anfang der Trainingszeit unterscheiden sich die Ausgabewerte des Netzwerks und die Antworten aus den Trainingsdaten noch dramatisch. Doch das Netzwerk lernt nach dem Vergleich mit dem „richtigen” Ergebnis, indem es seine Gewichtswerte anpasst; das sind Faktoren, die die Größe des Teilergebnisses für die nächste Unit bestimmen. Diesen Prozess nennt man „Backpropagation”. Dieses Training hat man auf mehreren Supercomputern über Monate mit diesem halben Terabyte an Trainingsdaten durchgeführt, was einer Gesamtlaufzeit von etwa 300 Jahren entsprach. Was rauskam, war ein Modell, das sehr zuverlässig auf Fragen kohärente Antworten in tadelloser Sprache liefern konnte. Das Problem ist nur, dass dieses Vorgehen eben „nur” Mathematik auf Basis von Sprache ist. Wenn ich ChatGPT beispielsweise frage, was der YouTube-Kanal „Ultralativ” ist, dann „denkt” ChatGPT nicht im klassischen Sinne über diesen Kanal nach, es weiß nicht einmal, was YouTube ist. Die kostenlose Version von ChatGPT kann nicht einmal im Internet nach Informationen suchen, es hat nur durch intensives Training ein Cluster an Wörtern erstellt, die kontextuell in der Nähe von der Zeichenfolge „YouTube” stehen sollten. Begriffe wie „Liken”, „Abonnenten” oder „Kommentar”. Und dann sagt es mir, dass der Urheber dieses Kanals Fynn Kliemann ist, weil „Kliemann” im Kontext von „YouTube” eben näher an „Fynn” ist, als die richtige Antwort. Und selbst wenn das Tool in der Lage dazu ist, Internetquellen zu recherchieren, wie Bing Chat, dann kann es trotzdem nicht zwischen einem lautstarken Idioten und einer vertrauenswürdigen Quelle unterscheiden. Hier liegt das Problem. Diese Technologie ist schlichtweg nicht dafür geeignet, wahre Antworten zu liefern. Klar, ChatGPT ist wahnsinnig gut in sehr systemischen Aufgaben, wie dem Schreiben und Verstehen von Code, zwar nicht immer, aber sehr, sehr häufig. Es kann medizinische und juristische Abschlussprüfungen bestehen, weil es dieses systemische Wissen antrainiert bekommen hat, aber ein Verständnis im klassischen Sinne hat es von all diesen Themen nicht; es weiß selbst nicht, was es sagt.
Das Problem von ChatGPT
Untrennbar verknüpft mit dem Thema „Künstliche Intelligenz” ist die Frage nach einem eventuellen Bewusstsein. Im Juni 2022, etwa fünf Monate vor der Veröffentlichung von ChatGPT tritt der Google-Techniker Blake Lemoine an die Presse und sagt, dass LaMDA, das Sprachmodell auf dem Googles „Bard” basiert, ein Bewusstsein entwickelt hätte. Und auch renommierte Journalisten bekommen in der Auseinandersetzung mit diesen Sprachmodellen das Gefühl, dass sie es mit einer echten Intelligenz, einem Gehirn, das ihrem eigenen sehr sehr ähnlich ist, zu tun haben. Der Turing-Test wird bestanden. Aber, diese vermeintliche Menschlichkeit ist nur unsere Wahrnehmung. In dem mittlerweile sehr oft zitierten Paper „On The Dangers Of Stochastic Parrots” von 2021 wird nochmal unterstrichen, dass der Mensch sehr stark auf Sprache fixiert ist. Wenn wir einen Satz sehen, der grammatikalisch Sinn ergibt, glauben wir, dass ein Gehirn wie unseres dahinter stehen muss. Eines, das nicht nur in seinem synaptischen Aufbau unserem eigenen nachempfunden ist, sondern auch, wenn wir gerade nichts eingeben, munter vor sich hindenkt. Dazu kommt, dass es in solchen künstlichen neuronalen Netzwerken immer auch eine sogenannte „Temperature” gibt. Einen systematisch eingespeisten Zufälligkeitsfaktor, der dafür sorgt, dass auf dieselbe Frage nie exakt dieselbe Antwort folgt und alles die uns so vertraute menschliche Dynamik erhält.
Die Lüge hinter künstlicher „Intelligenz”
ChatGPT ist unglaublich beeindruckend und für einige Fälle auch wirklich wahnsinnig hilfreich. Gerade für solche, in denen die Informationen mit denen gearbeitet werden soll, Teil der Anfrage sind. „Fasse mir diesen Text zusammen”, „Kannst du mir diesen Absatz auf Englisch übersetzen?” oder „Wie kann ich das hier formeller ausdrücken?”, all das funktioniert sehr, sehr gut und ist eine teilweise noch immer unvorstellbare technische Errungenschaft. Es zeigt sich auch, dass sich Google und Microsoft, mit einigen Ausnahmen, auch eher auf solche Anwendungsfälle begrenzen. Cool, man kann jetzt E-Mails zusammenfassen lassen, damit man nicht so viel lesen muss und kann via KI die Länge seiner Antwort ausweiten, damit das gegenüber sie wieder via KI zusammenfassen lassen kann… okay. Oder als Browser-Kopiloten, der die aktuelle Seite auslesen kann, um darauf basierend zu antworten. Das kann hilfreich sein. Wofür ChatGPT und andere Services dieser Art aber nicht geeignet sind, sind Investment-Tips wie sie JPMorgan gerade anstrebt, als Enzyklopädie, als Entscheidungsträger, als Kreativer oder als irgendeine Form von außerweltlichem Orakel, für das es manche halten. Sprachmodelle wie die von ChatGPT aber auch Text-to-Image-KIs sind nicht kreativ, sie haben einen festen Datensatz und können nur Vorhandenes imitieren, aber keinen neuen Stil erschaffen, weswegen sie manchmal auch nicht „generative AI”, sondern “imitative AI” genannt werden. Und nicht zuletzt ist KI, gerade generative KI ein wachsendes Feld für humanitäre Ausbeutung und der Generierung von unglaublich viel intellektuellem Müll. Die Trainingsdaten sind nicht einfach so dem Internet entnommen und dann ins neuronale Netzwerk gespeist worden. Sie werden vorher von unterbezahlten Menschen für unter zwei Dollar die Stunde gefiltert und müssen dabei zu großen Teilen verstörende und traumatisierende Inhalte im Dauerzustand erleiden. Und rechtlich ist der Ursprung von den Trainingsdaten auch eine ziemlich heikle Angelegenheit. Apple hat beispielsweise in der Vergangenheit die Stimmen ihrer Hörbuchsprecher genutzt, um damit eine Text-to-Speech-KI zu trainieren, die den Sprechern künftig die Arbeit abnehmen könnte, ohne sie dafür zu kompensieren. Spammer, Scammer und Leute, die einfach das Internet mit generierten Inhalten zumüllen wollen, haben es mit diesen Tools auch wesentlich einfacher… und ich habe ehrlich gesagt keine Vorstellung davon, wie groß dieses Problem in Zukunft noch werden wird.
Fazit
ChatGPT hat viele Stimmen in den vergangenen Monaten laut werden lassen. Welche, die Fragen stellen, die wir dringend beantworten müssen, aber auch Stimmen, auf die man wirklich nicht hören muss. In der Selfmade-Business-Blase ist „KI” mittlerweile ein Dauerpräfix. Spotify kündigt auf der Welle von ChatGPT und anderer generativer KI an, einen „KI-DJ” zu veröffentlichen; eine Technologie, die es ohne die Bezeichnung als „Künstliche Intelligenz” schon seit über einem Jahrzehnt gibt. Und viele Startups, selbsternannte Businessgurus und Co. klatschen seit über einem halben Jahr auf alles, das irgendwo einen Stromanschluss hat, „KI” drauf, in der Hoffnung Fördergelder von mindestens genauso ahnungslosen Regierungs- und Stiftungsverantwortlichen zu erhalten. Es ist irgendwie lustig. ChatGPT könnte man als einen eloquenten Mund, ohne aber tatsächliches Wissen dahinter bezeichnen, und einige, die so enthusiastisch und lautstark über diese Technologie sprechen… auch. … und das ist furchtbar schade.
Quelle: youtube @Ultralativ