ChatGPT – Wer oder was bist Du?

Als im Herbst 2022 die US-Firma OpenAI seinen Chatbot ChatGPT (Generative Pre-trained Transformer) vorgestellt hat, hat das die Welt erschüttert. Zumindest aber für viel Aufregung in den Medien und sozialen Netzwerken gesorgt. Der Chatbot setzt Künstliche Intelligenz ein, um mit Nutzern über textbasierte Nachrichten (oder Bilder) zu kommunizieren.

Künstliche Intelligenz ist eigentlich nichts Neues, der Begriff wurde in den 1950er-Jahren geprägt und beschreibt ein Teilgebiet der Informatik, deren Ziel es ist, Maschinen intelligent zu machen.

Ich habe selbst bereits in grauer Vorzeit erste Gehversuche von Programmen zu Verarbeitung natürliche Sprache miterlebt. An der Universität Bielefeld hatten sich seinerzeit (in der zweiten Hälfe der 80er-Jahre) Linguisten und Mathematiker/Informatiker zusammengetan, um einen eigenen „intelligenten“ Chatbot (den Begriff gab’s damals, glaube ich, allerdings noch nicht) zu programmieren. Angelehnt war unsere Eigenentwicklung in der Programmiersprache LISP an das Programm „ELIZA“ (hier lasse ich die Wikipedia zu Wort kommen: „ELIZA ist ein 1966 von Joseph Weizenbaum entwickeltes Computerprogramm, das die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache aufzeigen sollte. Den Namen ELIZA wählte Weizenbaum in Anlehnung an das Schauspiel Pygmalion von George Bernard Shaw. Das Programm kann über Skripte verschiedene Gesprächspartner simulieren. Bekannt geworden ist es für die oberflächliche Simulation eines Psychotherapeuten, der die non-direktiven Methoden der klientenzentrierten Psychotherapie nach Carl Rogers verwendet.“) (https://de.wikipedia.org/wiki/ELIZA)

Unser Baby hieß ELIZAchen, brachte der bunt zusammengewürfelten Studierendentruppe viel bei und führte auch den einen oder anderen Probanden gekonnt aufs Glatteis. Auch nach einem längeren Dialog über Tastatur mutmaßte so manche Testperson, nicht mit einem Programm, sondern mit einem Menschen zu chatten. Dabei war ELIZAchen weit von echter KI entfernt und konnte von den Fähigkeiten eines ChatGPT nur träumen (wenn sie dafür nicht zu dumm gewesen wäre).

Aber was hat ChatGPT – die erste Fassung des zugrunde liegenden „Large Language Modells“ (LLM) GPT-1 stammt bereits aus dem Jahre 2018 – schlagartig so populär gemacht? OpenAI hat am 30. November 2022 die Software GPT-3 kostenlos für alle Menschen zugänglich gemacht. Innerhalb von fünf Tagen haben mehr als eine Million Leute auf der ganzen Welt diese Version genutzt. Künstliche Intelligenz zum Anfassen und selbst erfahren.

Im Juni 2020 wurde das LLM zu GPT-3 weiterentwickelt. Als erstes Modell war es in der Lage, eine Vielzahl an Aufgaben zu bewältigen: von der Erstellung von E-Mails und anderen Dokumenten, über Übersetzungen bis hin zur Generierung von Programmiercode. Es war erstmals in der Lage, frei formulierte Fragen von Nutzern umfassend zu beantworten. Und sogar Gedichte und Anekdoten ersann GPT-3, wenn die Anforderung entsprechend formuliert war – der sogenannte Prompt.

An der Stelle lasse ich die KI selbst zu Wort kommen, hier verkörpert durch den „Copilot“ von Microsofts Office 365. Die Redmonder haben bereits im Januar 2023 mehrere Milliarden Dollar in die Hand genommen und eine Kooperation mit OpenAI vereinbart. Jetzt baut der Windows-Konzern Schritt für Schritt KI-Funktionen in seine Produkte ein, die auf ChatGPT basieren.

Künstliche Intelligenz (KI) ist die Fähigkeit von Maschinen, Aufgaben zu erledigen, die normalerweise menschliches Denken erfordern. Ein Beispiel für KI ist ein Sprachassistent, der auf Deine Fragen antworten oder Befehle ausführen kann. Um das zu tun, muss er Sprache erkennen, verstehen und generieren. Das sind alles KI-Funktionen, die auf Algorithmen basieren. Algorithmen sind Regeln oder Anweisungen, wie eine Maschine ein Problem lösen soll. Einige Algorithmen sind fest programmiert, andere können sich selbst verbessern, indem sie Daten sammeln und auswerten. Dies nennt man maschinelles Lernen. Je mehr Daten eine KI hat, desto genauer kann sie Vorhersagen treffen oder Empfehlungen geben.

Für das maschinelle Lernen nutzt ChatGPT ein neuronales Netzwerk. Das erklärt die KI so:

„Ein neuronales Netzwerk ist ein Modell, das die Informationsverarbeitung im Gehirn nachahmt. Es besteht aus einer Reihe von künstlichen Neuronen, die miteinander verbunden sind und Signale übertragen. Jedes Neuron empfängt Eingaben von anderen Neuronen oder externen Quellen und berechnet eine Ausgabe basierend auf einer Aktivierungsfunktion. Die Ausgabe eines Neurons kann als Eingabe für andere Neuronen dienen oder das Ergebnis des Netzwerks darstellen. Ein neuronales Netzwerk lernt, indem es die Gewichte der Verbindungen zwischen den Neuronen anpasst, um den Fehler zwischen der tatsächlichen und der erwarteten Ausgabe zu minimieren.“

Dahinter steckt keine Magie, sondern Wissenschaft. Die Mathematik bereitet mir allerdings Kopfschmerzen. Ich werde nicht versuchen, sie hier zu erklären, schon deshalb, weil ich sie in der Tiefe gar nicht verstanden habe.

Und man benötigt unzählige Daten, mit denen das Netzwerk trainiert wird. Im Fall von GPT-3 waren es 175 Milliarden Parameter. Inzwischen (November 2023, also nur ein Jahr nach dem Tag Null) ist bereits GPT-4 im Einsatz und GPT-5 bei OpenAI „in Arbeit“. Das Training setzt natürlich auch eine Menge Rechenleistung voraus. Das hat dafür gesorgt, dass sich Klimaschützer bereits Sorgen machen, dass die KI den Stromverbrauch weltweit in die Höhe treibt.

Übrigens gibt es, abseits von GPT-4, eine Reihe von kleineren LLMs, die als Open Source verfügbar sind. Einige sind bereits vortrainiert, wenn auch mit sehr viel kleineren Datenmengen. Dadurch kann man sie auf einem potenten PC zu Hause testen. Leistungsfähige Grafikkarten mit viel schnellen Arbeitsspeicher sorgen dafür, dass das auch Spaß macht. Als passionierter Spieler ist man klar im Vorteil: ein Hardware-Bolide, der Cyberpunk 2077 mit aktivierten Raytracing stemmt, packt auch KI-Anwendungen.

Schließlich kann man auch selbst ein Mini-KI-System aufsetzen. Python ist hier die Programmiersprache meiner Wahl, Bibliotheken wie TensorFlow oder Keras machen es möglich, sich damit auseinanderzusetzen, ohne die Mathematik dahinter gänzlich durchdrungen zu haben.

Das alles aber sind Ausprägungen „schwacher KI“.

Mit der Abgrenzung von „schwacher“ zu „starker“ KI beschäftigt sich auch die Technische Hochschule Würzburg-Schweinfurt (thws). Eine schwache KI (auch als methodische KI bezeichnet) besitzt keine Kreativität und auch nicht die Fähigkeiten, selbstständig im allgemeinen Sinne zu lernen. Ihre Lernfähigkeiten sind zumeist auf das Trainieren von Erkennungsmustern oder das Abgleichen und Durchsuchen von großen Datenmengen reduziert. Mit ihr können klar definierte Aufgaben mit einer festgelegten Methodik bewältigt werden, um komplexere, aber wiederkehrende und genau spezifizierte Probleme zu lösen. Die besonderen Vorzüge der schwachen KI liegen in der Automatisierung und im Controlling von Prozessen, aber auch der Spracherkennung und -verarbeitung. Die zuvor diskutierte Text- und Bilderkennung, Spracherkennung, das Übersetzung von Texten sowie Navigationssysteme sind Beispiele für schwache KI.  Auch digitale Assistenzsysteme wie Alexa, Siri und Google Assistent gehören zur Kategorie der schwachen KI.

Im Gegensatz dazu hat eine starke KI die Zielsetzung, dass natürliche und künstliche Intelligenzträger (wie Menschen und Roboter) beim Arbeiten im selben Handlungsfeld ein gemeinsames Verständnis und Vertrauen aufbauen können. Eine starke KI kann selbstständig Aufgabenstellung erkennen und definieren und sich hierfür selbständig Wissen der entsprechenden Anwendungsdomäne erarbeiten und aufbauen. Sie untersucht und analysiert Probleme, um zu einer adäquaten Lösung zu finden – die auch neu bzw. kreativ sein kann. Die Realisierung einer starken KI ist noch nicht in greifbarer Nähe.

Hier der Link zur thws-Originalquelle.

Auch wenn sich Wissenschaftler, unter anderem Forschende der thws, sich mit Erforschung, Entwicklung und Anwendung einer starken künstlichen Intelligenz auseinandersetzen, wir es noch eine Weile dauern, bis eine KI im Stil von Skynet (die KI aus den Terminator-Filmen) die Menschheit (beinahe) auslöscht oder im Stil eines gütigen Vaters / einer Mutter alle unsere Probleme löst und die Menschheit in ein goldenes Zeitalter führt.

Trotzdem sollten wir – die mit natürlicher Intelligenz ausgestatteten Menschen – uns schon jetzt (besser: endlich) Gedanken machen, wie wir die Einführung und den Einsatz künstlicher Intelligenz in (fest) allen Lebensbereichen mit Regeln und Gesetzen begleiten und das nicht den gewinnorientierten US-Konzernen überlassen. Entsprechende Initiativen der EU begrüße ich ausdrücklich und hoffe, dass wir außerdem eine verbindliche Charter der Vereinten Nationen zusammenbringen, auf denen diese Regulierungsbemühungen fußen. Da sich aber die KI rasend schnell entwickelt und die sich Mühlen der Politik dramatisch viel langsamer drehen, müssen wir wohl in Kauf nehmen, dass erst einmal nationale Gesetze das Wild-West-Gebaren der Konzerne einhegen. Ich hoffe nur, dass Politiker, vielfach selbst verängstigt oder aufgeregt und ohne tiefe Sachkenntnis die Entwicklung in Deutschland blockieren, während sich die Welt weiter dreht.

Als Journalist erlebe ich es gerade, wie die KI im Begriff ist, diesen wunderbaren Beruf umzukrempeln. Und ich erlebe die Ängste vieler Kollegen, dass die Software sie in naher Zukunft erwerbslos macht.

Meine These lautet:

KI wird nicht Journalisten ersetzen, aber Journalisten, die KI nutzen, werden solche ersetzen, die das nicht tun.

Ich vermute stark, dass ich das Zitat geklaut habe, finde aber keine Quelle mehr. Auf jeden Fall stimmt’s.

Im Übrigen schafft KI auch Jobs, etwa den des Prompt-Engineers, und sie steigert unsere Produktivität vielleicht so weit, dass Firmen oder sogar ganze Branchen, die sonst im globalen Wettbewerb scheitern würden, ihre Dienstleistungen, Produkte und auch Arbeitsplätze in die nächste Epoche nach der digitalen Revolution retten können.

Denen, die jüngsten Veränderungen Angst einjagen, sei eine Zitat zugerufen, das bereit mehr als 1500 Jahre alt ist:

Nichts ist so beständig wie der Wandel.

Heraklit von Ephesus 540-480 n. Chr.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen