Ein Jahr KI?

Oder die Frage, ist es überhaupt KI?

Ziemlich genau vor einem Jahr hat die Firma OpenAI mit der Öffnung von ChatGPT einen wahren Hype um das Thema KI eingeläutet. So richtig viel neues ist eigentlich gar nicht passiert, die Technik war bereits lange bekannt. Allerdings hat ChatGPT das Thema einer breiten Öffentlichkeit zugänglich gemacht, und die Medien haben es genossen.

Wie das mit einem Hype so ist, bleibt meist nicht so viel davon übrig wie anfangs erhofft oder befürchtet. Tatsächlich habe wir heute kein Skynet das uns nach dem Aufenthaltsort von John Connor fragt. Wir haben aber auch keinen universellen Helfer der uns alle Arbeit abnimmt oder alles automatisiert. Was haben wir also?

Was ist ChatGPT?

ChatGPT ist im Grunde ein Frontend (Chat) zu einem Modell (GPT) in dem viele Daten gespeichert sind. Man muss sich das so vorstellen: um künstliche Intelligenz zu entwickeln haben Informatiker sich das beste Beispiel genommen das sie finden konnten, das Gehirn. Das besteht aus Neuronen und Verbindungen die im Laufe eines Lebens immer wieder angepasst werden, damit lernt der ganze Apparat (soweit wir wissen, die Forschung hierzu ist auch noch nicht abgeschlossen).

Man hat also sogenannte Neuronale Netze programmiert. Das ist nicht neu, das habe ich schon im Studium gemacht, und das ist echt lange her. Diese Netze müssen dann mit möglichst vielen Daten trainiert werden, also die Verbindungen ausbilden die man haben will. Das ist dann wie mit Kindern, anfangs kommt Blödsinn bei raus, das Netz bekommt Feedback das es Blödsinn ist und versucht was neues. Versuch und Irrtum. Wenn man lange genug trainiert hat, kommen irgendwann gute Antworten raus.

Allerdings stossen wir hier an erste Grenzen. Das Netz entwickelt keine eigene Möglichkeit Feedback zu erkennen. Kinder lernen irgendwann an der Reaktion ihrer Umwelt zu erkennen was gut ist und was schlecht ist. Sie lernen sogar zu erkennen wenn ihnen jemand Blödsinn beibringen will. Ein neuronales Netz erkennt das nicht. Das bedeutet es lernt immer weiter auch wenn die Ergebnisse in die falsche Richtung gehen. Missbrauch ist einfach.

Deswegen verwendet man einen Schalter. Das Netz wird in einen Lernmodus geschaltet und bekommt in kontrollierter Umgebung Feedback. Dann wird der Lernmodus abgeschaltet, und man kann das Netz wie eine ganz normale Software benutzen. Von da an lernt es nicht mehr, es liefert nur noch die Antworten die es gelernt hat.

ChatGPT ist vereinfacht also genau das: ein sehr grosses neuronales Netz, mit einer sehr grossen Menge Daten, das eine gewisse Zeit unter kontrollierten Bedingungen genau diese Daten gelernt hat. Dabei haben die Trainer ihm beigebracht zu erraten was Menschen als Antwort bekommen wollen. Nun hat das Netz eine grosse Menge Texte zur Verfügung und kann auf eingehende Fragen passende Antworten liefern. Dabei lernt es nicht mehr, es spult nur ab was es gelernt hat. Wir geben eine Frage ein, und ChatGPT liefert die Antwort die es gelernt hat darauf zu liefern. Also mitnichten eine künstliche Intelligenz, eher eine ausgereifte Mustererkennung mit Antwortgenerator.

Warum ist das so besonders?

Was wir bisher in einfachen Worten beschrieben haben, hat im Detail ein paar Ergänzungen bekommen. GPT liefert keine ganzen Sätze auf ganze Fragen. Für die Lernphase wurde unsere Sprache in sogenannte Token zerlegt. Also Worte und sonstige Bestandteile unserer Sprache. GPT hat also nicht nur gelernt welche Antwort zu welcher Frage passt, sondern welches Wort (Token) zu welchem vorhergehenden Wort (Token) passt. Das erlaubt es dem System viel dynamischer zu antworten. Es müssen keine vollständig passenden Fragen mehr eingegeben werden, sondern das System zerlegt die Frage in Token und hat gelernt welche anderen Token dazu passen und wie die aneinandergereiht werden müssen für eine Antwort.

Dazu kommt ein weiterer wichtiger Faktor. Der Zufall. ChatGPT sollte bewusst der Kommunikation mit Menschen dienen. Menschen geben aber nie zwei mal die gleiche Antwort, auch nicht auf die gleiche Frage. Wir wiederholen uns nicht gern, und formulieren deswegen beim zweiten Mal um (weil wir implizit denken das die zweite Frage einen Grund hat und somit mit anderer Form das Verständnis erneut versuchen, aber das ist ein anderes Thema). Daher hat man ChatGPT ein Element des Zufalls eingebaut. Das führt dazu das man eigentlich nie zwei mal das gleiche Ergebnis bekommen sollte, auch wenn es viele als sportliche Herausforderung sehen genau das zu erreichen.

Im Ergebnis bedeutet das aber eins: die Unterhaltung mit ChatGPT wirkt echt. Sie wirkt sogar menschlich. Man hat das Gefühl mit einer Intelligenz zu schreiben. Noch dazu mit einer die so viele Daten gelernt hat das sie fast alles zu wissen scheint. Und genau dieses Gefühl wurde mit ChatGPT für eine breite Öffentlichkeit erlebbar gemacht. Womit das Thema KI in ein öffentliches Bewusstsein gerückt ist wie nie zuvor.

Ist das schlecht?

Wenn man ChatGPT als das sieht was es ist, nein. Es ist eine Testphase, ein System das menschliche Interaktion erforschen und verbessern soll. Es hatte nie den Anspruch korrekte oder aktuelle Daten zu liefern. Wenn man das System für die Arbeit nutzen will, muss man das bedenken.

Genau dort liegt auch die Gefahr. Die Daten die gelernt wurden sind nicht aktuell. Es fliessen auch keine aktuellen Daten in Echtzeit ein. ChatGPT kann also keine aktuellen Antworten liefern.

Hinzu kommt der strukturelle Ansatz: das System liefert Antwort-Token die gut zu den Frage-Token passen. Es findet keine inhaltliche Analyse der Frage statt, sondern eine Zerlegung in Token. Wenn ich also nach den Öffnungszeiten eines Restaurants frage, versteht das System das ich Öffnungszeiten sehen möchte die mit Restaurants zu tun haben. Es wird mir entsprechende Daten zusammenstellen die nach einer guten Antwort aussehen. Ob diese Daten aber von dem Restaurant stammen nach dem ich gefragt habe, weiss ChatGPT nicht. Es versteht den Zusammenhang von Sprach-Token, aber nicht den Zusammenhang von Uhrzeiten verschiedener Restaurants.

Wir bekommen in unseren Antworten also etwas das nach einer sinnvollen Kombination von Token zu unserer Frage aussieht, aus Daten die nicht aktuell sind, versehen mit einer kleinen Prise Zufall. Das ist ChatGPT. Eine Interaktionsmaschine die sehr gut darin ist uns das Gefühl zu geben ein sehr wissendes und hilfsbereites Gegenüber zu haben.

Und nun?

Sehen wir auf die Vorteile. Zum einen sehen wir an ChatGPT was mittlerweile möglich ist. Früher hat man noch versucht Software zu schreiben die den Turing-Test besteht (ein Mensch soll blind erraten ob er mit einem Menschen oder einer Maschine chattet). Heute ist dieser Test praktisch obsolet. Statt dessen versuchen wir Wege zu finden um zu erkennen wann ein Text von einem Menschen geschrieben wurde. Die Maschine ist also so gut das wir neue Wege finden müssen echte menschliche Texte zu erkennen. Das nenne ich Fortschritt.

Davon abgesehen kann ChatGPT und verwandte Systeme bereits eine echte Hilfe sein. Bei der Zusammenfassung von Texten leisten sie tolle Arbeit. Natürlich keine verlässliche, aber um einen Überblick zu bekommen reicht es. Ebenso bei dem Entwurf von Texten. Auch hier muss der Mensch kontrollieren, aber den Entwurf kann das System schreiben. Somit kann der Mensch sich auf den wesentlichen Inhalt konzentrieren, während die Maschine die lästigen Phrasen abnimmt.

Dann wären da noch die verwandten Systeme. Es gibt Verwandte von ChatGPT die Bilder interpretieren können oder selbst Bilder anhand von Text erzeugen. Auch hier ist die Verlässlichkeit noch nicht auf dem Level das wir uns wünschen, aber was ist mit blinden Menschen? Ich habe ein Beispiel gesehen in dem ein blinder Mensch diese Tools als den grössten Segen seiner Zeit bezeichnete. Weil sie ihm die Möglichkeit bieten nicht nur Bilder erklärt zu bekommen, sonder selber die Bilder die er sich ausdenkt darstellen zu lassen, eingegeben als Text.

Und nicht zu vergessen die Möglichkeiten. Der Einsatz in Suchmaschinen oder als Assistenz mit Spracheingabe beim Verfassen von Briefen liegt auf der Hand. Die Unternehmensbeteiligungen von Google, Meta, Microsoft und Apple sprechen Bände. Die Möglichkeiten die mittlerweile aufgezeigt wurde lassen sich auf andere Bereiche übertragen, Mustererkennung im Strassenverkehr um nur ein Beispiel zu nennen.

Natürlich müssen wir auch die Nachteile sehen. Gefälschte Texte und Bilder. Juristen die falsche, durch ChatGPT erzeugte, Präzedenzfälle vortragen. Die Frage ob in Zukunft überhaupt noch jemand selber schreibt oder Hausaufgaben macht. Die Frage ob schriftliche Abschlussarbeiten unter diesen Bedingungen noch Sinn machen. Alles legitime Fragen die in dem vergangenen Jahr aufgeworfen und teilweise auch schon juristisch beantwortet wurde (Anwälte müssen ihre Präzedenzfälle übrigens selber prüfen, dem Gericht ist es egal wer den Text geschrieben hat, trägt ein Anwalt einen erfundenen Präzedenzfall vor bekommt er Ärger).

Ich persönlich bin ja nach wie vor ein Fan des selbst geschriebenen Textes, auch gerne gewürzt mit dem eigenen Stil. Selbst wenn der Stil dazu führt das nicht jedes Komma sitzt und nicht jede Satzlänge der Norm entspricht, so finde ich das gerade die kleinen Abweichungen von irgendwelchen Normen, die kleinen thematischen Abschweifer und die persönlichen Anekdoten den Charme der Sache ausmachen. Und das werden die KI’s dieser Welt nicht so schnell nachmachen.

So oder so, wir werden von diesen kleinen Helfern noch einiges hören, und sie werden weiter entwickelt werden. Die Anwendungsmöglichkeiten liegen auf dem Tisch, und sie werden erforscht werden. Und dann wäre da natürlich noch die Frage der militärischen Anwendung von KI, jenseits von Texten und Bildern. Doch das ist ein Thema für einen anderen Artikel, denn da ist noch mal eine ganze Menge zu bedenken.

https://www.heise.de/news/Interaktives-Sprachmodell-nach-GPT-3-ChatGPT-steht-allen-Interessierten-offen-7364694.html

https://de.wikipedia.org/wiki/ChatGPT

https://de.wikipedia.org/wiki/Turing-Test