Drei Jahre KI!

Zeit einen neuen Blick zu werfen. Hat sich was getan? Ja! Hat es!

Die erste Erkenntnis wird in der Nutzung oder Erprobung von KI-Tools offensichtlich: die Tools werden immer ausgereifter und decken mehr Funktionen ab. Wo vor einiger Zeit noch mehrere Tools im Einsatz waren (für Text Tool A, für Bilder Tool B, für Videos Tool C) sind die einzelnen nun immer mehr in der Lage alles abzudecken. Und wenn auch nur die Oberflächen vereinheitlicht wurden. So hat man in ChatGPT anfangs nur Text verarbeiten können und musste für Bilder zu Dall-E ausweichen, um mal bei OpenAI zu bleiben. Heute geht beides in einem Dialog.

Gleichzeitig verbessert sich die Qualität rapide. Wo früher in den generierten Bildern auch gerne mal Rechtschreibfehler oder Menschen mit drei Armen zu sehen waren, sind heute sehr realitätsnahe Ergebnisse möglich. Gleichzeitig finden die Tools immer mehr Integration in unsere alltäglichen Umgebungen. Microsoft-Windows, Google-Suche, Amazon-Marketplace, überall sind sie bereits integriert und versuchen uns zu helfen, teilweise unaufgefordert. Besonders in der Software-Entwicklung ist die Nutzung als Coding-Assistent ein viel diskutiertes Thema. Logisch, Menschen die in der IT arbeiten sind vermutlich die ersten die IT-Werkzeuge massiv ausprobieren.

Was bedeutet das?

Nun, zum einen erkennen wir das KI gekommen ist um zu bleiben. Das wird niemand mehr anzweifeln. Ob es ein Hype ist bleibt abzuwarten. Sicherlich werden einige Erwartungen nach wie vor überzogen sein, doch praktischer Nutzen ist nicht mehr abzustreiten. Und die Entwicklung der Tools verlief in den letzten Jahren so rasant das selbst die überzogenen Erwartungen teilweise eingeholt wurde. Ich denke die Einstellung zu KI konsolidiert sich gerade, wie man am Aktienmarkt so schön sagt.

So gibt es bereits seit Anfang 2025 Bestrebungen einen Wildwuchs und allzu forsche Ansätze zumindest einzudämmen. Neben diversen Gesetzesentwürfen und Diskussionen um Verbote gibt es den Vorstoß Firmen dazu zu verpflichten bei Anwendung von KI auch entsprechendes Personal mit Fachkenntnis im eigenen Hause zu haben. So soll zumindest sichergestellt werden das der Einsatz und die Auswirkungen auch eingeschätzt werden können.

Das solche Maßnahmen, ebenso wie Diskussionen um Verbote und Sperren, bitter nötig sind sieht man an den negativen Auswirkungen. Man betrachte nur die Diskussion um sogenannte Deepfakes auf allen Ebenen. Manipulierte oder komplett erfundene Bilder und Videos tauchen in allen Bereichen auf. Das reicht von Profilbildern die sich plötzlich in Pornos wiederfinden, über künstlich angereicherte Nachrichtenmeldungen bis hin zu erfundenen Bildern die von Regierungen veröffentlich werden. Es gibt kaum Grenzen wenn das Risiko gering ist erwischt zu werden. Dagegen sind mit ChatGPT erstellte Hausaufgaben oder Doktorarbeiten beinahe ein kleines Problem.

Aber?

Der Rahmen ist noch viel größer. Gehen wir einen Schritt zurück und betrachten nicht nur die Anwendung auf dem Schreibtisch. Wie bereits vor zwei Jahren beschrieben (siehe auch), ist das was wir KI nennen lediglich eine sehr fortschrittliche Musterkennungs- und Antwortmaschine. Es gibt Bereiche in denen das aber extrem gut ist. Übersetzungen zum Beispiel, oder Situationen zu erkennen und einzuschätzen wie beim autonomen Fahren. Systemüberwachungen, Auswertung von Video-Material, Erledigung von Standardaufgaben in industriellen Umgebungen. Viele Bereiche in denen KI eine sinnvolle Ergänzung ist, und bisherigen regelbasierten Systemen klar überlegen.

Doch zwei Probleme bleiben wohl noch eine Weile offen: die Frage der Verantwortung und die Frage der spontanen Kreativität.

Die Ukraine und der dort herrschende Drohnenkrieg sind ein gutes Beispiel. Ferngesteuerte Drohnen lassen sich abwehren indem man den Funk stört. Die Lösung war Glasfaser, doch die Kabel muss die Drohne hinter sich her ziehen. Angeblich sind ganze Landstriche bereits von Glasfaser überzogen wie Spinnennetze. Reichweite und Beweglichkeit werden dadurch nicht besser. Die Lösung scheinen autonome, KI-gesteuerte, Drohnen zu sein. Doch das bringt genau die beiden oben genannten Probleme mit sich.

Eine autonome Drohne kann ein Ziel erkennen und sich darauf zu bewegen. Sie kann den besten Weg ermitteln und Hindernisse umgehen, sie kann Bewegungsmuster vorhersehen, usw. Alles lediglich davon abhängig wie gut sie trainiert wurde. Aber darf sie auch selber entscheiden ob sie angreift? Die Frage der moralischen Entscheidung wird ein Problem werden. Im offenen Krieg, auf dem Schlachtfeld, kein Problem. Aber in urbanen Gebieten? Wenn Zivilisten in der Nähe sein können? Die zweite Krux ist die spontane Kreativität. Die Drohen kann nur tun und liefern was sie gelernt hat. Ein Mensch kann spontane Lektionen lernen und reagieren. Die feindlichen Soldaten springen in den Panzer um Deckung zu suchen, aber lassen die Luke offen? Der Mensch nutzt das, kann die KI das auch spontan erkennen?

Das Dilemma dabei ist folgendes: Natürlich können wir der KI immer mehr beibringen und sie damit zu einer immer besseren Waffe machen (um bei dem Beispiel zu bleiben). Doch je mehr sie lernt und je gefährlicher sie wird, desto mehr wird die Frage der Moral zum Problem. Wir haben gewissermaßen ein Pendel das zwischen Fähigkeiten der KI und Moral des Einsatzes hin- und herbewegt wird. Das wird uns sicherlich noch eine Weile beschäftigen, dieses Pendel.

Und die Kehrseite?

Betrachten wir die Entwicklung von KI und deren bestehende Auswirkungen. Zum einen braucht KI immer Daten um zu lernen: Trainingsdaten. Am Anfang war noch alles Spiel und Spaß, OpenAI hat einfach das Internet ausgewertet. Die ersten Vorwürfe kamen schnell, Urheberrecht usw. Doch später hat sich die KI selber das Wasser abgegraben. Webseiten die bisher als Diskussionsplattform dienten, auf denen Menschen Fragen stellen konnten und Antworten bekamen, verzeichnen massive Einbrüche. Die KI hat alles daraus gelernt und liefert Antworten. Die Folge ist das niemand mehr Fragen stellt, niemand mehr Antworten gibt, und somit keine neuen Daten entstehen. Die KI kann dann aber nichts mehr lernen.

Ein Lösungsansatz war von KI-Systemen Daten generieren zu lassen, die dann anderen Systemen als Input dienen. Doch das zieht zwangsweise eine Degeneration der Daten und somit der späteren KI-Modelle nach sich. Erkennbar ist hier aber das die KI bereits massive Auswirkungen auf die bestehenden Landschaften hat. Seit Jahrzehnten etablierte Webseiten überlegen sich wie sie ihr Geschäftsmodell neu aufstellen, weil ihre Besucherzahlen um 80-90 Prozent (!) eingebrochen sind. Das nennt sich disruptive Entwicklung. Nun könnte die KI einfach die Eingaben und Feedbacks ihrer Nutzer live erfassen und später auswerten, um daraus zu lernen, aber das wollen auch nicht alle. Wer will schon seine tollen Ideen und Fragen in der Datenbank wissen? Ganz zu schweigen von den Antworten die einen vielleicht auf eine neue Geschäftsidee bringen.

Gibt es auch Lösungen?

Wir wollen ja nicht nur Probleme aufzeigen. Natürlich gibt es auch Lösungen. Wir können Sprachmodelle mit gesicherten Daten trainieren und inhouse einsetzen um eine zuverlässige KI für einen speziellen Einsatzzweck zu haben, die dann auch vertraulich ist. Gar keine Frage. Um diese Zuverlässigkeit zu erreichen muss der Zweck aber begrenzt sein. Das ist der Kompromiss.

Die Frage nach dem Urheberrecht und der Erkennbarkeit von KI-Lösungen ist ebenfalls längst geklärt. Bereits bei digitalen Materialien wie Bilder und Videos war die Antwort auf die Nachverfolgbarkeit das Wasserzeichen. Man hat in den vieldimensionalen Daten eines Mediums einfach Informationen versteckt die für das Auge nicht sichtbar waren, digital aber nachweisbar (ein paar Bits hier und ein paar Bits da, …). Wenn nun jemand das Werk kopiert hat konnte der Urheber nachweisen das es seins ist, weil er wusste welche Bits er suchen muss.

Gleiches wird bei KI-Modellen ebenfalls bereits angewandt. Auch im Text können durch bewusst platzierte Sonderzeichen gezielt Spuren hinterlassen werden. Manches Unicode-Zeichen sieht aus wie ein normaler Buchstabe, oder ein Leerzeichen, oder wird gar nicht angezeigt. Wer also wirklich vorhat seine Doktorarbeit mit einer KI erstellen zu lassen sollte vorsichtig sein, oder zumindest danach keine politische Karriere anstreben. Der Schleudersitz stünde dann schon bereit.

Trotzdem werden wir um die Frage nach einer Balance zwischen Fähigkeiten und Moral nicht herum kommen. Je besser die KI in den letzten Jahren wurde, desto mehr konnte man damit tun. Je mehr man damit tun konnte, desto mehr wurde getan. Je mehr getan wurde, desto mehr sind die Fragen nach der Kontrolle aufgekommen. Eine natürliche Entwicklung der wir uns stellen müssen.

Bis dahin würde ich folgendes empfehlen: keine KI unbeaufsichtigt Ergebnisse produzieren lassen. Das Sahnehäubchen wäre: sich mit der Technik auseinandersetzen, verstehen was man da benutzt. Aber das Sahnehäubchen ist vermutlich nicht für alle etwas.

Betrachten wir die KI doch mal so: ein bemühtes aber nicht sehr zuverlässiges Assistenzsystem, das versucht uns überall möglichst gut zu helfen, dessen Ergebnisse wir aber nicht ungeprüft an die Kunden schicken sollten. Sozusagen wie ein Praktikant am ersten Tag. Voller Motivation, aber mit praktisch keinerlei Erfahrung was am Ende wirklich gut oder richtig für uns ist.

Ich denke mit diesem Blickwinkel kann KI ein nützliches Werkzeug sein. Glück ist Realität minus Erwartungshaltung. Ob wir glücklich werden mit unseren digitalen Assistenten liegt also an uns. Wir dürfen nur unsere Erwartungen nicht zu hoch schrauben.

heise.de: FAQ: AI Act verlangt KI-Kompetenz – was auf Firmen und Behörden jetzt zukommt

europa.eu: AI Literacy – Questions & Answers

handelsblatt.com: Wandel der Gefechtsführung: KI und Drohnen im Ukraine-Krieg

heise.de: KI mit Schuldgefühlen kooperativer machen?

heise.de: Kommentar: StackOverflow darf den Kampf gegen die KI nicht verlieren

heise.de: BND-Dilemma: Geheimdienst kann keine KI-Übersetzer nutzen

youtube.com: Was OpenAI GPT mit 11BX1371, Cicada 3301 & Co. zu tun hat // deutsch

youtube.com: KI bei Star Trek: Damals Science-Fiction, heute Realität

heise.de: Künstliche Neuronale Netze im Überblick 1: Das künstliche Neuron

heise.de: Strukturierte Daten für LLMs mit Wissensgraphen