
Wie "denkt" Künstliche Intelligenz?
Leon Kaiser
Wed Apr 16 2025

Inhaltsverzeichnis
Stell dir vor, du gibst einem Kind ein paar Millionen Bücher und einen Taschenrechner – und erwartest, dass es dir schlaue Antworten gibt. Kein echtes Verständnis, keine Ahnung von der Welt. Nur Texte. Und Mathematik.
Was absurd klingt, ist im Grunde das Prinzip hinter modernen Sprachmodellen wie ChatGPT. Sie analysieren riesige Mengen an Sprache, erkennen Muster, berechnen Wahrscheinlichkeiten – und liefern Antworten, die oft erstaunlich menschlich wirken.
Doch wie funktioniert das genau? Wie verarbeitet ein Sprachmodell wie ChatGPT unsere Fragen – und wie verlässlich sind seine Antworten wirklich?
Wer verstehen will, wie KI wirklich „denkt“, muss tiefer einsteigen. Genau das machen wir jetzt.
Vom Text zum Token: Wie KI „liest“
Bevor ein KI-Modell überhaupt antworten kann, muss es erst einmal den Input verstehen – zumindest auf seine Weise. Das beginnt mit einem Prozess namens Tokenisierung. Dabei wird der eingegebene Text in viele kleine Einheiten zerlegt – sogenannte Tokens. Ein Token kann ein ganzes Wort sein, ein Teil davon oder sogar nur ein einzelner Buchstabe.
So funktionieren Tokens – einfach erklärt mit Zahlenbeispielen
Zur Veranschaulichung und dem besseren Verständnis nutzen wir in diesem Beispiel einfache Zahlen wie 1, 2, 3 usw.
In einem realen Sprachmodell werden Tokens intern durch komplexe, oft mehrstellige sogenannte Token-IDs repräsentiert – das Grundprinzip bleibt jedoch gleich: Jeder Token wird durch eine eindeutige Zahl codiert.
In Bild 1 siehst du, wie ChatGPT-4o einen Beispielsatz in einzelne Tokens aufteilt.
Bild 2 zeigt anschliessend, wie diese Tokens intern als numerische Token-IDs dargestellt werden – also so, wie das Modell sie tatsächlich verarbeitet.


Beispielhafte Darstellung von Token und Token IDs; Quelle: https://platform.openai.com/tokenizer
Im folgenden Abschnitt habe ich de ganzen Prozess nochmals anschaulicher erklärt.
Beispiel 1: Ausgangssatz
"Ich liebe Pizza."
Die KI zerlegt den Satz in folgende Tokens:
Token | Token-ID (vereinfacht) |
---|---|
Ich | 1 |
liebe | 2 |
Pizza | 3 |
. | 4 |
Diese Token-IDs werden dann als Zahlen in einen sogenannten Vektorraum überführt. Dort „merkt“ sich die KI, wie diese Wörter statistisch zueinander stehen. Sie versteht dabei nicht, dass Pizza ein Essen ist – sie erkennt nur, dass „Pizza“ oft mit „liebe“ vorkommt.
Je nach Modell und Sprache kann die Zerlegung allerdings etwas unterschiedlich ausfallen. Manche Modelle zerlegen z. B. "liebe" in "li" und "ebe", besonders bei seltenen Wörtern oder Fremdwörtern.
Beispiel 2: Folgefrage
"Was ist deine Lieblingspizza?"
Auch dieser Satz wird in Tokens zerlegt:
Token | Token-ID (vereinfacht) |
---|---|
Was | 5 |
ist | 6 |
deine | 7 |
Lieblings | 8 |
pizza | 3 |
? | 9 |
Wichtig: Der Token "Pizza" kommt hier erneut vor – und hat wieder die ID 3. Das zeigt: Die KI erkennt, dass hier ein Bezug zu vorher genanntem Kontext besteht.
Wie die KI daraus eine Antwort ableitet
Da das Modell schon vorher „Ich liebe Pizza.“ gesehen hat, weiss es: Das Thema ist Pizza.
Wenn du nun fragst „Was ist deine Lieblingspizza?“, erkennt die KI den Bezug (über die wiederholte Token-ID 3) – und kann z. B. so antworten:
„Welche denn?“ oder „Ich mag Margherita.“
Sie macht das nicht, weil sie Pizza mag – sondern weil diese Formulierungen statistisch gut auf deine Tokens passen.
Die KI berechnet also: Was wäre jetzt eine statistisch passende Antwort auf diese Abfolge von Tokens?
Das Ergebnis wirkt oft überraschend „menschlich“ – ist aber letztlich reine Mathematik.
Von Zahlen zu Bedeutung – wie aus Token-IDs Vektoren werden
Im ersten Schritt haben wir gesehen, dass ein Sprachmodell jeden Begriff in einer Zahl abbildet – z. B. „Pizza“ = 3. Aber was passiert dann?
Diese Zahl alleine sagt der KI noch nichts über die Bedeutung des Wortes. Damit die KI damit arbeiten kann, wird jede Token-ID in einen sogenannten Vektor umgewandelt – also eine Zahlenliste, die das Wort in einem mehrdimensionalen Raum beschreibt.
Wie aus Zahlen Bedeutung wird – der zweite Blick hinter die Kulissen
Im ersten Schritt hast du gesehen: KI zerlegt Sätze in kleine Teile (Tokens) und vergibt einfache Zahlen dafür, zum Beispiel:
"Pizza" = 3
Aber was macht die KI mit dieser Zahl? Schliesslich sagt „3“ ja noch nichts über Pizza aus. Ist das ein Gericht? Ein Ort? Eine Sportart?
Damit die KI weiss, was mit einem Wort ungefähr gemeint ist, macht sie aus der Zahl eine Zahlenliste, die das Wort beschreibt – ein sogenannter Vektor. Das klingt kompliziert, ist aber im Grunde wie ein digitaler Steckbrief. Man kann sich das wie Wörter als Punkte auf einer Landkarte vorstellen.
Stell dir vor, jedes Wort ist ein Punkt auf einer riesigen Landkarte.
- Wörter, die ähnlich sind, liegen nah beieinander
- Wörter, die ganz verschieden sind, liegen weit auseinander
So liegt „Pizza“ auf der Karte vielleicht direkt neben „Pasta“, „Salat“ oder „Burger“ – aber weit entfernt von „Autobahn“ oder „Steckdose“.
Das hilft der KI zu erkennen:
Wenn jemand „Pizza“ erwähnt, geht es wahrscheinlich um Essen – und nicht um Technik oder Verkehr.
Warum ist das wichtig?
So kann die KI auch mit neuen Wörtern umgehen.
Beispiel: Du schreibst „Zucchinipizza“. Vielleicht kennt die KI dieses Wort nicht – aber sie erkennt:
- „Zucchini“ = ein Gemüse
- „Pizza“ = ein bekanntes Essen
- → Also wird es wohl ein Gericht sein
Die KI kann also schlaue Vermutungen anstellen, ohne jedes Wort vorher gelernt zu haben.
Deshalb wirken ihre Antworten oft so sinnvoll – selbst wenn das Wort völlig neu ist
Ohne Vektoren wäre KI einfach nur ein Zahlenpapagei. Mit Vektoren wird sie zu einem mächtigen Sprachwerkzeug.
Vom Verarbeiten zum Antworten: Wie KI Texte generiert
Nachdem das Sprachmodell erkannt hat, welche Tokens in welchem Zusammenhang zueinander stehen, beginnt der eigentliche generative Prozess: die Antwortbildung.
Dabei kommt ein ausgeklügeltes System zum Einsatz – die sogenannte Transformer-Architektur. Sie erlaubt es dem Modell, nicht nur den unmittelbaren Zusammenhang von Wörtern zu erkennen, sondern auch Bezüge über mehrere Sätze hinweg zu berechnen. Das Modell entscheidet dabei nicht logisch oder inhaltlich – sondern rein statistisch:
Was ist das wahrscheinlichste nächste Wort – basierend auf allen bisherigen Tokens?
Auf diese Weise entsteht die Antwort: Wort für Wort, Token für Token – nicht weil das Modell „weiss“, was richtig ist, sondern weil es statistisch plausibel erscheint.
Das Ergebnis wirkt oft erstaunlich menschlich. Viele Antworten sind gut strukturiert, sprachlich präzise und inhaltlich hilfreich. Aber es gibt klare Grenzen.
Warum plausible Antworten nicht gleich wahre Antworten sind
Ein Sprachmodell wie ChatGPT hat keine eigene Meinung, kein Bewusstsein und keinen Bezug zur Realität. Es weiss nichts – es simuliert nur, was auf ähnliche Eingaben am häufigsten folgt. Und genau das kann problematisch sein:
Es entstehen Halluzinationen: Die KI denkt sich dann Dinge aus – etwa eine Quelle, die es nicht gibt, oder eine vermeintliche Tatsache, die schlicht falsch ist. Auch können Informationen veraltet sein, wenn das Modell nicht mit aktuellen Daten oder dem Internet verbunden ist. Halluzinationen sind besonders häufig bei komplexen, politisch sensiblen oder suggestiv formulierten Fragen – also genau dort, wo präzise Einordnung am wichtigsten wäre.
Auch die Trainingsdaten spielen eine entscheidende Rolle:
Wenn ein Thema verzerrt oder einseitig in den Trainingsdaten dargestellt ist, spiegelt sich das häufig in der Antwort wider.
Wie man mit KI besser arbeitet
Die gute Nachricht: Du hast es selbst in der Hand, wie gut die Antworten einer KI ausfallen. Denn je klarer und strukturierter deine Eingabe – also dein Prompt – formuliert ist, desto wahrscheinlicher liefert das Modell brauchbare, hilfreiche und präzise Antworten.
Viele Fehler im Umgang mit KI entstehen nicht durch das Modell selbst, sondern durch unklare oder zu allgemeine Anweisungen. Wer einfach nur fragt:
„Was ist Marketing?“
bekommt eine generische Antwort.
Wer dagegen schreibt:
„Erkläre mir in drei kurzen Absätzen, was Marketing im Mittelstand bedeutet – inklusive konkretem Beispiel aus der Praxis“
gibt dem Modell Struktur, Kontext und Zielrichtung – und bekommt deutlich nützlichere Ergebnisse.
Auch Rückfragen sind ein starkes Werkzeug. Du kannst das Modell auffordern, Belege zu liefern („Bitte nenne mir eine Quelle“), eine Aussage zu hinterfragen („Wie sicher bist du dir dabei?“) oder Inhalte zu überarbeiten („Kannst du es einfacher formulieren?“). So entsteht ein echter Dialog – und nicht nur eine einmalige Antwort.
Besonders hilfreich ist es, komplexe Aufgaben in Teilschritte zu zerlegen. Statt einer langen, offenen Frage kann es sinnvoll sein, eine klare Abfolge vorzugeben:
Gliedere ein Thema in drei Hauptpunkte
Bewerte jeden Punkt mit Vor- und Nachteilen
Fasse das Ergebnis in einem abschliessenden Absatz zusammen
Diese Methode nennt man Prompt Engineering – also die gezielte Kunst, mit klaren Anweisungen bessere KI-Antworten zu erzeugen. Sie ist nicht nur für Profis relevant, sondern für alle, die mit KI arbeiten wollen – im Alltag, im Beruf oder beim kreativen Schreiben.
Je mehr du über das „Denken“ der KI weisst, desto besser kannst du sie einsetzen. Denn die Qualität des Outputs hängt direkt mit der Qualität des Inputs zusammen.
Oder einfacher gesagt: Wer gute Fragen stellt, bekommt gute Antworten.
Fazit: Zwischen Zahlensalat und Sprachmagie
Was auf den ersten Blick wie pure Magie wirkt – eloquente Antworten, scheinbares Verständnis, verblüffende Kontexttreue – entpuppt sich beim zweiten Hinsehen als mathematisch präzises Mustererkennen. Sprachmodelle wie ChatGPT sind keine allwissenden Orakel, sondern statistische Vorhersagemaschinen, die Worte nicht verstehen, sondern wahrscheinlich passende Tokens aneinanderreihen.
Und genau deshalb ist unser Umgang mit ihnen so entscheidend.
Wer KI effektiv nutzen will, muss verstehen, wie sie denkt – oder besser: rechnet. Denn in jeder beeindruckenden Antwort stecken: Token, Wahrscheinlichkeiten, Vektorräume. Keine Wahrheit, kein Bewusstsein – aber eine riesige Datenbasis und ein unglaubliches Sprachgefühl.
Was heisst das konkret?
Wer besser promptet, bekommt bessere Ergebnisse.
Wer nachfragt, bekommt reflektiertere Antworten.
Und wer strukturiert denkt, bekommt strukturiert gedachte Texte zurück.
Gerade weil Sprachmodelle so überzeugend formulieren, ist es unsere Verantwortung, Inhalte einzuordnen, kritisch zu hinterfragen und bewusst zu gestalten. Denn nur so entsteht echter Mehrwert – im Business, in der Bildung, in der öffentlichen Debatte.
Oder anders gesagt:
Die Zukunft gehört nicht denen, die KI blind vertrauen.
Sondern denen, die wissen, wie man sie richtig fragt.
