Fachbegriffe rund um die Künstliche Intelligenz

Beim Thema Künstliche Intelligenz tauchen eine Menge Fachbegriffe auf. Hier kannst du nachschlagen und dich informieren.

Was sind „Token“?


Ein Token ist eine kleine Texteinheit, die ChatGPT zur Verarbeitung von Eingaben und Ausgaben verwendet. Ein Token kann ein einzelner Buchstabe, ein Wortbestandteil oder ein kurzes Wort sein – je nachdem, wie der Text intern zerlegt wird.

Beispiel: Der Satz „Das ist ein Test.“ besteht aus etwa 5 bis 6 Token, je nach Sprache und Modell.

Der Anbieter von ChatGPT, OpenAI, hat einen Tokenrechner. Dort gibst du deinen Text ein und kannst sehen, wie viele Token er umfasst.

Beispiel Token

ChatGPT berechnet Antworten auf Basis von Token – nicht auf Basis ganzer Wörter oder Sätze. Die Anzahl der Token beeinflusst daher:

Gibt es eine Token-Grenze?

Ja. Je nach Sprachmodell sind die Grenzen unterschiedlich. Diese Zahl umfasst sowohl:


Wenn du also sehr viel Text eingibst, bleibt weniger Platz für die Antwort.

Was passiert, wenn die Grenze überschritten wird?

Wenn eine Anfrage zu lang ist, muss sie:


Das kann dazu führen, dass der Chatbot wichtige Informationen „vergisst“ oder die Antwort nicht mehr vollständig ist.

Warum gibt es diese Begrenzung?

Die Token-Grenze dient der Steuerung von Rechenzeit und Effizienz. Je mehr Token verarbeitet werden müssen, desto mehr Rechenleistung wird benötigt – und das wirkt sich direkt auf die Geschwindigkeit und Kosten aus.

« Zurück zum Inhaltsverzeichnis