Was ist ein Token?
Ein Token ist die kleinste Einheit, die ein Sprachmodell verarbeitet. Bevor die KI deinen Text lesen kann, wird er in Token zerlegt — das sind keine ganzen Wörter, sondern Wortteile (sogenannte Subwords).
Faustregel: 1 Token ≈ 0,75 deutsche Wörter. Das Wort "Bauunternehmen" wird z.B. in mehrere Token aufgeteilt: "Bau", "unter", "nehmen". Kurze englische Wörter wie "the" sind oft ein einzelner Token.
Wie funktionieren Tokens?
Tokens spielen an drei Stellen eine zentrale Rolle:
- Input-Tokens: Deine Frage, der Kontext, alle Dokumente, die du mitschickst — alles wird in Tokens gezählt
- Output-Tokens: Die Antwort der KI verbraucht ebenfalls Tokens
- Kontextfenster: Jedes Modell hat ein Maximum an Tokens, die es gleichzeitig verarbeiten kann (z.B. 200'000 Tokens bei Claude Sonnet)
Warum das die Kosten bestimmt:
KI-Anbieter rechnen pro Token ab. Beispiel:
- Ein einfacher Prompt mit 500 Input-Tokens und 200 Output-Tokens kostet wenige Rappen
- Ein Agent, der jede Aktion mit dem gesamten Gesprächsverlauf und allen Workspace-Dateien an die API schickt, kann schnell Tausende von Tokens pro Anfrage verbrauchen — und das bei jedem einzelnen Schritt
Genau deshalb können KI-Agenten, die im Hintergrund laufen, erstaunlich hohe Kosten verursachen. Jede Aktion schickt den kompletten bisherigen Kontext mit.
Warum ist das wichtig für KMU?
Token-Verständnis hilft dir, KI-Kosten zu kontrollieren:
- Modellwahl: Günstigere Modelle für einfache Aufgaben, leistungsstarke für komplexe — der Preisunterschied ist oft Faktor 10
- Kontext-Hygiene: Nur relevante Informationen mitschicken, nicht alles auf einmal
- Kostentransparenz: Vor dem Einsatz kalkulieren, was ein Workflow pro Durchlauf kostet
- Limits kennen: Wenn dein Dokument das Kontextfenster sprengt, bekommt die KI nicht alles mit
Wer Tokens versteht, kann KI gezielt und kosteneffizient einsetzen — statt am Ende des Monats von der Rechnung überrascht zu werden.