Reasoning Model
Definition
Eine seit 2024/2025 etablierte Klasse von Sprachmodellen, die vor der eigentlichen Antwort eine längere interne Denkkette ("Chain of Thought") erzeugen — sichtbar oder verborgen — und bei mathematischen, planerischen und mehrstufigen Aufgaben deutlich bessere Ergebnisse liefern als klassische LLMs. Vertreter im Jahr 2026 sind unter anderem die OpenAI o-Reihe, Claude mit Extended Thinking und die DeepSeek-R1-Linie.
Noise — Signal
Reasoning-Modelle werden als "AI, die endlich versteht, was sie tut" beworben. Was sie tatsächlich tun, ist strukturierte Token-Sequenzen vor der Antwort zu erzeugen. Das hebt die Qualität bei bestimmten Aufgaben spürbar, treibt aber Inference-Kosten und Latenz um den Faktor fünf bis zwanzig. Für die Mehrheit produktiver Anwendungen — Klassifikation, Extraktion, Zusammenfassung, Routing — sind Reasoning-Modelle die teurere und langsamere Wahl ohne nennenswerten Qualitätsgewinn. Sie sind ein Werkzeug, kein Standard.
Die richtige Frage
Nicht: "Sollten wir auf Reasoning-Modelle umstellen?" Sondern: "Welcher Anteil unseres Anwendungsmix erfordert tatsächlich mehrstufiges Schließen, welcher wird mit einem schnellen, kostengünstigen Modell besser bedient, und wie steuern wir das Routing zwischen beiden?"