Claude knackt 1-Million-Token-Grenze: Anthropic bringt riesigen Kontext ohne Aufpreis
Der Wettlauf um die leistungsfähigsten KI-Modelle geht in die nächste Runde. Anthropic hat am 13. März 2026 angekündigt, dass Claude Opus 4.6 und Claude Sonnet 4.6 ab sofort ein Kontextfenster von bis zu 1 Million Tokens unterstützen – und zwar ohne zusätzlichen Preisaufschlag für lange Eingaben.
Damit können die Modelle enorme Datenmengen gleichzeitig analysieren. Entwickler können komplette Codebasen, umfangreiche Verträge oder große Forschungsdatensätze in einer einzigen Anfrage verarbeiten.
Warum ein großes Kontextfenster wichtig ist
Das Kontextfenster bestimmt, wie viele Informationen eine KI gleichzeitig berücksichtigen kann. Je größer es ist, desto weniger müssen Inhalte vorher zusammengefasst werden.
Mit einem Kontext von 1 Million Tokens lassen sich beispielsweise:
- ganze Software-Repositories analysieren
- hunderttausende Zeilen Log-Dateien auswerten
- umfangreiche Vertragsarchive prüfen
- Hunderte wissenschaftliche Paper vergleichen
Anthropic erhöht außerdem die Medienlimits deutlich: Bis zu 600 Bilder oder PDF-Seiten können gleichzeitig in eine Anfrage integriert werden.
Keine Long-Context-Kosten mehr
Ein entscheidender Punkt für Entwickler: Die Nutzung des großen Kontextfensters verursacht keinen Aufpreis mehr. Das war bislang bei vielen KI-Anbietern ein zusätzlicher Kostenfaktor.
| Modell | Preis Input | Preis Output |
|---|---|---|
| Claude Opus 4.6 | $5 pro Mio Tokens | $25 pro Mio Tokens |
| Claude Sonnet 4.6 | $3 pro Mio Tokens | $15 pro Mio Tokens |
Requests über 200.000 Tokens funktionieren automatisch, ohne spezielle Beta-Header oder Konfiguration.
Benchmark-Ergebnisse
Anthropic veröffentlicht auch erste Leistungswerte für die Modelle im Long-Context-Einsatz.
- Claude Opus 4.6: 78,3 % im MRCR v2 Benchmark
- Claude Sonnet 4.6: 68,4 % im GraphWalks BFS Test bei 1M Tokens
Die Tests sollen zeigen, dass die Modelle auch bei extrem langen Eingaben konsistent arbeiten.
Wie Claude im KI-Wettlauf steht
Große Kontextfenster sind derzeit ein zentraler Wettbewerbspunkt zwischen den großen KI-Anbietern.
| Modell | Kontextfenster |
|---|---|
| Claude 4.6 | 1.000.000 Tokens |
| Gemini 1.5 / 2 | bis zu 1.000.000 Tokens |
| GPT-Modelle | deutlich kleiner (je nach Version) |
Anthropic positioniert Claude damit klar als Plattform für Entwickler, die mit sehr großen Datenmengen arbeiten – etwa bei KI-Agenten, Code-Analyse oder juristischen Dokumenten.
Praxis: Was Entwickler bereits berichten
In ersten Tests berichten Nutzer von deutlich effizienteren Workflows. Tools wie Claude Code müssen große Projekte weniger häufig zusammenfassen („Compactions“), wodurch Agent-basierte Analysen stabiler laufen.
Typische Anwendungsfälle sind:
- Debugging komplexer Softwareprojekte
- Analyse umfangreicher Excel- oder Datenbank-Exports
- Auswertung wissenschaftlicher Studien
- Automatische Prüfung von Vertragsarchiven
Verfügbarkeit
Der 1-Million-Token-Kontext ist ab sofort verfügbar für:
- Claude Code Max
- Claude Team
- Claude Enterprise
Auch große Cloud-Plattformen integrieren die Modelle:
- Claude Platform API
- Microsoft Azure Foundry
- Google Cloud Vertex AI
- Amazon Bedrock (demnächst)
Details zum Update hat Anthropic im offiziellen Blog veröffentlicht:
https://claude.com/blog/1m-context-ga
Einordnung
Mit dem Wegfall der Long-Context-Kosten könnte Anthropic vor allem Entwickler überzeugen, die große Datenmengen mit KI analysieren wollen.
Der Schritt zeigt auch, wie stark sich der Wettbewerb im KI-Markt beschleunigt. Immer größere Kontextfenster gelten als Schlüssel für leistungsfähige KI-Agenten – und könnten künftig entscheidend dafür sein, welche Plattform sich bei Entwicklern durchsetzt.