Claude knackt 1-Million-Token-Grenze: Anthropic bringt riesigen Kontext ohne Aufpreis
📅 13.03.2026

Claude knackt 1-Million-Token-Grenze: Anthropic bringt riesigen Kontext ohne Aufpreis

Der Wettlauf um die leistungsfähigsten KI-Modelle geht in die nächste Runde. Anthropic hat am 13. März 2026 angekündigt, dass Claude Opus 4.6 und Claude Sonnet 4.6 ab sofort ein Kontextfenster von bis zu 1 Million Tokens unterstützen – und zwar ohne zusätzlichen Preisaufschlag für lange Eingaben.

Damit können die Modelle enorme Datenmengen gleichzeitig analysieren. Entwickler können komplette Codebasen, umfangreiche Verträge oder große Forschungsdatensätze in einer einzigen Anfrage verarbeiten.

Warum ein großes Kontextfenster wichtig ist

Das Kontextfenster bestimmt, wie viele Informationen eine KI gleichzeitig berücksichtigen kann. Je größer es ist, desto weniger müssen Inhalte vorher zusammengefasst werden.

Mit einem Kontext von 1 Million Tokens lassen sich beispielsweise:

  • ganze Software-Repositories analysieren
  • hunderttausende Zeilen Log-Dateien auswerten
  • umfangreiche Vertragsarchive prüfen
  • Hunderte wissenschaftliche Paper vergleichen

Anthropic erhöht außerdem die Medienlimits deutlich: Bis zu 600 Bilder oder PDF-Seiten können gleichzeitig in eine Anfrage integriert werden.

Keine Long-Context-Kosten mehr

Ein entscheidender Punkt für Entwickler: Die Nutzung des großen Kontextfensters verursacht keinen Aufpreis mehr. Das war bislang bei vielen KI-Anbietern ein zusätzlicher Kostenfaktor.

Modell Preis Input Preis Output
Claude Opus 4.6 $5 pro Mio Tokens $25 pro Mio Tokens
Claude Sonnet 4.6 $3 pro Mio Tokens $15 pro Mio Tokens

Requests über 200.000 Tokens funktionieren automatisch, ohne spezielle Beta-Header oder Konfiguration.

Benchmark-Ergebnisse

Anthropic veröffentlicht auch erste Leistungswerte für die Modelle im Long-Context-Einsatz.

  • Claude Opus 4.6: 78,3 % im MRCR v2 Benchmark
  • Claude Sonnet 4.6: 68,4 % im GraphWalks BFS Test bei 1M Tokens

Die Tests sollen zeigen, dass die Modelle auch bei extrem langen Eingaben konsistent arbeiten.

Wie Claude im KI-Wettlauf steht

Große Kontextfenster sind derzeit ein zentraler Wettbewerbspunkt zwischen den großen KI-Anbietern.

Modell Kontextfenster
Claude 4.6 1.000.000 Tokens
Gemini 1.5 / 2 bis zu 1.000.000 Tokens
GPT-Modelle deutlich kleiner (je nach Version)

Anthropic positioniert Claude damit klar als Plattform für Entwickler, die mit sehr großen Datenmengen arbeiten – etwa bei KI-Agenten, Code-Analyse oder juristischen Dokumenten.

Praxis: Was Entwickler bereits berichten

In ersten Tests berichten Nutzer von deutlich effizienteren Workflows. Tools wie Claude Code müssen große Projekte weniger häufig zusammenfassen („Compactions“), wodurch Agent-basierte Analysen stabiler laufen.

Typische Anwendungsfälle sind:

  • Debugging komplexer Softwareprojekte
  • Analyse umfangreicher Excel- oder Datenbank-Exports
  • Auswertung wissenschaftlicher Studien
  • Automatische Prüfung von Vertragsarchiven

Verfügbarkeit

Der 1-Million-Token-Kontext ist ab sofort verfügbar für:

  • Claude Code Max
  • Claude Team
  • Claude Enterprise

Auch große Cloud-Plattformen integrieren die Modelle:

  • Claude Platform API
  • Microsoft Azure Foundry
  • Google Cloud Vertex AI
  • Amazon Bedrock (demnächst)

Details zum Update hat Anthropic im offiziellen Blog veröffentlicht:

https://claude.com/blog/1m-context-ga

Einordnung

Mit dem Wegfall der Long-Context-Kosten könnte Anthropic vor allem Entwickler überzeugen, die große Datenmengen mit KI analysieren wollen.

Der Schritt zeigt auch, wie stark sich der Wettbewerb im KI-Markt beschleunigt. Immer größere Kontextfenster gelten als Schlüssel für leistungsfähige KI-Agenten – und könnten künftig entscheidend dafür sein, welche Plattform sich bei Entwicklern durchsetzt.

Laura Bergmann
Verbraucherexpertin & Redaktion
Laura übersetzt technische Daten in klare, verständliche Texte und bewertet Nutzwert & Alltagstauglichkeit.