Claude Opus 4.6:1M Context Window 成為預設 — 5 倍空間,價格不變
Anthropic 的 Claude Opus 4.6 預設 context window 從 200K 提升到 1M tokens,定價維持 $5/$25 per MTok。對開發者的實際影響一次整理。
Claude Opus 4.6 的 context window 預設就是 100 萬 tokens。不需要 beta header,不需要特殊設定。直接就是 1M。
對比 Opus 4.5 的 200K tokens,這是 5 倍的提升,而價格完全沒變:$5 / $25 per MTok。
數字對比
| Opus 4.5 | Opus 4.6 | 變化 | |
|---|---|---|---|
| Context window | 200K tokens | 1M tokens | 5 倍 |
| Max output | 64K tokens | 128K tokens | 2 倍 |
| Input 定價 | $5 / MTok | $5 / MTok | 不變 |
| Output 定價 | $25 / MTok | $25 / MTok | 不變 |
| Extended thinking | 有 | 有 | — |
| Adaptive thinking | 無 | 有 | 新增 |
Sonnet 4.6 同樣預設 1M(Sonnet 4.5 需要 beta header 才能用)。Haiku 4.5 維持 200K。
1M Tokens 到底有多大
100 萬 tokens 大約是:
- ~75 萬字(英文)— 整套哈利波特大約 108 萬字
- ~340 萬個 Unicode 字元
- 一個中型 SaaS 的完整 codebase 一次讀入
- 100+ 份技術文件放進同一個對話
對 Claude Code 使用者來說,這是影響最大的更新。你的整個專案目錄 — 原始碼、測試、設定檔、文件 — 都能放進同一個 context window,不用再拆分。
對開發者的實際影響
1. 不用再管 Context Management
200K tokens 時代,開發者要小心翼翼地管理 context:
- 大型 codebase 要拆成多段處理
- 文件要先摘要再注入
- 精心挑選哪些檔案要放進去
- 處理到一半「context 滿了」的中斷
1M tokens 之後,大部分專案直接放進去就好。Context 管理的認知負擔幾乎降到零。
2. Agent 可以跑更久
AI agent 每次 tool call 都會累積 context。200K 時,agent 做到一半就會撞到上限,需要 compact — 過程中會丟失資訊。
1M tokens 讓 agent 可以多跑 ~5 倍的迭代才會碰到限制。對 Claude Code 的自動化工作流來說:
- 多檔案重構可以一次完成
- 複雜的 debug session 保留完整歷史
- 長時間的自動化循環不會斷線
3. Max Output 翻倍到 128K
Opus 4.6 的 max output 從 64K 提升到 128K tokens:
- 更長的程式碼生成
- 完整檔案改寫不會被截斷
- 更詳細的分析和解釋
4. Adaptive Thinking(新功能)
Opus 4.6 新增 adaptive thinking — 模型會根據任務複雜度動態調整推理深度。簡單問題快速回答,複雜問題深入分析。這在之前的 Opus 模型上沒有。
定價分析
定價維持 $5 input / $25 output per MTok,但 實際價值 大幅提升:
| 指標 | Opus 4.5 | Opus 4.6 |
|---|---|---|
| 每 token 成本 | 相同 | 相同 |
| 可用 context | 200K | 1M |
| 每次請求最大輸出 | 64K | 128K |
| 有效容量 | 1x | 5x |
Batch API 使用者照舊享有 50% 折扣:$2.50 input / $12.50 output per MTok。
長文本定價說明
舊模型(Sonnet 4.5、Sonnet 4)使用 1M context 需要 beta header,而且超過 200K 的部分會收長文本附加費。Opus 4.6 和 Sonnet 4.6 的 1M 是原生 context window — 全程標準定價。
完整模型一覽(2026 年 3 月)
| 模型 | Context | Max Output | Input $/MTok | Output $/MTok |
|---|---|---|---|---|
| Opus 4.6 | 1M | 128K | $5 | $25 |
| Sonnet 4.6 | 1M | 64K | $3 | $15 |
| Haiku 4.5 | 200K | 64K | $1 | $5 |
| Opus 4.5(舊版) | 200K | 64K | $5 | $25 |
| Sonnet 4.5(舊版) | 200K(1M 需 beta) | 64K | $3 | $15 |
Context 品質:不只更大,還更準
之前的長文本模型有「context rot」問題 — context 越滿,效能越差。Opus 4.6 直接解決了這個問題。
在 MRCR v2 benchmark(1M tokens 下的大海撈針檢索測試):
- Opus 4.6:76% 準確率
- Sonnet 4.5:18.5% 準確率(同一測試)
準確率提升 4 倍。模型不只是空間更大 — 它真的能有效使用這些空間。
其他改進
- 媒體限制提升:每次請求最多 600 張圖片或 PDF 頁面(200K context 時只能 100)
- Context compaction(beta):伺服器端自動摘要,實現近乎無限的對話
- 細粒度 tool streaming:Tool 參數不需等 JSON 完整再串流,降低多工具工作流的延遲
誰受益最大
- Claude Code 使用者 — 整個專案目錄放進 context,不用再拆任務
- Agent 開發者 — 更長的自動執行時間,不需頻繁 compact
- 文件處理 — 完整 codebase、法律文件、研究論文一次處理
- RAG 系統 — 更大的檢索窗口,更少分塊,更好的連貫性
開始使用
Claude Code 可用性
Opus 4.6 搭配 1M context 現在是以下方案的 預設模型:
- Max 方案 — 預設
- Team 方案 — 預設
- Enterprise 方案 — 預設
- Pro 方案 — 使用
/extra-usage開啟 - Sonnet 使用者 — 使用
/extra-usage開啟
API 使用者的 model ID 是 claude-opus-4-6。1M context 自動啟用,不需要任何設定。
# 使用 Opus 4.6 的 API 呼叫 — 1M context 自動啟用
curl https://api.anthropic.com/v1/messages \
-H "x-api-key: $ANTHROPIC_API_KEY" \
-H "content-type: application/json" \
-H "anthropic-version: 2023-06-01" \
-d '{
"model": "claude-opus-4-6",
"max_tokens": 4096,
"messages": [{"role": "user", "content": "Hello"}]
}'
不需要 beta header。不需要 extended context flag。直接用。
完整定價資訊請參考官方定價頁面。模型比較請參考 Models overview。