在AI编程的竞赛中,Anthropic刚刚发布了一款可能彻底改变战局的“核武器”。

今天,Claude正式宣布全面开放其拥有100万Token上下文窗口的能力。这不仅仅是一个数字,更意味着AI真正拥有了“超长记忆”。那么,100万Token到底有多大?相当于一次性阅读750万英文单词,或者将《哈利波特》全集读七遍。

对于开发者来说,这无疑是梦想成真的“魔法工具”。过去面对庞大代码库时,必须手动拆分文件并做损失性摘要,生怕AI“忘记”重要内容。现在,你可以直接将整个项目、数千页合同,甚至整套设计系统的截图一次性输入Claude。

更令人惊讶的是Anthropic在定价上的“降维打击”。不同于部分竞争对手对超过20万Token的使用收取高额费用,Claude Opus4.6和Sonnet4.6以统一价格开放完整窗口,使得长上下文不再是奢侈品。

在“从大海捞针”的细节检索测试中,Opus4.6取得了78.3%的优异成绩,稳居同类模型第一。它不仅能读取海量信息,更能精准记忆,准确关联庞大信息中的关键逻辑。

随着Claude Code年收入飙升,甚至连OpenAI总裁Greg Brockman都感叹,不用亲自写代码大大减轻了脑力负担。当AI的记忆不再受限,程序员的角色也在被重新定义——从辛勤的“码农”转变为指挥AI智能舰队的“CEO”。

这场关于“工作记忆”的战争,显然让Anthropic占据了制高点。下一位被颠覆的会是谁?