2026年2月11日,国内AI领域经历了一场意义非凡的变革。备受瞩目的DeepSeek在其网页端和App端完成了版本迭代,将模型的上下文窗口(Context Length)提升至高达1M Token(约百万汉字)。这一重大升级意味着AI具备了处理整本书的能力,告别了过去在处理长文档时需要分割粘贴的繁琐过程。
容量跃升:从“片段记忆”到“全集通读”
此次更新最令人震撼的直观变化在于数据处理能力的显著提升。相较于此前DeepSeek V3系列支持的128K Token,新模型的上下文处理能力几乎提升了8倍。为了更具体地展现这一进步,媒体和网友进行了实际测试:著名科幻巨著《三体》三部曲全集,字数约90万,以往可能需要分段上传并反复提示,而现在,用户只需一键上传全本,DeepSeek便能瞬间“阅读”完毕,并精准回答跨章节、跨卷册的复杂问题。

这种“过目不忘”的能力,对于法律、科研、金融等专业领域的从业者而言,无疑是革命性的。律师可以一次性上传数百页的合同卷宗,让AI进行全局条款审查与风险点标注;程序员能够将整个中型项目的源代码库丢给模型,要求其进行架构分析或Bug排查;学者则可以上传整本学术专著,进行深度的内容摘要与观点提炼。信息处理的效率边界被无限拓宽。
技术解密:查算分离与极致性价比
支撑这一恐怖记忆力的,是DeepSeek在底层架构上的硬核创新。据披露,新模型引入了Engram条件记忆模块与mHC流形约束超连接技术。简单来说,它通过“查算分离”的思路,将静态的知识存储在成本更低的CPU内存中,而让昂贵的GPU资源专注于动态的逻辑推理。这不仅将显存占用降低了50%以上,更将推理速度提升了2-3倍,打破了行业内“长文本必然伴随高延迟”的魔咒。

值得注意的是,在这次更新中,DeepSeek明确划定了自己的能力边界。尽管市面上各大模型都在争相堆叠视频生成、图像识别等多模态能力,但DeepSeek却选择了一条“做减法”的道路——新版本目前不支持视觉输入,也不具备多模态识别能力。