2026年4月24日,深度求索公司以一场“轻发布、重开源”的方式,正式推出DeepSeek-V4预览版。没有冗长的发布会,没有夸张的渲染,只在官网和GitHub上同步更新了一行关键信息:全系列标配100万token超长上下文,即日起MIT协议开源。

这或许是2026年国产大模型领域最“不声张”却最具分量的动作之一。
双版本齐发:一个“封顶”,一个“普惠”
DeepSeek-V4共发布两个版本——Pro版与Flash版,分别对应顶级性能与极致性价比。
Pro版总参数达到1.6万亿,单token实际激活490亿参数。在Agent任务、世界知识问答和复杂推理链评测中,官方披露其综合表现已超越此前国内所有开源模型,并在多项国际基准上进入第一梯队。更具工程意义的是,Pro版在长文档理解、多轮工具调用等场景下表现出远超预期的稳定性。
Flash版则显得“轻盈”许多:总参数2840亿,激活130亿参数。其定位清晰——用接近Pro版的推理能力,换取更低的部署门槛和调用成本。深度求索内部测试显示,在主流长文本任务上,Flash版的输出质量与Pro版差距已缩小至可感知边缘,而单次推理的成本不足Pro版的十分之一。
两个版本均采用了新型混合注意力架构。该架构的核心突破在于:在处理百万token级输入时,计算复杂度和显存占用量均出现断崖式下降。据技术报告披露,相较于传统全注意力机制,混合注意力在不损失召回精度的前提下,可将长序列推理的显存峰值降低60%以上。

“1M上下文,从此是标配”
发布中最具标志性的一句话来自深度求索官方声明:“从现在开始,1M上下文将是DeepSeek所有官方服务的标配。”
此前,百万级上下文虽不时被各家模型作为“秀肌肉”的卖点,但往往伴随高昂的API定价、有限的接入渠道或复杂的切片策略。DeepSeek此次将之固化为全系标配,并配合MIT协议完全开源——意味着个人开发者、中小团队乃至高校实验室,都可以在本地部署一个拥有百万token“内存”的大模型。
有开源社区开发者评论:“这就像突然把内存条从512MB换到了64GB,过去写RAG、做文档处理的所有思路都要重新想。”

开源与商业化:一条更深的护城河
深度求索同时开放了API服务。Pro版定价暂未公开,但Flash版预览期间提供大幅折扣额度。值得注意的是,MIT协议意味着任何人可以复制、修改甚至商用该模型,深度求索不收取任何授权费用。
在各大厂商纷纷收紧模型协议、限制二次分发的当下,DeepSeek-V4的全面开源显得近乎“叛逆”。然而,这并非不计成本的理想主义——通过开源占据开发者心智、借Flash版构建低成本调用习惯、再以企业级服务形成闭环,已成为深度求索明确的战略路径。
正如其内部一位核心工程师在社交平台上所言:“我们相信,大模型真正的护城河不是模型本身,而是有多少人在上面真正用起来了。”

普惠时代开启,悬念仍在
DeepSeek-V4预览版的上线,至少解决了中文开源大模型在超长上下文领域的“有无”问题。但真正的考验才刚刚开始:百万token能否在实际应用中被稳定、高效地使用?Flash版的性能承诺能否经得起社区复现?Pro版能否在后续正式版中继续拉开代差?
这些问题,或许要等到开发者真正把代码跑起来的那一天,才会有答案。
无论如何,2026年4月24日,已经被写入中文AI开源史。这一天,百万上下文不再是少数人的奢侈品,而变成了所有人的默认配置。
文章内容仅供参考,不构成投资建议,投资者据此操作风险自负。转载请注明出处:远视互动