讲个冷知识:DeepSeek-V4发布那天,整个AI圈都在等一个发布会。
结果啥也没有。没有直播,没有CEO演讲,甚至没有预热海报。就那么静悄悄地上线了。
但懂行的人全炸了。
不是因为参数有多炸裂——虽然确实炸裂。而是因为技术报告第七页,写着一行小字:
“已完成华为昇腾、寒武纪、摩尔线程等8家国产芯片的Day-0适配。”
翻译一下:这是中国大模型历史上,第一次有顶级模型把国产算力写进官方技术文档的一号位置。
以前的国产适配,都是“模型等芯片”——芯片出来了,团队花几个月慢慢调。
这次是“芯片等模型”——V4发布当天,8家国产芯片厂商同步宣布“我们已经跑通了”。
这盘棋,比参数大得多。

先说模型本身:四件事,值不值得换?
如果你只是个普通用户,关心的就一个问题:比之前强在哪?
第一,记忆力变态了。 100万token上下文,什么概念?《三体》三部曲一口气读完,每个细节都记得。你扔一部小说进去让它分析人物关系,它不会聊着聊着就失忆。
第二,会干活了。 这次最核心的升级不是聊天,是Agent能力。它能自己调用工具、写代码、修bug。DeepSeek内部已经拿它当主力编程助手,内部评测说编程体验对标Claude Sonnet 4.5。
第三,推理能力摸到天花板了。 所有开源模型里,V4的推理和知识储备是第一档。跟谷歌Gemini-Pro-3.1这种顶级闭源模型,也就差一口气。
第四,价格还是那个味。 最便宜的Flash版本,输出价格2块钱/百万token。GPT-4.5是30美元,约合人民币200多块。差了100倍。
该薅羊毛薅羊毛。
但真正的看点,不在参数表里
参数、上下文、价格——这些是明牌。
真正的暗牌,是国产算力生态。
DeepSeek-V4在华为昇腾平台上,跑出了1.5到1.73倍的推理加速。这不是“勉强能跑”,这是“跑得比英伟达还快”。
为什么能做到?
因为DeepSeek是真开源——MIT协议,随便下载、随便改、随便商用。
这意味着什么?意味着国产芯片厂商不需要等DeepSeek给他们做适配,他们自己就可以拿模型去优化自己的硬件。
主动权,从模型方交到了芯片方和应用方手里。
所以你会发现,这次最积极适配的,恰恰是那些最需要“落地场景”的国产芯片公司。DeepSeek-V4就是他们最好的“试金石”。
这是教科书级别的生态打法。
泼点冷水:创新公司不容易
说完了好的,也得说点大实话。
第一,Pro版本现在限流。 因为高端算力不够,DeepSeek自己都承认Pro版服务吞吐有限。简单说:菜做得再好,厨房太小也出不了多少桌。
解决方案是什么?等昇腾950超节点下半年批量上市。
你看,闭环又绕回来了——国产算力的产能,直接决定了V4 Pro能服务多少人。
第二,人才在流失。 V4的技术报告有270个作者,但过去5个月里,至少10个人已经离开。包括代码与推理的核心负责人郭达雅,被字节跳动以亿元年薪挖走。
梁文锋的压力,比你想象的大。
第三,现在还是纯文本。 不支持多模态识别。你不能让它“看”一张截图然后修bug。在多模态成为标配的今天,这确实是个短板——不过据说Vision版本已在路上。
最后说一句
DeepSeek的成功值得鼓掌,但更有价值的是它带来的鲶鱼效应——用真开源打破算力封锁,用性价比拉低AI门槛,用Day-0适配证明国产芯片能打。但说到底,技术不该有国界。我希望OpenAI、Anthropic、Google,OpenClaw等都能一起往前冲。AI从来不是零和游戏:一个模型突破推理瓶颈,全行业受益;一个算力方案被验证,全球开发者少踩坑。最好的未来不是一家独大,而是百舸争流。
