DeepSeek V4 运行在华为昇腾芯片上,中国 AI 算力独立示意图

先说一件你可能没注意到的事

过去两年,每次有人说"中国 AI 追上了美国",美国政府的回应都是同一招:限制英伟达芯片出口

逻辑很简单:训练顶级 AI 模型需要大量 GPU,而全球最好的 GPU 几乎都是英伟达造的。只要卡住芯片,就能卡住中国 AI 的发展速度。

这个逻辑,在 2026 年 4 月,正在被 DeepSeek 打破。

据路透社援引 The Information 报道,DeepSeek 即将发布的 V4 模型,将完全运行在华为自研的昇腾 950 PR 芯片上——不用英伟达,一块都不用。

这是中国 AI 公司第一次在旗舰模型上做到这件事。

DeepSeek V4 到底是什么?

如果你用过 DeepSeek,你大概知道它是一个"便宜又好用"的 AI 对话工具。V4 是它的下一代,预计 4 月中旬发布。

规格上,V4 有大约 1 万亿个参数——听起来很吓人,但实际上每次对话只激活其中约 320 亿个(这叫"混合专家架构",MoE,可以理解为:有 1000 个专家,但每次只叫其中 32 个来回答你的问题)。

这意味着它的运行成本极低。预计定价约为每百万 token 输入 0.1 美元,比 GPT-5.2 便宜约 50 倍。

除了便宜,V4 还新增了:

💡
什么是 MoE? 混合专家(Mixture of Experts)架构就像一家有 1000 名员工的公司,但每次接待客户只派 32 人出来。这样既保留了大团队的知识储备,又不需要每次都动用全部人力,效率极高、成本极低。

华为芯片这件事,为什么比模型本身更重要?

要理解这件事的意义,你需要先知道一个背景:

训练和运行大型 AI 模型,需要大量专用芯片(GPU)。目前全球最好的 AI 芯片,是英伟达的 H100 和 H200。美国政府从 2022 年开始,陆续限制这些芯片出口到中国。

这就像:你想盖一栋摩天大楼,但有人告诉你,最好的钢材不卖给你。

中国的应对方案,是自己造钢材——华为的昇腾系列芯片,就是这个"国产钢材"。

但问题是:国产芯片够用吗?

过去几年,答案一直是"差一点"。DeepSeek V3 虽然性能出色,但训练时仍然用了英伟达的 H800 芯片(出口管制前的存货)。

V4 是第一次真正的考验:用华为昇腾 950 PR,能不能跑出旗舰级别的 AI 模型?

为了做到这件事,DeepSeek 的工程师重写了大量核心代码,与华为、寒武纪深度合作,花了数月时间适配。

ℹ️
昇腾 950 PR 是什么? 华为最新一代 AI 芯片,2026 年初开始量产。多家中国科技巨头已订购数十万块。TrendForce 分析认为,若 DeepSeek V4 性能达标,将证明昇腾系列已具备支撑前沿 AI 的能力。

这件事正在发生,不是预测

有几个数字,可以帮你感受一下这件事的规模:

这不是"未来某天可能发生"的故事。这是 2026 年 4 月正在发生的事。

DeepSeek V4 的发布,预计在 4 月中旬。届时,它将与 OpenAI 的 GPT-6 几乎同期亮相——两个最强 AI 模型,在同一时间窗口内正面交锋。

⚠️
注意 DeepSeek V4 截至本文发布时尚未正式发布,以上规格来自 Reuters、The Information 等媒体的报道,最终参数可能有所调整。

这件事跟你有什么关系?

如果你只是一个普通的 AI 用户,这件事对你的直接影响是:

更便宜的 AI。 DeepSeek 一直以"便宜"著称。V4 预计比 GPT-5.2 便宜 50 倍。更多竞争,意味着所有 AI 服务的价格都会被压低。

更多选择。 如果中国 AI 公司能在不依赖英伟达的情况下继续发展,全球 AI 市场的竞争格局将更加多元。对用户来说,这是好事。

如果你在科技行业工作,这件事的意义更大:

它意味着"卡芯片就能卡 AI"的逻辑,正在失效。中国 AI 的发展路径,正在从"依赖进口硬件"转向"自主算力生态"。这个转变,将深刻影响未来几年全球 AI 竞争的格局。

对于英伟达来说,这是一个真实的威胁信号——不是"将来可能",而是"现在正在"。

现在你可以做什么

如果你对 DeepSeek V4 感兴趣,可以先去 DeepSeek 官网体验一下现有的 V3 版本,感受一下它的能力水平。V4 发布后,通常会在官网和 API 同步上线。

如果你想了解更多关于开源大模型的内容,可以看看:


一句话总结:DeepSeek V4 不只是一个更强的 AI 模型,它是中国 AI 产业第一次在旗舰级别上证明"不用英伟达也能行"——这件事的影响,远比模型本身更深远。