先说一件你可能没注意到的事
过去两年,每次有人说"中国 AI 追上了美国",美国政府的回应都是同一招:限制英伟达芯片出口。
逻辑很简单:训练顶级 AI 模型需要大量 GPU,而全球最好的 GPU 几乎都是英伟达造的。只要卡住芯片,就能卡住中国 AI 的发展速度。
这个逻辑,在 2026 年 4 月,正在被 DeepSeek 打破。
据路透社援引 The Information 报道,DeepSeek 即将发布的 V4 模型,将完全运行在华为自研的昇腾 950 PR 芯片上——不用英伟达,一块都不用。
这是中国 AI 公司第一次在旗舰模型上做到这件事。
DeepSeek V4 到底是什么?
如果你用过 DeepSeek,你大概知道它是一个"便宜又好用"的 AI 对话工具。V4 是它的下一代,预计 4 月中旬发布。
规格上,V4 有大约 1 万亿个参数——听起来很吓人,但实际上每次对话只激活其中约 320 亿个(这叫"混合专家架构",MoE,可以理解为:有 1000 个专家,但每次只叫其中 32 个来回答你的问题)。
这意味着它的运行成本极低。预计定价约为每百万 token 输入 0.1 美元,比 GPT-5.2 便宜约 50 倍。
除了便宜,V4 还新增了:
- 100 万 token 超长上下文:相当于能一次性读完一本 70 万字的小说,并记住所有细节
- 原生多模态:能同时理解文字、图片、代码
- Engram 记忆架构:更好地记住你的偏好和历史对话
华为芯片这件事,为什么比模型本身更重要?
要理解这件事的意义,你需要先知道一个背景:
训练和运行大型 AI 模型,需要大量专用芯片(GPU)。目前全球最好的 AI 芯片,是英伟达的 H100 和 H200。美国政府从 2022 年开始,陆续限制这些芯片出口到中国。
这就像:你想盖一栋摩天大楼,但有人告诉你,最好的钢材不卖给你。
中国的应对方案,是自己造钢材——华为的昇腾系列芯片,就是这个"国产钢材"。
但问题是:国产芯片够用吗?
过去几年,答案一直是"差一点"。DeepSeek V3 虽然性能出色,但训练时仍然用了英伟达的 H800 芯片(出口管制前的存货)。
V4 是第一次真正的考验:用华为昇腾 950 PR,能不能跑出旗舰级别的 AI 模型?
为了做到这件事,DeepSeek 的工程师重写了大量核心代码,与华为、寒武纪深度合作,花了数月时间适配。
这件事正在发生,不是预测
有几个数字,可以帮你感受一下这件事的规模:
- 中国 AI 大模型的周使用量,已连续 5 周超越美国,全球周用量达 27 万亿 token
- 国家发改委数据:中国日均 token 使用量突破 140 万亿,两年内增长超千倍
- 多家中国科技公司已订购数十万块华为昇腾 950 PR 芯片
这不是"未来某天可能发生"的故事。这是 2026 年 4 月正在发生的事。
DeepSeek V4 的发布,预计在 4 月中旬。届时,它将与 OpenAI 的 GPT-6 几乎同期亮相——两个最强 AI 模型,在同一时间窗口内正面交锋。
这件事跟你有什么关系?
如果你只是一个普通的 AI 用户,这件事对你的直接影响是:
更便宜的 AI。 DeepSeek 一直以"便宜"著称。V4 预计比 GPT-5.2 便宜 50 倍。更多竞争,意味着所有 AI 服务的价格都会被压低。
更多选择。 如果中国 AI 公司能在不依赖英伟达的情况下继续发展,全球 AI 市场的竞争格局将更加多元。对用户来说,这是好事。
如果你在科技行业工作,这件事的意义更大:
它意味着"卡芯片就能卡 AI"的逻辑,正在失效。中国 AI 的发展路径,正在从"依赖进口硬件"转向"自主算力生态"。这个转变,将深刻影响未来几年全球 AI 竞争的格局。
对于英伟达来说,这是一个真实的威胁信号——不是"将来可能",而是"现在正在"。
现在你可以做什么
如果你对 DeepSeek V4 感兴趣,可以先去 DeepSeek 官网体验一下现有的 V3 版本,感受一下它的能力水平。V4 发布后,通常会在官网和 API 同步上线。
如果你想了解更多关于开源大模型的内容,可以看看:
- 阿里悄悄发了一个"全球最强开源大模型",它跟你有什么关系——同样是中国开源大模型的故事
- 免费跑最强开源大模型!Llama 4 保姆级入门教程——如果你想亲手跑一个开源模型
- 免费在本地跑 AI 大模型!Ollama 保姆级入门教程——在自己电脑上运行开源模型的完整指南
一句话总结:DeepSeek V4 不只是一个更强的 AI 模型,它是中国 AI 产业第一次在旗舰级别上证明"不用英伟达也能行"——这件事的影响,远比模型本身更深远。