正文内容
如果你现在还觉得中国AI只会“复制+追赶”,那说明你已经很久没看新闻了。
2026年1月,麻省理工学院与全球最大AI开源社区Hugging Face联合发布了一份报告。结论很直接:在全球新建的AI模型中,中国开源模型的下载量占比已达到17.1%,首次超过美国的15.8% 。与此同时,阿里巴巴的Qwen系列累计下载量已突破10亿次,衍生模型数量超过20万,稳居全球开源模型榜首 。
这些数字不是冰冷的统计,它们指向一个正在发生的结构性转移:中国AI正在从“技术输入者”变成“标准输出者”。在AI一族看来,这件事值得每一个关注技术趋势的人停下来细看。
从DeepSeek到Qwen:开源策略的连锁反应

一切的变化,都可以追溯到2025年1月——DeepSeek发布R1推理模型的那个月。
在那之前,中国AI公司的主流选择是闭源。虽然阿里Qwen等团队早已在开源领域默默耕耘,但行业的目光始终盯着OpenAI、Anthropic和Google。DeepSeek R1的发布撕开了一个口子:它以极低的成本实现了接近顶级闭源模型的推理能力,并且采用了完全开放的MIT许可证 。这意味着任何开发者都可以免费下载模型权重,在自己的服务器上运行,甚至可以修改、蒸馏、二次开发。
Hugging Face在回顾“DeepSeek时刻”一周年时写道:“R1的真正意义不在于它是不是当时最强的模型,而在于它降低了三个关键壁垒:技术壁垒、采用壁垒、心理壁垒。” 尤其是心理壁垒——它让中国AI公司第一次确信:开源不是战术选择,是可以成为长期战略的路径。
此后,连锁反应开始了。百度从2024年的“零开源”变成2025年在Hugging Face上发布超过100个模型;字节跳动和腾讯的开源发布量增长了8到9倍;Moonshot发布的Kimi K2被社区称为“另一个DeepSeek时刻” 。
但真正形成“底座效应”的,是阿里Qwen。
生态统治力:当Qwen成为全球开发者的“默认选项”
什么叫“衍生模型”?就是一个开发者下载了Qwen的原始权重,然后用自己的数据、自己的场景去微调,做出一个更适合特定任务的“变种”。比如有人用Qwen做代码生成,有人做医疗问答,有人做机器人控制。这些衍生模型的数量,被业内视为开源生态健康度的核心指标——它说明开发者深度认可这个模型的底层能力,愿意在上面投入时间进行创造性开发。
根据ATOM(American Truly Open Models)项目的数据,截至2025年8月,Hugging Face上新发布的衍生模型中,来自Qwen的占比超过40%,而Llama已跌至约15% 。这意味着Qwen已经成为全球开发者进行“二次创作”的默认基座模型。
与此同时,中国模型的采用正在渗透进高价值场景。数据显示,约40%的中国AI模型调用集中在编程辅助、工业设计、芯片仿真等高级业务领域 。在日本,企业开发的前十大AI模型中,有6个基于DeepSeek或Qwen进行二次开发,包括日本国立情报学研究所主导的国家级项目“LLM-jp” 。
硅谷的“倒戈”:80%的初创公司正在用中国模型
如果说下载量只是数字,那么硅谷的采纳率则更有说服力。
Andreessen Horowitz的合伙人Martin Casado在X上发过一条推文:在他接触的用开源栈构建产品的初创公司里,大约80%都在运行中国开源模型 。OpenRouter的API调用数据也印证了这一点——中国开源模型的调用占比从2024年底的几乎为零,跃升至2025年底的近30% 。
为什么会这样?答案其实不复杂:好用,且便宜。
Moonshot发布的Kimi K2.5,在部分基准测试中已经逼近Anthropic的Claude Opus,但价格只有后者的七分之一 。对于预算有限的初创公司来说,这根本不是选择题。
更关键的是,中国开源模型的许可证对商业化极其友好。Qwen系列允许商业使用而不收取授权费,这意味着初创企业可以以极低成本获得高质量的AI能力。一位硅谷开发者告诉《MIT科技评论》:“如果我们用OpenAI的API,每一千个token都要付费;如果我们用Qwen自托管,成本几乎只有电费。”
从“技术输入”到“标准输出”:一种新的全球化
这种变化的意义,超出了单纯的下载量或市场份额。
过去几十年,全球科技行业的技术流向是单向的:美国创新,世界跟随。硅谷输出技术文档,全球开发者学习和适配。但在AI开源领域,这个流向正在逆转。
《MIT科技评论》在2026年趋势预测中明确指出:“预计会有更多硅谷应用在不太张扬的情况下,基于中国开源模型上线。同时,中国模型发布与西方前沿水平之间的时间差还会继续缩小,从数月缩短到数周,有时甚至更短。”
更深层的变化在于:中国开源模型正在成为新兴市场的技术底座。在东南亚、非洲、中东和拉美,中国模型的采用率快速上升。史丹佛大学的研究报告指出,中低收入国家的开发者特别倾向于采用中国模型,作为从零构建AI基础设施的平价替代方案 。
Hugging Face负责全球AI合作的Tiezhen Wang总结得很到位:“全球使用开放权重模型的初创公司和研究人员,往往默认甚至依赖于中国开发的模型。” 这种依赖,正在把中国AI从“参与者”变成“定义者”。
挑战与未来:蛋糕做大之后
当然,这并不意味着中国开源模型已经稳坐江山。
Hugging Face的王铁震提出了一个现实问题:“现在的重点是让蛋糕变大,下一个挑战是每家公司如何确保自己的那份。” 开源不等于商业模式,这一点在过去二十年的开源软件历史中已经反复验证。虽然中国AI公司从开源中获得了声誉、吸引了人才、建立了生态,但长期的财务可持续性仍然需要验证。
2026年1月,智谱和MiniMax先后在香港上市 。这或许是一个信号:中国AI公司正在从“拼技术”进入“拼商业”的阶段。开源带来的品牌效应和开发者信任,能否转化为可持续的营收,将是未来两年的关键看点。
另一个挑战来自美国。2025年11月,美国发布了名为ATOM(American Truly Open Model)的开源项目,其官方声明中明确提到:这个项目的动力之一,正是DeepSeek和中国模型的势头 。换句话说,中国开源模型倒逼美国重新重视开源生态——这在几年前是不可想象的。
但对于开发者而言,竞争是好事。更多选择、更低成本、更快迭代——这正是开源生态的底层逻辑。
尾声:代码不认国籍,但开发者认
去年一月DeepSeek发布R1的时候,没有人能预料到接下来一年的连锁反应。一家原本低调的量化基金背景的AI团队,用一份开源模型和一篇技术论文,撬动了全球开发者的注意力。
今天,那个“DeepSeek时刻”已经演变成一种持续的力量。从阿里Qwen到Moonshot Kimi,从智谱GLM到MiniMax,中国AI公司的开源步伐越来越快,越来越密。Hugging Face的下载量榜单上,中国模型的名字挤掉了越来越多美国对手。
代码本身不认国籍。一行在杭州写的Python代码,和一个在旧金山写的Python代码,在语法上没有区别。但选择用哪一行代码的人,会慢慢形成习惯。当全球开发者开始默认“先用Qwen试试”“找个DeepSeek的变种”,习惯就变成了生态,生态就变成了标准。