
当地时间3月23日,美国国会美中经济与安全审查委员会发布研究工作论文《两个循环:中国开源人工智能战略如何强化其产业主导地位》,其核心判断是:中国的开源AI战略与其制造业基础正在形成两个相互咬合的正反馈循环,其复合效应已超出美国现行芯片出口管制政策的应对范围。
论文首先描绘了中美两国截然不同的AI发展路径。美国头部实验室押注“规模定律(即Scaling Law),将海量算力投入大型封闭模型的训练,2025年微软、亚马逊、Meta、谷歌四家科技巨头的AI资本支出合计超过3500亿美元。中国则在算力受限的条件下,选择开放权重、极低定价、鼓励衍生开发的路线。
截至论文发布,阿里巴巴Qwen系列在Hugging Face上的衍生模型已超过10万个,稳居全球最大模型生态系统。性价比方面,Kimi K2.5与OpenAI的GPT-5.2在综合能力评分上相当,但每百万token定价仅为后者的四分之一。开源策略并未让中国技术落后,DeepSeek的R1模型将混合专家架构(MoE)和思维链推理推广为行业标准,两者如今已是前沿模型的通用配置。
论文的理论框架由“两个循环”构成。
第一个循环在数字层面运行:宽松的许可授权促成全球开发者大量下载和二次改造中国模型,由此产生的迭代反馈进一步提升基础模型能力,吸引更多下载,循环自我强化。2025年8月,中国模型在Hugging Face的总下载量首次超过美国;11月至12月,下载量前十名中有七款来自中国,开发者将衍生模型回传至平台的速率约为美国模型的两倍。
第二个循环在物理层面运行:中国拥有3万余家智能工厂、广泛铺设的物联网和5G基础设施,工业场景下的大规模部署持续产生专属实时数据,这些数据反哺模型优化,优化后的模型又推动更深度的产业应用。北京将数据正式列为生产要素,允许企业将数据资产入表,并于2025年3月建立国家公共数据资源登记平台,为这一物理循环提供制度支撑。
论文进一步指出,两个循环的交汇点在于小型专用模型。随着AI价值创造的重心从大规模预训练向实际部署转移,英伟达研究人员的论文已明确指出,小型语言模型将承担智能体系统中绝大多数运营子任务,其成本比前沿模型低10至30倍。而小模型恰恰是开放生态系统最高效的产出形态。一旦这一趋势成立,中国凭借开源基础模型加工业部署的组合优势,将在制造自动化、物流优化、具身智能等领域积累起与算力无关的持久优势,美国的出口管制主要针对前沿训练所用的高端芯片,对这条路径几乎无能为力。
论文也指出中国面临的制约。“数据安全法律法规限制了超级应用之间的数据共享”存在审查机制,高质量标注数据依然匮乏,有AI公司联合创始人曾在《人民日报》撰文称数据资源“碎片化”“分散化”是当前制约中国国内模型进步的首要瓶颈。在应用层面,美国模型目前仍占全球LLM站点访问量的93%ChatGPT单月访问量约为57亿次,DeepSeek以4.51亿次位居第二。企业客户出于政治与安全考量,对中国模型的依赖仍较为审慎。
政策层面,论文梳理了美国的应对努力,包括OpenAI于2025年8月发布首批开放权重模型、英伟达推出Nemotron 3、美国能源部创世纪计划整合17家国家实验室推进AI科学应用,以及2025年AI行动计划对开源重要性的明确背书。然而,美国最重要的开源旗手Meta正逐渐向封闭路线转向,据报道其下一代Avocado模型将仅通过API提供访问,此举恰好发生在中国国家支持的开源生态全速推进之际,留下一个难以填补的空白。
论文最终提醒美国国会:当前政策框架应对了“数字循环”的挑战,却对“物理循环”几乎没有准备,而后者才是中国AI战略最具韧性的长期优势所在。
原文:toutiao.com/article/7621471192100110898/
声明:该文仅代表作者本人观点