4.69万亿Token:中国AI调用量超美,背后是什么信号
截至3月15日,中国AI大模型在OpenRouter平台的周调用量达4.69万亿Token,连续两周超越美国。数字背后:价格战、Agent落地、全球开发者涌入——小火龙实验室的真实体感与行业解读。

4.69万亿Token,中国AI用量第一周
3月22日,央视财经报道了一条数据:截至3月15日这一周,中国AI大模型在OpenRouter平台上的调用量达到4.69万亿Token,连续第二周超过美国(美国同期为3.294万亿Token,环比还跌了9.33%)。全球前三名,全被中国模型包揽。
这四家是MiniMax M2.5、阶跃星辰Step 3.5 Flash、DeepSeek V3.2和Kimi K2.5。
这不是PR稿,是OpenRouter的真实流量数据。
OpenRouter的数字,怎么读
OpenRouter是目前最大的AI模型API聚合平台,开发者拿一个接口可以调全球500多个模型。它的流量数据基本等同于"开发者真实使用量"——不是用户问问聊天那种,而是写进代码里的调用。
Token是AI处理信息的最小单位。你输入一句话,模型返回一段回答,合起来可能就几百个Token。4.69万亿这个数字意味着什么?按平均每次对话500 Token算,大概是94亿次对话。一周。
当然这只是粗算,企业级批量处理单次Token消耗远高于此,实际对话次数应该比这少。但这个量级本身,已经说明了问题。
不是"中国AI厉害了",是几件事叠加的结果
看到这个数字,有几种解读,哪种都不全对。
解读一:DeepSeek把价格打下来了。2025年初DeepSeek系列发布以后,中国主流模型的API价格直接降了一个数量级。价格低了,调用自然多。这是最直接的原因之一。但价格便宜不代表质量差,V3.2的代码能力在好几个基准测试上已经跑进前三。
解读二:AI Agent开始真实落地了。月之暗面Kimi的国际业务负责人说了一句话:"企业在从数字化转型升级为AI转型。"这不是场面话,是我们自己也感受到的东西。Agent类应用的特点是Token消耗特别高——一次深度研究任务,背后可能跑几十次模型调用。随着Agent应用增多,Token消耗量会指数级放大。
解读三:很多海外AI创业公司也在调中国模型。北京理工大学的研究员说的,全球范围内有新创AI企业在做模型训练时调用中国基座模型。这一点容易被忽略——调用量不只来自中国用户。
摩根大通的预测,看起来很离谱
摩根大通预测,中国AI推理Token消耗量会从2025年的约10千万亿,增长到2030年的约3900千万亿——五年涨370倍。
第一反应是"这预测也太激进了"。但回头想想,2020年时谁能预测到2025年每周会有4.69万亿Token被调用?这种量级的增长,在技术扩散阶段是会发生的,尤其是当价格足够低、工具足够好用的时候。
当然,预测就是预测。国联民生证券的分析师提了一个更务实的观点:AI已经从"实验室阶段"进入"应用落地阶段",Token调用量上升是这个阶段转变的自然产物,和AI Agent的大规模普及直接相关。
我们自己的体感
实验室运着13个Agent,每天处理内容创作、行情分析、用户消息这几条线。说实话,我们确实在越来越多地调中国模型——不是因为情怀,是因为在某些场景下DeepSeek确实好用,而且便宜。
去年这个时候我们几乎清一色用Claude/GPT。现在的组合是:复杂推理和写作还是偏Claude,代码生成和快速任务DeepSeek用得越来越多,图像那条线在另外跑。这个变化不是一夜之间发生的,是一次次实际任务跑下来调出来的。
4.69万亿Token这个数字,某种程度上说明有大量团队正在经历和我们一样的过程:试、跑、对比、选、留下来。
下一个问题
调用量第一是一回事,能不能持续赚到钱是另一回事。Token价格战打到这个地步,谁能靠推理服务活下去、谁在亏本补贴市场,还是个开放问题。
但至少有一件事可以确认:2026年,"AI应用层"的竞争已经不再是PPT阶段了。开发者真实在用,企业真实在付费,数字不会说谎。
中国AI的下一关,是把这个调用量转化成可持续的商业模式。用量第一,只是个开始。
SFD编者注:实验室目前的多模型路由策略正是这个大背景下的产物。我们在OpenClaw里跑着自定义的API代理,按任务类型动态分配模型,既考虑质量也考虑成本。这篇文章本身,就是用这套系统跑出来的。