“龙虾”挥钳,算力吃紧
“龙虾”挥舞的双钳下,是一个深不见底的算力黑洞。

有机构算了一笔账:相比传统聊天机器人,智能体的Token(词元)消耗动辄放大数十倍,一个稍微复杂一点的任务,背后吃掉的算力,甚至可能是普通对话的百倍、千倍。有科技博主实测,如果真把“龙虾”当成生产工具放开用,一周下来,费用接近万元。
数据是最直观的注脚。“养虾”火起来之后,模型调用量极速攀升。全球API聚合平台OpenRouter的数据显示:3月16日至22日,全球大模型调用量已经达到20.4万亿Token,一周涨了两成多。其中,中国大模型的周调用量涨幅更是超过五成,并且已经连续第三周超过美国。当周全球调用量排名前四的模型,也全部是“中国造”。
国家数据局公布的数据显示,今年3月,中国日均Token调用量已突破140万亿,两年增长了上千倍。
在不少业内人士看来,这样的增长既令人兴奋,也暗含隐忧。
3月27日中关村论坛年会的一场AI主题论坛上,算力缺口几乎成了绕不开的话题。“OpenClaw带来算力需求的暴增。”无问芯穹CEO夏立雪观察到,“上次见到这样的增速,还是当年3G手机刚普及,手机流量不够用的时候。以后我们的手机里可能会有两张卡,一张是SIM卡,一张就是‘Token卡’。”
问题在于,需求的曲线已经陡峭起来,供给却还没完全跟上。“让更聪明的模型执行更复杂的任务,资源消耗极大。如果算力不够,一个问题丢进去半天没有响应,一切体验都是空谈。”智谱华章CEO张鹏说得直白。在他看来,推理需求正以百倍级别爆发,算力很可能成为制约行业发展的核心瓶颈。
夏立雪认为,当前阶段,与其单纯扩张算力规模,不如把已有资源用到极致。围绕这个目标,他提出,应加快构建更高效、标准化的“Token工厂”,提供持续稳定、规模化的Token服务,使顶尖模型能力高效赋能海量下游场景,尽可能提升每一个Token的转化效率,让算力“花得值”。
再往远一点看,未来的基础设施本身也会走向智能化,可以自我调度、自主优化,甚至内置Agent来充当“管理者”,让算法与算力系统形成更紧密的深度协同。
面对“算力焦虑”,也有人重申架构创新的价值。
小米MiMo大模型负责人罗福莉回忆,两年前,在算力受限的情况下,中国团队依然通过模型架构创新,“逼出”更高效率,比如DeepSeek的探索,“这给了我们勇气和信心”。
如今,虽然硬件条件已经改善,国产芯片不再受限,但这种对更低推理成本、更高算力效率的探索,依然会在智能体时代成为未来竞争的关键。















13501698868