文章
龙虾带火腾讯云涨价400%,普通人还用得起AI吗?

龙虾带火腾讯云涨价400%,普通人还用得起AI吗?

2026年3月16日 10:25·36kr

云计算只能降价的幻觉,在2026年被戳破了。

近日,腾讯云智能体开发平台宣布,将对部分模型的计费策略进行优化调整。

根据公告,本次调整主要涉及两类变更,一类是公测模型结束免费,GLM 5、MiniMax 2.5、Kimi 2.5模型将于3月13日结束免费公测,转为正式商用服务;另一类变更为对混元系列模型Tencent HY2.0 Instruct与Tencent HY2.0 Think服务进行涨价,部分模型涨幅超400%。

而腾讯云,并非首个涨价的云平台。

2月11日,优刻得发布了关于产品服务价格上浮调整的公告。优刻得表示,近期由于全球供应链波动持续加剧,核心硬件采购等基础设施成本出现显著且结构性的上涨。经过慎重评估,决定自3月1日起,对续签及新签用户的全线产品与服务进行价格上浮调整。

这股涨价浪潮,并不只是中国本土云厂商的集体躁动。把目光拉到大洋彼岸,会发现更早的那块多米诺骨牌,其实是亚马逊悄悄推倒的。

1月4日,在没有公告函,没有发布会的情况下,AWS将EC2的价格上调约15%,旗舰机型从每小时34.61美元涨到了39.80美元。

谷歌云没等太久,随即宣布自今年5月1日起,上调全球数据传输服务价格,北美地区每GB费率直接翻倍,从0.04美元涨至0.08美元。没有大张旗鼓,一纸公告,就这么定了。

AWS、谷歌、腾讯、优刻得,横跨太平洋,东西方的云厂商们,在同一个时间窗口里,不约而同地做出了涨价的决定。也打破了一个持续了将近二十年的行业信仰:云服务只降价,不涨价。

那么,这次涨价是行业二十年降价神话的终结,还是一次周期性的价格修复?Token的单价,会因此一路水涨船高吗?未来你为AI付出的总账单,会越来越便宜还是越来越贵呢?

01

前二十年云厂商怎么把价格打下来的?

这次涨价令人震惊的原因,主要是用户们早已习惯了云计算连续二十年的降价生意。

云计算这门生意,骨子里是一场关于“规模”的豪赌。

2006年,亚马逊推出AWS的时候,逻辑其实很朴素,自家数据中心有大量闲置服务器,与其让它们吃灰,不如按小时租出去。这个听起来像“出租仓库空余货架”的生意,在接下来二十年里,把全球IT行业的底层基础设施翻了个底朝天。

据超聚焦不完全统计,AWS在过去的二十年里,累计主动降价的次数早就超过了一百次。而在国内,阿里云、腾讯云们更是把“降价”当成了一年几度的狂欢节。这种连续多年近乎“自残”的定价策略,把全球IT行业的基础设施硬生生地砸出了一个深坑。

这在任何其他行业都是天方夜谭的事,没有哪个房东会年年主动给你降租金,没有哪家超市会每个季度把货架上的价格标签往下调。但云计算行业,就是做到了,而且一做,就是二十年。

那么,为什么只有云计算行业能做到?

原因其实很简单,把价格打下来,首先是因为物理世界在给他们撑腰。

传统云计算,也就是我们常说的IaaS层(基础设施即服务),本质上卖的就是“铁皮和电”。无论是计算实例、存储空间还是网络带宽,它都是极其标准化的数字水电煤。而这些数字资源的底层,受制于一条近乎残酷的物理法则:摩尔定律。

芯片晶体管的密度每隔18到24个月就会翻一倍,这意味着单位算力的物理成本一直在呈现自由落体式的下跌。云厂商采购新一代服务器的成本越来越低,他们相当于坐享了这波技术周期的巨大红利。

但这份红利,却从没完整地进入过云厂商的口袋里,因为传统云服务的同质化实在太严重了。

你家的服务器能跑代码,别人家的也能跑。如果你贪图利润,不把硬件降价的红利传导给客户,你的竞争对手明天就会出一个比你低30%的报价单,直接把你辛辛苦苦攒下的客户盘子连锅端走。

所以,降价不是一种选择,而是一种为了生存的本能防御。你不主动降价,有的是云厂商要降。

而除了技术推动外,规模效应也是云服务的又一大特征。

建一个超大型数据中心,买地、拉电线、盖机房、买几万台服务器,这是一笔动辄几十上百亿的恐怖固定投资。

一旦这个数据中心建好了,冷气吹起来了,服务器转起来了,这时候如果再多接入一个创业公司的网站,或者多处理一百万条数据请求,云厂商需要付出的边际成本是多少?答案是几乎等于零。顶多就是多耗了几毛钱的电费而已。

这就是云计算最迷人的商业杠杆。规模大到一定程度后,你服务的客户越多,均摊到每个客户头上的固定成本就越薄。

在这个逻辑下,大厂们看得很通透。只要能把盘子做大,眼前的单价根本不重要。用极低的价格去疯狂抢占市场份额,有了份额就能摊薄成本,成本降下来了就可以继续用更低的价格去卷死同行,这是一套无懈可击的正向飞轮。

巨头们的算盘打得震天响,这套“低价换垄断”的理想确实很丰满。按照原定的剧本,只要资金弹药足够充足,总能把那些底子薄的同行熬死。等到自己一统江山、独霸天下的那一天,定价权自然就死死捏在了自己手里。

但现实的骨感在于,能坐上这张牌桌的玩家,有一说一,全都是武装到牙齿的“列强”。

放眼望去,大洋彼岸是亚马逊、微软和谷歌这“三座大山”,国内则是阿里、腾讯、华为这些口袋深不见底的狠角色。大家手里都有花不完的现金流,都有就算主业贴钱也绝不能下桌的战略底线。你想用低价把我耗死?对不起,大家都是万亿估值的巨头,谁又比谁少一口气。

于是,云计算的降价硬生生打成了一场长达二十年的泥潭消耗战。

客观来说,正是这种毫无退路的残酷互卷,实打实地推动了整个云计算行业的技术狂飙。它把原本高不可攀的企业级IT设施,硬生生变成了今天的“水电煤”。没有这场长达二十年的价格战,就没有今天繁荣的互联网生态。

但这个将所有互联网巨头都卷入其中的降价旋涡,却从来没有停过。直到2026年,大模型需求的大爆发,突然让这个转了二十年的降价飞轮卡了壳。

02

短期涨价是假动作,长期账单才是真杀局

云厂商之所以突然变脸开始集体涨价,原因其实非常实在:他们机房里的硬件,快被2026年初突然爆发海量的AI需求给干冒烟了。

大模型刚火的时候,巨头们并没有立刻提价,反而大搞免费公测。这就好比超市刚进了新口味的饮料,先摆在门口让你免费试喝。这时候大家只是尝个鲜,问大模型几个搞笑问题,用量并不大,云厂商那点算力储备完全罩得住。

但到了2026年,情况彻底变了。企业发现这玩意儿真能干活,开始把客服系统、内部数据分析甚至核心业务流,全盘接入了大模型。个人用户也发现,Openclaw这样的Agent产品,好像真的能帮自己做些没那么复杂的任务。

这时候,Token的消耗量就不再是细水长流,而是海啸一样的爆发。

就像优刻得在公告里交的底,说“核心硬件等基础设施成本出现显著且结构性的上涨”。这话翻译过来就是:你们用得太猛了,我去买顶级显卡和交电费的钱,已经把老本都快掏空了。

这就是眼下这波涨价潮最真实的底层逻辑。它根本不是什么云厂商终于掌握了定价权,而是一次极其尴尬的“供需错配”。

现在的云端机房里,很多跑推理的设备,其实是最初为了“训练”大模型而买的通用重型GPU。拿这种又贵又耗电的产品去处理日常海量的Token生成,成本自然全线崩塌。

一边是企业暴涨的使用量,一边是手里效率低下的旧账本,云厂商扛不住现金流的压力,只能通过涨价来给自己回一口血。

不过,很多人看到腾讯云结束免费、AWS上调费率,心里就慌了。大家理所当然地觉得,既然AI越来越聪明,成了离不开的刚需,那云厂商以后肯定会漫天要价,未来用大模型的账单只会是个无底洞。

其实,这完全是自己吓自己。现在的算力贵,是因为我们正处在一个硬件“青黄不接”的尴尬期,但造芯片的巨头们可没闲着。

当大模型的应用场景彻底铺开后,市场已经不需要那么多用来“练脑子”的训练芯片了,而是急需海量的“干苦力”的推理芯片。未来很快,专门为生成Token进行针对性设计与优化的新一代推理硬件就会大规模塞满数据中心。

譬如,在即将召开的GTC大会上,业界推测最大的亮点之一,就是英伟达将会推出整合了LPU技术的全新推理芯片。而除了英伟达之外,国内的寒武纪等厂商,做的也都是推理芯片的生意。

这些新硬件砍掉了没用的计算单元,专攻数据的吞吐。这就意味着,在消耗同等电量的情况下,新机器产出Token的效率会呈指数级往上翻。一旦底层的物理效率提上去了,单个Token的成本就会继续降低。

更关键的是,除了硬件在迭代,软件工程师们把成本往下抠的本事,也已经到了登峰造极的地步。

过去模型比较傻,你问一句今天天气怎么样,它要把几千亿参数的整个大脑全唤醒一遍,浪费了无数的电。现在大家都在拼命优化底层架构,通过混合专家模型等技术,让系统只唤醒负责天气的“那一小撮脑细胞”,剩下的大部分继续休眠。

这种在软件层面对算力的极限压榨,配合上新一代硬件的落地,会让云厂商机房里生成一个Token的真实成本持续下滑。

所以,这次涨价大概率仅仅是旧硬件被新需求榨干时的一次短暂反弹,单个Token的价格,还在朝着接近零的方向俯冲。

03

便宜的是Token

昂贵的是“智能”

既然Token的单价注定会跌成白菜价,那我们是不是很快就能实现“AI自由”了?

答案并非如此。当我们说“Token变便宜了”,默认完成同样的任务,消耗的Token量是固定的。但这个假设,在AI从“问答工具”进化为“Agent智能体”的过程中,已经彻底失效了。

2023年的时候用AI是什么体验?你输一段话,它回一段话,一次对话消耗一两千个Token,对应几分钱的成本。

但在2026年后,AI的使用范式发生了根本性转变。当一个Agent被要求独立完成一项真实的商业任务,比如分析一份竞品报告、帮你审核一份合同、自动处理一批客户邮件,它在后台要做的事情远比你想象的复杂。

它会在暗中一步步推演逻辑,会反复去调用搜索引擎和公司的数据库。如果发现自己没有完成任务,它甚至会自我去技能库里面学习新的技能,然后再尝试完成。

在这套复杂的工作流里,AI在后台每纠结一次、每调取一次工具,你的Token都在狂飙。所以,相比两年前的AI应用,Token消耗量可不只是几倍十几倍的增长了。

经济学里有个特别经典的蒸汽机故事。150年前,瓦特改良了蒸汽机,用煤的效率大幅提升。按理说大家该省下不少煤了吧?结果恰恰相反,因为成本降了,所有的工厂都在疯狂上马蒸汽机,最后整个英国的煤炭消耗量反而原地爆炸。

今天大模型的算力消耗,正在一分不差地复刻这个剧本。效率越高,单价越低,总消耗反而越大。

有人会问:既然算法在持续优化,会不会有一天效率提升得够快,足以抵消消耗量的增长?

结果是令人遗憾的,无论算法如何优化,AI的运算最终要在物理世界中发生。

每一次硅基晶体管的状态翻转,每一滴冷却液的循环,都需要消耗实打实的电力和能源。当全球数以亿计的Agent开始7x24小时不间断地接管人类生活和工作中的海量任务,这种全天候的、指数级膨胀的超高频调用,最终都会化作数据中心里永不停歇的轰鸣和飙升的电表数字。

物理世界的能源天花板,注定了算力不可能凭空无限生长的。这也回答了我们在文章开头提出的那个核心问题:未来你为AI付出的总账单,会越来越便宜还是越来越贵?

答案十分明确且扎心:绝对金额一定会越来越贵,甚至会贵得多。

如果把以上所有的商业逻辑与物理常识推演到终点,我们会得出一个令人极度不适的“暴论”。

在过去的三十年里,古典互联网时代编织的是一个温情脉脉的叙事:技术是伟大的“平权机器”。搜索引擎让所有人都能平等地获取信息,社交媒体让草根拥有了声量,智能手机填平了城乡的信息鸿沟。由于软件分发的边际成本趋近于零,技术红利得以跨越阶层,普惠大众。

但在AI时代,这个乌托邦式的逻辑,正在残酷地断裂。

当大模型从“对话框里的百科全书”真正进化为“代替人类思考决策的超级Agent”时,它天然就是一个深不见底的Token吞金兽。那种真正强大的AI能力,绝不会像当年浏览网页一样趋近于免费。它的成本,会随着任务复杂度的几何级跃升,成正比地无限放大。

可以预见的是,当云计算长达二十年的“降价普惠”已经走到了尽头,未来的智能,将不可避免地呈现出一种极其森严的“阶层化”。

处于资金链顶端、用得起高质量AI算力的人或企业,他们的生产力将被优质Agent指数级放大。他们的商业嗅觉更敏锐、决策链路更短、执行效率远超常人,而这种优势还会随着高频调用所产生的数据飞轮进一步叠加,对下层形成降维打击。

而付不起昂贵账单的普通人和中小企业,将只能依靠被简化、被稀释、套着免费外壳的“低配版智能”。这种版本能帮你写写应付差事的周报、画两张配图,但面对真正能跨越阶层的复杂商业博弈、顶级医疗诊断或硬核法律分析时,它只能给出似是而非的废话。

这不是科幻小说里的反乌托邦想象,这是最冷冰冰的现实与发生在我们身边的未来。

从古至今,廉价的从来都只是单纯的“计算”与“信息”。而真正顶级的“认知”,永远昂贵,永远是少数人的特权。大模型不仅没有打破这层壁垒,反而用飙升的电表和昂贵的Token账单,把这道认知之墙砌得比任何时候都更高,也更让人难以察觉。

这才是这波云服务涨价潮背后,让人感到战栗的时代真相。

本文来自微信公众号“超聚焦foci”,作者:肖恩,36氪经授权发布。