
要是AI不赚钱,云厂商就亏麻了

文|数据猿
过去一年,云厂商们似乎达成了某种共识:只要AI是趋势,就应该"重投算力"。
于是我们看到,AWS、微软云、谷歌云,以及腾讯、阿里、华为、百度、字节纷纷宣布加码AI基础设施建设,开设智算中心、采购上万张GPU、投入百亿级资金用于新一代AI集群建设。媒体称之为"新基建",资本市场称之为"下一个增长曲线",从外部看,这场AI算力扩张仿佛势不可挡。
但一个关键问题,却越来越少有人愿意面对:这些动辄数百亿甚至上千亿的资本支出,真的能赚回来吗?
商业逻辑从来不是靠愿景驱动的,而是靠投入产出比成立的。
在AI落地仍存在巨大不确定性的背景下,云厂商提前建好的这些"超级智算平台",能否找到足够的业务量来消化?能否在C端找到支付能力?能否在B端跑通闭环场景?如果答案是否定的,那这场资本豪赌,可能就是又一次"重资产陷阱"。
今天,我们必须认真地追问:
AI是否已经真正进入"规模化商用"阶段?
企业客户是否愿意为AI买单?能否形成持续需求?
云厂商的"智算基建"到底是在铺路,还是在埋雷?
"智算狂飙"背后的资本支出,到底有多大?
从2023年开始,头部云厂商几乎集体启动了"智算军备竞赛"。
亚马逊、微软、阿里、腾讯、百度、字节跳动等在密集扩张算力资源,积极布局万卡级GPU集群。
科技巨头的资本开支 数据来源:公司财报,领导层发言,市场预测等
在资本市场和媒体的渲染下,构建智算中心俨然成了下一轮"国家级AI新基建"。
但这些投入,并不是简单的"再买几台服务器"——这是一次真正意义上的千亿级重资产下注。
具体有多大?
根据公开资料估算:构建一个万卡规模的H100训练平台,仅硬件采购就可能超过60亿元人民币;
若包含GPU采购、数据中心扩建、电力配套、网络互联、运维体系等,单一智算中心的投资规模可能高达80–120亿元;
如果是全国布局、面向B端服务的平台化算力部署,三年投入轻松突破300–500亿元。
一些更激进的企业,计划在未来3–5年内投入1000亿元级别资金,仅用于智算平台建设。
这不是一场小赌怡情,而是一场"用真金白银换未来可能性"的产业豪赌。
投入回报比,至今仍模糊。
资本开支不是错,但前提是能算得清未来的回报路径。问题在于:
目前国内大模型的商用形态仍在不断试探;
API调用量上不去,模型服务收入尚不稳定;
B端客户用得多、付得少,C端用户看得热闹、掏钱寥寥;
很多"智算平台"虽已建成,但使用率并不高。
这些都意味着:目前投入的大量智算资源,还没有被"真实业务"充分消化掉。
如果业务需求跟不上,那这些算力就变成了高耗能、重折旧的闲置资产;如果AI商用无法真正跑通闭环,那"基础设施建好了"的价值,也很难兑现。
这就引出一个必须深入思考的核心逻辑:算力建好了,不代表能卖得出去;能卖出去,也不代表能卖得值。
C端:用户很多,付费意愿仍不足
从用户规模来看,大模型类产品在C端已经进入了"现象级"的阶段。
OpenAI的ChatGPT在全球拥有超过1亿活跃用户,Claude、Gemini也都取得了不小的增长。在国内,百度的文心一言、阿里的通义千问、字节的豆包,以及Kimi、智谱清言等独立产品,都实现了千万级用户突破,更不要说DeepSeek的爆发式增长了。各类AI助手小程序、AI写作工具、AI摘要服务,正在迅速扩散。
表面上看,这是一个被广泛接受的新技术形态。但如果从商业角度来看,问题就变得复杂了:用户量高≠收入高,使用频繁≠愿意长期付费。
(一)订阅意愿有限,ARPU远未形成稳定模型
ChatGPT的Plus套餐(月费20美元)虽然具备一定转化率,但其收入主要靠极少数高频用户支撑。即使是在北美、欧洲这样成熟的SaaS市场,整体ARPU仍然偏低。
国内市场的情况更加微妙:
大多数平台提供"免费体验+付费升级"模式;
但在尝鲜热度退潮后,稳定续费用户数量并不多;
平均月活用户的付费转化率仅在2%–5%之间,且易受话题、舆论、功能更迭影响。
这意味着,大模型产品即使拥有千万级用户,其月收入也很难支撑起背后的高额算力成本。
(二)轻度使用为主,未能成为"刚需工具"
目前C端用户使用大模型产品的方式,仍以"泛内容生成"和"轻互动式问答"为主:
生成一段文案、写一篇简历、润色一句话;
总结文章、做个表格公式、写点PPT提纲;
问一些通识问题、聊天、创意启发。
这些场景对用户有价值,但大多属于"可替代性高、使用频率不连续、单次价值密度低"的类型。更重要的是:这些场景不具备"高频刚需"特征,也缺少长期粘性。
这与搜索、社交、支付等平台型服务的消费结构完全不同,后者是日常刚需;而大模型更多像是一个"辅助性工具"——好用,但不是必须。
(三)用户对付费门槛极为敏感
即便部分用户愿意使用GPT-4、文心大模型、Claude等服务,绝大多数人也会在遇到价格时停下脚步。
许多用户表示:"偶尔用一用,不值得长期付费。"
一些轻量场景被用户转向本地部署的开源模型或小模型,越来越多技术用户选择"免费方案+自定义提示词+提高效率",而不是购买订阅服务。
结果是:AI服务对用户有吸引力,但对"支付意愿"却缺乏足够抓力。这让平台陷入一个困境:不能关停免费服务来压榨转化,又难以支撑越来越高的算力成本。
(四)平台的商业回报模型尚不明确
大模型公司曾寄希望于"用户增长→大规模订阅→提供API/工具生态→打通变现"。
但现实是:免费用户增长快速,但变现路径走得极慢;开发者工具生态构建仍不成熟,未形成强粘性;与内容、电商、教育等平台的融合尝试也仍在实验阶段。
OpenAI虽然估值极高,产品话题度爆棚,但仍在大额亏损中运营。部分国内平台为了降低成本,甚至在内部推行GPU推理限制、日调用封顶等策略,以控制免费用户消耗资源的速度。
这都表明一个事实:C端大模型产品仍未建立可持续的收入模型。
C端市场并非没有前景,但短期内,它的价值更多在于教育市场、扩大认知、验证产品能力,而不是稳定的商业回报渠道。如果云厂商将千亿级智算平台的回本路径寄托在C端规模变现上,那至少在当下,这个路径是尚未跑通的。
B端:试得多、用得浅,付费决策仍在摇摆中
相比于C端用户的"体验为主、轻付费"特征,云厂商对大模型商用前景的主要希望,集中在B端市场。
在他们的设想中,大模型将成为企业的"智能操作系统",以API、SaaS、PaaS等形式嵌入各类行业系统中,从而催生稳定的算力需求和持续的付费收入。
但现实是:企业客户确实在尝试用大模型,但用得还不深,决策依然保守。商用需求的增长幅度,远不及基础设施扩张的速度。
(一)"尝试氛围"很浓,但多半还停在试验室阶段
过去一年,不少大模型平台都公布了B端合作客户名单,涵盖金融、制造、教育、零售、能源等多个行业。
实际采访和调研中可以发现:
企业客户普遍愿意试用新模型,参与AI沙箱测试、API调用试用、共建轻应用;
但很少有客户将大模型作为正式的业务中枢部署;
绝大多数试点项目都具有"低风险、低强度"的特征,例如:AI生成文案、内部知识问答、客服脚本建议、合同审核、代码优化建议等。
这些场景有价值,但本质上是边缘辅助模块,无法形成强黏性的业务入口,也很难沉淀出刚性采购预算。
(二)核心问题一:幻觉、稳定性、责任边界仍未解决
企业在大规模采用AI系统时最关注的是三个核心问题:
1. 输出是否可信?
幻觉问题目前仍未根本解决,大模型经常给出"合理但错误"的内容。
2. 行为是否可控?
复杂指令组合、多轮对话任务中,模型行为存在不确定性,不利于流程稳定性管理。
3. 谁对结果负责?
AI输出作为参考意见还可以接受,但若嵌入核心业务流程(如信审、风控、审批、数据分析决策),责任归属变得模糊。
这些问题在技术进步下逐步改善,但仍然让企业在"把AI部署到主业务系统里"这件事上非常谨慎。
(三)核心问题二:成本高、回报难估算
即使企业愿意部署AI系统,下一道门槛是——价格是否合理,投入是否值得。
当前主流大模型推理成本仍较高,特别是多轮对话、多模态输出、文件处理类场景,单次调用资源消耗大,难以压缩成本。
此外,大模型服务的采购模式尚不成熟:按调用计费模型让企业缺乏成本预期;包月订阅费用则存在"用不满"焦虑;客户不清楚该按人头、按项目,还是按调用量付费,这使得预算编制、决策流程复杂化。
更重要的是,大多数企业在试用之后发现:AI的潜在价值很大,但目前很难精确计算ROI。
结果是,AI项目容易立项、难以扩展、预算有限、随时中止。
(四)还有一个现实:大模型不是不可替代
大模型能做的事,有些已经在企业内部通过传统方式完成:
客服脚本→RPA机器人;
文案生成→外包内容团队;
合同辅助→规则引擎+专业软件;
数字员工→表单系统+低代码平台。
这些传统工具虽然智能程度不高,但成本低、行为可控、流程透明。
这使得大模型在很多场景中还只是"锦上添花",而非"刚需替代"。
企业客户对AI有兴趣,也有试验意愿,但距离形成稳定预算、明确采购路径、全面上线部署,还存在明显距离。
这意味着:To B的大模型市场目前仍在"探索期",尚未进入真正的"规模化商用期"。
如果云厂商以为可以像云存储、CDN一样出售"标准化的算力服务",那么在大模型场景下,这个模式很可能跑不通。
算力卖不出去,资本开支可能变成风险资产
当一家云厂商投入数百亿、甚至上千亿资金建设AI智算基础设施时,它买的不只是服务器、GPU、电力系统和冷却方案,更是在押注一个前提:未来这套系统能被广泛使用,并且持续产生商业收入。
这个前提如果成立——哪怕几年内不盈利,也可以视为"基础设施建设"。但如果不成立,投入就可能从"战略资产"转变为"风险资产"。
(一)算力是一种高度消耗型资源,不使用就贬值
与传统IT资产不同,AI智算资源具备两个显著特征:
1. 密集消耗能源与维护成本
万卡GPU集群日常运转需大量电力、冷却与运维团队,闲置状态下仍有较高固定成本。
2. 快速技术迭代导致设备折旧加快
GPU芯片更新周期已压缩到1.5–2年,新型号性能翻倍,意味着旧设备在价格和性能上很快边缘化。
如果业务需求无法支撑这些算力长时间高负载运行,平台就容易出现资源闲置+折旧损耗+成本堆积的问题。
从财务角度看,这些就是难以回收的"重资产沉没成本"。
(二)一体机能卖,不代表智算服务能卖
当前一些厂商通过交付"大模型一体机"获得了初步收入,形成"设备+服务"的一体化交易结构。
但这类交付本质上更接近传统IT集成项目,而不是云平台型收入模式。 一体机销售多数为一次性或年维保结算; 企业客户倾向于"买断"模型,而不是长期绑定算力服务;模型后续更新、微调、优化、推理等仍需企业自己承担,与云厂商形成不了持续交易关系。
这种模式无法形成类似公有云的"月活跃、持续订阅、流量计费"的商业闭环。也就是说,即便出货量看起来不错,但实际很难建立平台粘性和规模效应。
(三)API调用能否支撑平台回本,仍是未知数
云厂商普遍希望通过开放API、按调用计费的方式,把模型能力变成一种"AI即服务"的持续收入来源。
但目前来看,这条路径存在几个风险:
企业客户规模小,调用频率低;
模型推理成本高,价格难压低;
定价机制复杂,不利于客户预估预算;
高质量模型往往要求更多定制,通用服务难以满足;
这使得"模型API调用"可能成为技术上可行、商业上薄利的产品形态,很难像当年云存储、CDN那样形成规模化、稳定、利润率合理的服务闭环。
(四)资本开支已形成沉没成本压力
据行业测算,构建一个万卡级别的智算平台,三年资本支出可能在80亿至120亿人民币之间。如果平台未能高效运营、持续输出服务,算力利用率不足30%时,其财务压力将在未来两年内显现:
持续的电力和维护支出无法摊薄;
账面折旧加速,影响资产负债表;
项目财务回报率低于预期,投资回收期大幅拉长;
若估值建立在"平台潜力"之上,实际数据将削弱资本信心。
简言之:如果业务增长追不上算力投入节奏,这些平台就可能变成"闲置资产",甚至成为"财务黑洞"。
构建AI智算平台本身没有问题,问题在于:当平台能力远超市场需求时,这些资本开支不再是战略布局,而可能成为失配资源。
未来三年,将是决定这些投资是"高瞻远瞩"还是"高估预期"的关键窗口期。
这轮"智算投资"是否合理?可以从五个维度来判断
在任何一轮重资产技术投资中,判断投入是否"值得",不能只看技术先进性,也不能只看短期收入,而要回到一个基础问题:这笔钱是否能够形成结构化的商业正循环?
对于AI智算平台而言,这个正循环的形成,需要满足五个条件:
(一)产业场景是否足够刚性?
基础设施要回本,前提是有长期且刚性的算力消费需求。
如果大模型服务最终只是用于边缘功能、轻量场景,如生成文案、答题、写PPT,而不能深入关键业务系统,那么企业的算力需求就很容易被压缩或替代。
反之,若AI能力能够真正进入核心流程(如金融审批、供应链预测、研发辅助、生产控制),才可能构成稳定的算力消费。
判断依据:客户是否将AI系统纳入核心系统预算中,而非"创新试点"或"市场尝鲜费用"。
(二)付费路径是否清晰稳定?
客户不拒绝AI,但他们更不喜欢复杂、浮动、无法预估的付费模式。
目前大模型服务的收费方式存在一定不确定性:
是按调用次数,还是按字符数?
是按时间订阅,还是按模型等级?
企业用多会不会反而负担高涨?
如果云厂商无法提供透明、可控、具备性价比的商业模型,客户的决策会更加谨慎,甚至转向内部模型部署或开源方案。
判断依据:企业是否愿意将AI服务纳入长期采购合同,而非只做短期试用或年度试点。
(三)客户体量是否能持续增长?
平台型能力必须拥有广泛的客户基础才能形成网络效应和边际成本递减。
如果当前使用AI服务的客户群体依然集中在"头部科技公司""金融大行""尝试型国企",而中小企业、传统行业客户尚未规模化进入,那说明市场尚未真正打开。
判断依据:是否出现跨行业、跨企业规模的"重复客户",是否出现多个"十亿级算力年付客户"。
(四)模型能力是否构成持续壁垒?
大模型不是"一次性交付型产品",而是持续优化、持续推理、持续演进的服务能力。
如果平台上的模型不能不断提升质量,不能在行业场景中具备"不可替代性",企业客户可能会迁移到更便宜、更轻量的开源模型,甚至自建小模型栈。
判断依据:是否能将模型能力与平台服务深度绑定,形成"持续依赖"关系,而非"迁移成本很低"的松散使用。
(五)平台是否能形成生态闭环?
最终决定一个智算平台价值的,是它能否形成一个高效的供需匹配网络:有足够多的开发者、服务商、工具组件、行业插件;有清晰的SLA、调度、权限、安全、计费机制;能让企业不只"买算力",而是"解决问题"。这才是从"硬件平台"走向"AI平台"的质变过程。
判断依据:是否形成一个能够吸引第三方能力沉淀、持续扩展场景的生态系统。
判断AI智算投资是否合理,不能只看GPU用了多少、API卖了多少、客户接了多少。
☆真正的核心是:它是否在构建一种可持续的"能力基础设施网络",并具备稳定的需求入口与回报机制。
AI不是不能投,而是不能"无视边界地"投
过去十年,云计算的发展路径清晰明确:资源池化→SaaS爆发→客户主动迁移→收入稳定增长。
而今天的大模型智算平台,面对的却是一个更模糊的现实:
C端用户多,但支付能力与使用深度不足以覆盖成本;
B端企业试得多,用得浅,决策周期长、预算极谨慎;
模型商用路径尚未跑通,API变现压力大;
大量算力还在平台"内部自耗"阶段,尚未流向广泛市场。
回本周期难测,需求量体不确定,商业模式仍在不断试错。对云厂商来说,这不是一场短跑,而是一个可能持续五年以上的技术周期博弈。
但前提是:投资要与需求节奏相匹配;服务要与客户真实场景形成深度绑定;平台必须具备长期演进能力,而不是停留在"重资产+一次性收入"的旧逻辑中。
未来的AI平台真正的价值,不只是"提供模型",而是:能够稳定、低成本地提供持续演进的智能能力,嵌入行业流程中,解决实际问题。这需要模型能力、算力平台、服务体系与生态构建之间形成闭环。
如果这个闭环无法建立,那么再大的GPU集群、再贵的数据中心、再快的布点节奏,都可能只是重复上一个时代IT行业"重投入、轻转化"的老故事。
AI不是不能投,而是不能盲目地"先建起来再说"。基础设施的价值,永远建立在"能够被持续使用"的前提之上。