AI 的经济模型说不通 [无广告版]AI's Economics Don't Make Sense [Ad Free]
这是上一篇的无广告版本,内容一致但面向订阅用户提供完整体验。文章重申 AI 行业经济不可持续的论点,强调即使去掉广告干扰,核心问题依然存在——高昂的算力成本无法被合理定价所覆盖。作者再次引用具体数据说明 OpenAI 和 Anthropic 等公司在基础设施上的巨额支出远超其公开收入。最终观点不变:若无根本性商业模式创新,AI 公司将陷入财务困境。
Ed Zitron
大家好,付费订阅用户!这是本周无广告免费通讯。有任何问题或想爆料?请邮件联系我:ez@betteroffline.com,爆料请通过 Signal 联系 ezitron.76。
昨天早上,GitHub Copilot 用户确认了我一周前报道的消息——所有 GitHub Copilot 计划将于2026年6月1日起转向基于使用量的定价模式。
微软将不再按用户获得的“请求”数量收费,而是根据用户实际使用的模型成本来计费,这被其称为“迈向可持续、可靠的 Copilot 业务和体验的重要一步”。取而代之的是,用户将获得与其 GitHub Copilot 订阅费用等额的额度(例如:每月19美元的计划可获得19美元的 token)。
换句话说:“我们无法再继续补贴 GitHub Copilot 用户了,否则 Amy Hood 就要拿棒球棒敲人了。”
无论如何,这次公告本身为我们如何包装这些价格变动提供了一个有趣的预览:
Copilot 已不再是去年那个产品了。它已从一款编辑器内助手演变为一个能够运行长时间、多步骤编码会话的代理平台,使用最新模型,并在整个代码库中进行迭代。代理式使用正成为默认模式,带来了显著更高的计算和推理需求。如今,一次简短的聊天问题和一次长达数小时的自主任务编码会话对用户来说花费相同。GitHub 已经承担了大部分不断上涨的推理成本,但当前的 premium request 模式已不再可持续。基于使用量的计费解决了这个问题。它更好地将定价与实际使用情况对齐,有助于我们维持长期的服务可靠性,并减少对重度用户的限制需求。
你看,这并不是说微软在补贴近两百万人使用的算力,而是因为 AI 变得如此强大、复杂,本质上已经成为了一个不同的产品!
虽然 Copilot 可能“已不再是去年那个产品”,但底层经济错配几乎没有改变:即微软在过去三年中允许用户每月燃烧超过其订阅成本的 token。据《华尔街日报》2023年10月报道:
个人用户每月支付10美元使用 AI 助手。据熟悉该数据的人士称,今年年初,公司平均每月每位用户亏损超过20美元,一些用户甚至每月给公司造成高达80美元的损失。
自然,GitHub Copilot 用户群起而攻之,声称该产品“已死”且“彻底完蛋”。
而我早在两年前就在《次贷 AI 危机》一文中预言过这一点:
我推测一种次贷级别的 AI 危机正在酝酿之中,几乎整个科技行业都接受了以大幅折扣、高度集中并由大型科技公司大量补贴的技术。终有一日,生成式 AI 惊人的、有毒的烧钱速度将追赶上他们,进而导致价格上涨,或公司推出带有极其高昂费率的新产品和新功能——比如 Salesforce “Agentforce” 产品令人发指的每对话2美元费率——即使是有预算的大企业客户也无法承受。
而这一天终于到来了,因为你所使用的每一个 AI 服务都在补贴算力,并且每个服务都因此处于亏损状态:
当你为 AI 初创公司的服务付费时——当然也包括 OpenAI 和 Anthropic——通常需要按月支付费用,比如 Anthropic 的 Claude 提供每月 20、100 或 200 美元的套餐,Perplexity 的 20 美元或 200 美元月费计划,以及 OpenAI 的 8、20 或 200 美元订阅。在某些企业级应用场景中,用户会获得“信用额度”,用于衡量一定量的工作,例如 Lovable 在其每月 25 美元的订阅中为用户提供“每月 100 信用点”,同时还包括最多至 2026 年第一季度末的 25 美元云托管费用,且信用额度可跨月结转。当你使用这些服务时,相关公司会进一步为访问 AI 模型付费,要么按每百万 token 向 AI 实验室支付费用,要么(如 Anthropic 和 OpenAI)向租用 GPU 的云服务商支付运行模型的算力成本。一个 token 基本相当于四分之三个词。作为用户,你并不会直接感受到 token 的消耗,只会经历输入与输出的过程。AI 实验室通过“token”、“消息”或 5 小时速率限制配合进度条等方式模糊化服务成本,而用户其实并不清楚这些服务的实际花费。在后台,AI 初创公司正疯狂烧钱:直到最近,Anthropic 仍允许你在每投入一美元订阅费的同时,额外消耗高达 8 美元的算力资源。OpenAI 也是如此,尽管具体比例难以估算。
AI 初创公司和超大规模云服务商曾假设,他们可以通过补贴亏损的产品吸引足够多的人进入市场,从而让用户对服务产生依赖,一旦企业提高价格,用户也不会轻易离开。我还想象,他们可能认为 token 的成本会随时间下降——但实际情况并非如此。虽然某些模型的价格可能有所下降,但更新的“推理”类模型却消耗多得多的 token,这意味着推理成本反而随着时间的推移不降反升。
这两个假设都是错误的,因为按月订阅的模式对于任何基于大型语言模型的服务来说都站不住脚。
生成式 AI 的核心经济学原理已被打破。
可以这样理解:当 Uber(注意,这与 Uber 毫无可比性)开始大幅提高乘车价格时,其底层经济逻辑并未改变,无论是乘客还是司机所看到的计费方式依然一致——乘客为每段行程付费,司机也为每段行程获得报酬。司机仍需自行承担汽油费、车险、地方政府要求的各类许可费用,以及车辆相关的融资成本,而这些成本并未由 Uber 补贴。Uber 的巨大亏损主要来自补贴、无休止的营销支出,以及对自动驾驶等项目的 doomed(注定失败)研发投入。
生成式 AI 订阅模式与 Uber 完全不同。
为了说明 AI 定价错位的严重程度,我将请你设想一个截然不同的历史场景。
生成式 AI 的订阅模式就像 Uber 向用户收取每月 20 美元,换取最多 100 次不超过 100 英里的任意距离乘车服务,而与此同时,每加仑汽油售价高达 150 美元,并且 Uber 必须为乘客消耗的每一滴油买单——因为有人坚信石油终将便宜到可以随意倾倒。
最终,Uber 决定开始对用户使用乘车服务收取月费,并额外按实际耗油量向用户收费。这样一来,用户原本只需支付每月 20 美元即可享受 100 次乘车,现在却要支付 20 美元来调用司机,再为一次 10 英里的行程额外支付 26 美元。不难想象,用户对此会有何反应。
这听起来可能有点危言耸听,但实际上,它非常准确地描绘了生成式 AI 行业——尤其是 GitHub Copilot 的现状。
GitHub Copilot 此前的定价模式是每月提供 300 次高级请求,以及使用 GPT-5 mini 等模型进行“无限次聊天请求”。用微软的话来说,每一次这样的请求(即用户要求 Copilot 执行某项任务)都算作一次请求;而在基于请求的系统中,更昂贵的模型会占用更多额度,例如 Claude Opus 4.6 就消耗三次高级请求。一旦用完高级请求次数,用户在整个月内就可以随意使用那些较便宜的模型。
但情况并非一直如此。直到 2025 年 5 月之前,微软一直为用户提供对各类模型的无限访问权限,即便如此,用户仍对任何限制感到不满。
微软——就像所有 AI 公司一样——通过销售一种不可持续的服务来欺骗客户,因为从根本上说,以月度订阅方式出售基于大语言模型(LLM)的服务从来都不合理。
如果你想知道按 token 计费下服务可能的价格,一位在 GitHub Copilot Subreddit 的用户发现,原本单次高级请求所消耗的 token 成本约为 11 美元——因为一次“请求”涉及在上下文窗口中使用 6 万个 token、调用几个工具,并经历若干内部“轮次”(即模型正在执行的操作),最终生成输出结果。
此外,底层的大语言模型本身就容易产生幻觉(hallucination),这也带来了根本性的不可靠性。虽然高级请求不断循环却只吐出半截代码确实令人沮丧,但当用户自己承担这些成本时,同样的错误就显得更加不可原谅。
用户也已经习惯了以完全不同于 token 计费的方式使用该产品,我估计很多人甚至不清楚自己到底烧掉了多少个“token”,也不清楚某个特定任务需要多少 token——而这个数字会根据你使用的模型而变化。
这和 Uber 完全不是一回事,任何告诉你相反观点的人都是在为自己的不当行为找借口。Uber 或许提高了价格,但它不必彻底改变平台的底层经济逻辑,用户也不需要因为 Uber 突然按每加仑收费而彻底改变使用习惯。
月度 AI 订阅本质上都是 AI 补贴骗局,是有意为之,旨在将生成式 AI 与其真实成本割裂开来。
从经济角度来看,除非按每个用户的实际 token 消耗量收费,否则永远不存在一种经济上可行的方式来提供 LLM 驱动的服务;而这些公司在欺骗用户的过程中,也制造出了一些华而不实的产品,其投资回报率值得怀疑。
而且这种情况已经明显存在多年了。
从经济学角度看,只有当成本相对稳定时,月度订阅才有意义。健身房可以出售会员资格,因为它大致知道设备损耗、课程运营成本,以及一定时期内的电费、人力和水费是多少。
在引入人工智能之前,Google Workspace 的客户成本主要取决于访问或存储文档的费用,以及 Google Docs 等服务的持续使用费用。数字存储的成本相对较低(而且与大型语言模型不同,Google Workspace 并不特别消耗计算资源),这意味着重度使用 Google Drive 的用户并不会显著增加其月度订阅的边际成本。
相反,AI 用户的成本可能差异巨大。一位用户可能仅偶尔使用 ChatGPT 进行搜索,而另一位用户则可能上传大量文档、尝试重构代码库,或用其制作 PowerPoint 演示文稿。服务提供商——无论是像 OpenAI 或 Anthropic 这样的模型实验室,还是像 Cursor 这样的新兴公司——除了通过设置使用限制、缩小上下文窗口、引导用户使用更小(性能更差)的模型,或将定价调整以劝阻用户提出高 GPU 负载请求等方式使产品变差之外,实际上无法控制用户的具体行为。
然而,这些服务故意隐藏 token 数量或某项活动的实际成本,导致用户并不真正理解速率限制的含义,因此每当对速率限制突然进行调整时,客户就会陷入恐慌,拼命试图弄清楚自己还能用该服务完成多少实际工作。
这是一种具有欺骗性、操纵性和剥削性的商业模式,其存在唯一目的就是让 Anthropic、OpenAI 及其他 AI 公司能够快速扩大用户基础——因为大多数 AI 用户完全通过“每花费 8 至 13.5 美元订阅费可兑换一美元 token”的感知来认识其真实或想象中的价值。
这种蓄意的欺骗行为只有一个目标:确保绝大多数人永远不会接触到生成式 AI 的真实成本。当《大西洋月刊》撰写一篇歇斯底里的文章,将 Claude Code 称为 Anthropic 的“ChatGPT 时刻”时,它依据的是每月 20 美元的订阅费用,而非 Anthropic 为此提供该服务所消耗的实际 token 成本;这反过来又让作者原谅模型可能出现的“小错误”,或者当它在处理更复杂的编程任务时“卡住”的情况。
如果这位作者支付了她实际产生的 token 燃烧费用,并且每次“卡住”都意味着 15 美元的 token 支出,我想她就不会如此宽容地对待这些 fuckups 了。
然而,这一切都是骗局的一部分。
至关重要的是,主流媒体报道 AI 的人必须完全不了解这些服务的真实成本,任何关于 ChatGPT 或 Claude Code 等服务的报道都应出自那些对每项任务可能给用户带来的成本几乎一无所知的人之手。
请记住:生成式 AI 服务本质上仍是实验性产品,其运作方式与现代软件或硬件截然不同。你不能简单地向 ChatGPT 或 Claude 提问就开始让它干活。
当然,你可以这么做,但如果你没有正确提示它、不了解其工作原理,或者在输入内容中犯了错,又或者它本身判断失误,那么它输出的结果很可能不是你想要的,而这又意味着你需要重新提示。大型语言模型本质上是不可预测的。
你无法保证大语言模型(LLM)会执行特定操作,也无法确定它会向你呈现基于现实的结果。你无法确切地说清某项任务——哪怕是你过去多次使用 LLM 完成过的任务——究竟需要多少成本,也无法确保模型不会突然失控删除内容,或干脆不做某事却声称已完成。
如果你并非按 token 付费,这些行为就更容易被原谅,因为在订阅者看来,这不过是多聊了几轮对话,而非产生实际费用。人们不会对所谓的“碎片化智能”横加指责,因为默认假设是:你现在遇到的问题终将在未来某个时刻被解决,而你最终也无需为此买单。
如果用户必须支付真实费用,我估计很多人会立刻放弃这个产品——毕竟,只要你随便玩玩、探索 LLM 能做什么,很容易就在几分钟内烧掉 5 美元。
备注:事实上,即使花掉大量金钱,你也未必能得到想要的结果,因为 LLM 根本就不是真正的智能!一个不了解其局限的人,完全可以轻易花掉 30 美元、50 美元甚至 100 美元,试图说服 LLM 去做它坚称自己能做的事。这种现象有个术语叫“谄媚倾向”(Sycophancy)。LLM 常被设计成对用户言听计从,即便对方说出危险且离谱的话,也会顺从地回应:“你想要那个技术上或财务上完全不可行的大东西?当然可以!” 正因如此,整个行业才拼命掩盖这些成本——这简直是赤裸裸的抢劫!
我认为,大多数 AI 订阅服务转向基于 token 的计费模式几乎是不可避免的,尤其是考虑到 Anthropic 和 OpenAI 都已对其企业客户采取了这一做法。
微软将 GitHub Copilot 订阅用户转为 token 计费,更是一个极其糟糕的信号。微软可以说是资金最雄厚、盈利能力最强、布局最完善的公司,有能力继续补贴算力;如果连它都撑不住了,其他人就更没戏了。
真正值得警惕的“白色战马”将是像 Anthropic 或 OpenAI 这样的大型 AI 实验室,将其所有订阅用户全面转向 token 计费。一旦发生这种情况,就意味着游戏结束了。
普通公司能否负担得起转向 token 计费?Anthropic 估算用户每天在 Claude Code 上的花费为 13 至 30 美元(每年超 7000 美元),而大型组织每年可能花费数十万甚至数百万美元。
正如我上周所讨论的,Uber 的首席技术官在一次会议上透露,该公司已在短短几个月内用完了 2026 年全年的 AI 预算;高盛则指出,一些公司已将高达 10% 的人力成本用于购买 AI token,并可能在接下来的几个季度内提升至 100%。
这是直接结果:训练每一个 AI 用户尽可能多地使用这些服务,同时刻意模糊其真实成本。所有要求员工“尽可能多用 AI”的主流企业,几乎都无视或完全脱离了实际的 token 消耗情况;而当企业被迫承担真实成本时,我不明白如何还能从经济角度合理化对这项技术的任何投资。
当然,你可能会说工程师们“更快地交付代码”之类的鬼话,我懂。但问题来了:他们到底快了多少?由此节省或赚取了多少成本?如果你把10%的人力预算花在AI代币上,有没有看到这笔额外支出在其他地方得到补偿?反正我不确定。我也不敢相信任何企业投入巨额资金购买代币后还能获得回报——正因如此,所有关于AI投资回报率的研究都难以找到确凿证据。
大多数鼓吹生成式AI无限可能的人,其实并未真正承担其真实成本。那些在推特上疯狂炫耀整个工程团队疯狂使用Claude Code的偏执狂,用的不过是每月每人125美元、使用限制与Anthropic消费者订阅(100美元/月)相近的Teams订阅服务。而那些在领英上声称用Perplexity产品“几分钟完成数小时工作”的人,最多也就支付了200美元/月的Max套餐费用。
实际上,一个10人团队每月1250美元的Teams订阅,仅API调用就可能烧掉5000到1万美元,甚至更多。上周Anthropic增长负责人Amol Avasare表示,其Max订阅本是为重度聊天场景设计,而非像Claude Code或Cowork这类工具的使用方式;他明确指出,Anthropic正在考虑“不同的方案来持续提供优质体验”——换句话说,“我们迟早会调整价格”。
我不确定人们是否意识到这些代币有多昂贵,尤其是涉及庞大代码库并频繁调用编程和基础设施工具的开发项目。谁能预见性地负担得起每月350、400甚至500美元的开销?谁能承受某个月超支,或者根本没钱完成手头的工作?
举个更实际的例子:截至4月初,Anthropic官方发布的Claude Code开发者文档(存档)曾称“平均每位开发者每日成本为6美元,90%用户日均花费低于12美元”。而本周更新的文档则写道:
Claude Code按API令牌消耗计费。订阅计划定价(Pro、Max、Team、Enterprise)请见claude.com/pricing。每位开发者的实际成本因模型选择、代码库规模及运行多实例或自动化等使用模式差异较大。在企业部署中,平均每位活跃开发者每日成本约为13美元,每月150至250美元,其中90%用户的单日成本仍低于30美元。建议先以小范围试点团队为基础,利用下方追踪工具建立基准数据,再逐步推广。
若按每月21个工作日计算,Claude Code用户的平均月成本约为273美元,年成本达3,276美元;若按每日30美元计,则月成本为630美元,年成本高达7,560美元。
这些数字令人震惊,尤其考虑到如果你使用 Anthropic 较新的模型,每天花费绝不可能只有30美元。Claude Opus 4.7 的输入 token 价格为每百万5美元,输出为每百万25美元。一百万个 token 大约相当于5万行代码,而如果你使用的是所谓最先进的模型,那么几乎可以肯定你至少会消耗掉一百万 token;如果你的任务对模型选择不够敏感,这个数字还会急剧上升。
让我们再深入探讨一下这个30美元的概念。
虽然这在资金充裕的初创公司或像 Meta 这样“香蕉共和国”式的企业中或许还能接受,但任何真正关心成本的企业都会发现,为一项“提升生产力”却难以量化的服务额外支付五位数甚至六位数的费用,实在难以合理化。
目前我认为大多数公司可以分为三类:
大型组织仍享有特权,可以宣称其软件工程师因“顶尖人才无需写代码”而消耗数百万美元 AI token,但这种说法本身就值得怀疑。
一旦某次糟糕的财报电话会议暴露真相,整个叙事就会崩塌。终将有投资者——哪怕那些早已被 AI 泡沫冲昏头脑的蠢货——开始质疑不断攀升的研发开支(AI token 消耗通常隐藏于此),尤其是当公司营收增长未能跟上时。这很可能导致新一轮裁员以控制成本,就像 Meta 之前所做的那样,最终当有人问出“这些玩意儿到底有没有让我们工作更快更好?”时,一切都将回归现实。
我还认为,那些将10%以上人力成本花在 AI token 上的初创企业,很难在六个月内说服投资者这种做法是必要的。
一旦全面转向基于 token 的计费模式,我们或许就不会再看到如此狂热的生成式 AI 炒作。
AI 数据中心与算力经济毫无逻辑可言。
人们谈论 AI 数据中心的方式完全脱离现实,我不认为他们意识到这个时代已经荒谬到何种程度。
AI 数据中心建造成本高昂、运营成本极高,却 barely 产生实际收入。
据 TD Cowen 的 Jerome Darling 分析,建设一个 AI 数据中心需投入约3,000万美元用于关键 IT 基础设施(GPU 及相关硬件),每兆瓦数据中心的容量还需额外1,400万美元。而数据中心的建设周期从一年到三年不等,前提是电力供应充足。
到2028年底,计划建设的114GW数据中心中,仅有15.2GW以任何形式处于建设阶段。“建设”一词甚至可能仅指“地面上有个坑”,不应也不应暗示该设施即将提供相应容量。
附注:若您对其中涉及的深层数学原理感兴趣,欢迎订阅我的付费通讯,届时您将能看到我联合多位分析师与超大规模云服务商共同开发的“野蛮数据中心模型”。
让我们从最基础的逻辑开始:每当您想到“100MW”时,请同时想到“44亿美元”——其中相当大一部分将用于采购NVIDIA GPU。
因此,每个AI数据中心在启动之初就已背负数百万美元的债务;即便折旧周期长达六年,仍需数年才能回本……而考虑到NVIDIA每年都会发布新一代芯片,这些GPU在完成首个客户合同后很可能难以实现预期收益。
此外,目前尚不清楚除了OpenAI和Anthropic之外,是否还存在其他AI算力需求方——这两家公司的需求已占在建AI数据中心容量的50%,一旦其中任一机构资金链断裂,整个系统将面临巨大风险。
无论如何,这些数据中心的长期服务费率也尚不明确。虽然B200 GPU的现货价格约为每小时4.5美元,但长期合约通常定价更低,据《信息报》报道,某位创始人透露其曾以每GPU每小时3.7美元的价格签订了一年期的协议。
需要澄清的是,我们必须区分现货成本(即临时调用他人服务器上GPU的成本)与合同算力——后者才是数据中心资本支出的主要构成部分。大多数数据中心设计初衷是为一两家大型客户提供服务,这意味着客户极有可能协商获得更优惠的综合费率。
因此,许多数据中心实际收取的费用远低于每小时3.7美元,因为它们按兆瓦(或千瓦)为单位计费。
正是在这里,经济模型开始出现裂痕。
100MW数据中心的破碎经济学:满租状态下每小时2.55美元,毛利率16%,但因负债仍无法盈利
这是100兆瓦数据中心的初始成本。实际上,100MW数据中心仅有约85MW可用于对外计费的有效IT负载。根据与熟悉超大规模云服务商收费模式的消息人士的交流,预计每兆瓦年收入约为1250万美元,全年总收入约达10.63亿美元。
需要说明的是,大多数您所熟知的数据中心公司并不自行建造设施,而是委托给如Applied Digital等“托管合作伙伴”来完成。例如CoreWeave就向Applied Digital支付托管费用,以使用其在北达科他州的数据中心。而CoreWeave则负责数据中心内部所有GPU及其他技术设备的部署。
为解释这一经济错配现象,我将采用一个理论案例:假设某数据中心租赁给一家虚构的AI算力公司。
该数据中心很可能使用的是NVIDIA Blackwell芯片,且大概率采用每组8颗B200 GPU的模块化配置,单颗零售价约45万美元,即每颗5.625万美元。基于85MW的关键IT负载计算,每兆瓦综合资本支出约为3678万美元,总IT资本支出约达31.26亿美元,其中GPU投入约为26.7亿美元。
假设这个数据中心位于北达科他州的埃伦代尔,这意味着你的工业电价约为每千瓦时6.31美分,每年电费成本约为5540万美元。根据与相关方的沟通,我估算维护、人员开支、电源更换等持续运营成本约占收入的12%,即每年约1.28亿美元,使总成本达到1.834亿美元。
等等,抱歉。你还必须支付基于关键IT的托管费用,据Brightlio称,这笔费用通常为每月每千瓦180至200美元,具体取决于部署规模和位置——不过我也看到过低至130美元的报价,我就按这个数字算吧,即每年约1.33亿美元。这样一来,总成本就升至3.164亿美元。
嗯,即便如此,仍低于10.6亿美元,所以情况还算不错,对吧?
错!你还有价值31.26亿美元的IT设备需要折旧,在六年折旧期内,每年需摊销约5.21亿美元。加上之前的成本,年支出总计达8.374亿美元,最终年利润约为1.686亿美元,毛利率约为16.7%……
……前提是始终保持100%的入驻率!要知道,数据中心从安装GPU到客户上线往往要一两个月时间,期间你一分收入都拿不到,却要继续承担托管费、电费及运营开支——尽管此时这些费用会大幅下降(我模型中设为电费的10%、托管和运营成本的15%),相当于每天亏损约327万美元。
为简化示例,我们假设额外增加一个月才能投入运营,这意味着你将白白支出约1.02亿美元无法收回,全年总成本(含折旧)因此增至9.394亿美元,毛利率仅为6.6%。
等等,操,你该不会是用贷款买的这些GPU吧?真是这样?那得多糟糕?天哪——你搞了个为期六年的资产支持贷款,贷款价值比(LTV)高达80%,也就是说你借了28亿美元,利率6%。
银行倒是“慷慨”地给了你一个为期12个月的宽限期,只需付息……这相当于每年支付约1.68亿美元利息,使第一年总成本(公平起见不计那个月延迟)达到约10.05亿美元……而同期营收仅10.6亿美元。
毛利率只有5.19%,更别提本金还没开始还呢。一旦开始偿还本金,每月还款额将达5410万美元,未来五年累计约6.49亿美元,再加上前面提到的14.8亿美元,总负债高达21.3亿美元,毛利率转为负值,约为-40%。
我必须强调:以上分析的前提是你始终满负荷运转,且租户每次都按时足额付款。
Stargate Abilene是一场灾难——每GPU每小时2.94美元,年收入100亿美元,严重滞后,唯一租户每年亏损数十亿美元。
我们来聊聊本应是数据中心史上最经济可行的项目——由甲骨文(Oracle)为全球最大的AI公司打造的大型园区。甲骨文是一家拥有数十年历史的准超大规模云服务商,长期向企业和政府出售昂贵的数据库和商业管理软件。
哈哈,开玩笑的,这地方简直是个噩梦。
Stargate Abilene 是一个占地八个建筑、总装机容量达1.2GW的数据中心园区,其中关键IT负载约为824MW。该项目最早于2024年7月宣布。截至2026年4月27日,仅有两个建筑投入运营并开始产生收入,第三个建筑几乎还没有部署任何IT设备。我估算 Stargate Abilene 的总成本约为528亿美元。
根据我的调查,甲骨文预计从 Stargate Abilene 每年可获得约100亿美元的营收;而我估计,为其客户 OpenAI 建设的7.1GW数据中心容量将带来总计约750亿美元的收入。如我之前所报道,甲骨文在2024年曾估算,Abilene每年的托管和电力费用至少为21.4亿美元,需支付给土地开发商 Crusoe。
我还应补充一点:似乎甲骨文正在承担 Abilene 的全部建设成本。
基于我的计算和报道,我估算当 Abilene 完全投运后,其毛利润率约为37.47%:
我必须明确指出,这个37.47%的毛利率可能偏高,因为我并不掌握甲骨文真实的保险或人力成本数据,仅能依据本出版物所见文件做出估算。我也必须强调,甲骨文正将其整个未来押注于像 Stargate Abilene 这样的项目上——为此提前承担了数十亿美元的成本,而即便 OpenAI 按时付款,该项目也要多年后才能实现盈利。
遗憾的是,我无法确定 Abilene 中有多少是通过债务融资支付的,但我知道甲骨文在2025年9月发行了总额约180亿美元、期限从7年到40年不等的债券,并在上一季度财报中录得247亿美元的负现金流。
我所了解的是,甲骨文与开发商 Crusoe 签订了为期15年的租约,且其未来发展严重依赖 OpenAI 能否持续付款——而这又取决于甲骨文能否顺利完成 Stargate Abilene 的建设。
我还需明确指出,那每年38.5亿美元的利润只有在 OpenAI 及时付款、尽快入驻 Abilene、并且一切按计划进行的情况下才可能实现。
如果 OpenAI 在未来四年内无法筹集到总计8520亿美元的收入、融资和债务资金,那么 Stargate 数据中心项目将拖垮甲骨文。
遗憾的是,情况恰恰相反:
根据 DatacenterDynamics 的报道,最初计划是“2025年”启用前200MW的电力供应。随着时间推移,原定于2025年上半年开始入驻,“有望在2025年达到1GW容量”,并于2026年中完成全部1.2GW装机。截至2025年9月30日,已有“两栋楼运行”;而到了2025年12月12日,甲骨文联合CEO Clay Magouyurk表示 Abilene “进展顺利”,已交付超过96,000颗 NVIDIA Grace Blackwell GB200 GPU(相当于两栋楼的算力)。然而四个月后,即2026年4月22日,甲骨文发推称“Abilene 中已有200MW投入运营,八栋校园的交付仍按原计划进行”。目前尚不清楚这200MW是指关键IT容量还是整个园区可用电力,无论如何,这点电力仅够支撑两栋楼,意味着甲骨文显然并未“按时完工”。
这是一个巨大的问题。OpenAI 只能为实际存在的算力付费,而目前真正产生收入的只有206MW关键IT容量,第三栋至少还需一个月(甚至一个季度)才能投入使用。
然而,整个 Stargate 数据中心项目存在一个更大、更根本性的问题——除非 OpenAI 能够实现其荒谬、卡通化的预测,否则这一切都毫无意义。
正如我周五所讨论的:
我将再次列出这些数字:正在建设的 7.1GW Stargate 数据中心在建成后将产生约 750 亿美元的年收入,总成本超过 3400 亿美元。甲骨文(Oracle)的自由现金流为负 247 亿美元,其他业务线已趋于停滞,其唯一增长引擎是其低利润率的云计算业务。为了真正有能力支付其算力协议——无论是向亚马逊、微软、CoreWeave、谷歌、Cerberus 等合作伙伴,还是向甲骨文本身——OpenAI 必须在四年内筹集或创造 8520 亿美元的营收和/或资金,这意味着其业务每年必须增长超过 250%,到 2030 年底时规模需扩大十倍。届时,它必须找到一种方式实现正向现金流,否则这些数字就毫无意义。需要明确的是,OpenAI 的预测显示其在未来四年内将实现 6730 亿美元的收入,并为此烧掉 2180 亿美元。这是一家极其不盈利的企业,即便它变得盈利,也仍需远超当前水平的收入才能持续支付甲骨文的费用。
我通过假设 Vera Rubin GPU 每兆瓦算力可带来约 1400 万美元的收入(这一数据我已与熟悉数据中心行业的消息源确认),计算出那 750 亿美元这个数字。该计算基于我预计将构成剩余 Stargate 数据中心的 4.64GW 关键 IT 容量。
OpenAI 的数据直接来源于《信息报》(The Information)披露的该公司预测的亏损率和收入情况,其中显示该公司将在截至 2030 年底的四年内实现 6730 亿美元的收入,并为此投入 8520 亿美元。
我必须强调:任何重复这些数据却不说它们有多么愚蠢的新闻记者都应该感到些许羞耻。正如我在周五的高级会员文章中所述:
换句话说,OpenAI 预计在两年内创造的营收将超过台积电(TSMC),三年内接近 Meta 的年收入水平,而到 2030 年底,其年收入将达到微软的水平(按过去 12 个月计算约为 3000 亿美元)。
如果 OpenAI 无法支付这笔算力费用,甲骨文将陷入困境,因为它已为建设 Stargate 数据中心承担了约 1150 亿美元的债务,并且还需要另外 1500 亿美元才能完成建设:
甲骨文是一家目前年收入约为 640 亿美元的公司,上一季度自由现金流为负 247 亿美元。它在 2025 年 9 月发行了 180 亿美元债券,2026 年 2 月又发行了 250 亿美元债券,并在 3 月左右进行了 200 亿美元的“随行就市”股票增发。尽管市场称该项目融资“已关闭”数月,但似乎直到最近才真正敲定威斯康星州和沙克尔福德项目的 380 亿美元项目融资。我还纳入了与密歇根州 Stargate 项目相关的 140 亿美元数据中心债务。无论如何,甲骨文资本不足,无法完成阿比林(Abilene)项目。它至少还需要另外 1500 亿美元才能完成,这还假设其他合作伙伴将承担约 300 亿美元的成本。说实话,这个数字可能更高。
我必须再次强调,甲骨文没有其他途径来实现这些收入,而这些项目完全依靠数据中心自身的预期现金流进行融资和支付。
我并不是唯一一个对此感到担忧的人——据《华尔街日报》报道,在OpenAI未能达成用户和收入目标后,其董事会成员莎拉·弗里亚尔也表达了类似的忧虑:
OpenAI最近未能实现新用户和收入目标,这些挫折让部分公司高管担心,该公司是否还能支撑其在数据中心上的巨额投入。据知情人士透露,首席财务官莎拉·弗里亚尔已向其他公司高管表示,如果收入增长不够快,公司可能无法承担未来的计算合同费用。此外,董事会在过去几个月里更加仔细地审查了公司的数据中心协议,并质疑首席执行官山姆·奥特曼在业务放缓的情况下仍努力获取更多算力的行为。
如果你还没被吓到,那不妨看看这个:
她向高管和董事会强调,OpenAI亟需加强内部控制,并警告称,公司目前尚不具备满足上市公司严格披露要求的能力。据部分人透露,奥特曼倾向于加快IPO时间表。
这听起来可不像是一家能在十年内赚到8520亿美元的公司!
Anthropic 和 OpenAI 一样糟糕,承诺从谷歌和亚马逊获得最高达10GW(年收入超1万亿美元)的算力支持
虽然我经常批评OpenAI那些离谱的承诺,但Anthropic也没好多少——它承诺从谷歌和亚马逊“最多”获取5GW的算力资源。考虑到规模,这笔交易实际上包含了约1万亿美元的算力承诺。
不过我得补充一点:谷歌和亚马逊远比甲骨文精明,也不像后者那样急于求成,因此即便Anthropic资金链断裂,它们也能承受损失。“最多”这一措辞给了他们足够的回旋余地,这是甲骨文根本无法做到的。
尽管如此,Anthropic若想真正兑现承诺,到2030年底每年必须在算力上花费250亿至1000亿美元之间。
今年3月,Anthropic的首席财务官曾表示,自成立以来公司总收入仅为50亿美元。
要支撑正在建设的15.2GW AI数据中心,每年需要1568亿美元的算力收入;而若全部114GW项目上线,则需高达1.18万亿美元的年收入。
黄仁勋反复宣称正在调度数百亿美元的GPU所带来的近乎色情化的狂热,掩盖了一个关键问题:李健熙,你打算把这些算力卖给谁?
假设正在建设的15.2GW数据中心(预计2028年底前完工)的PUE约为1.35,那么实际可用IT负载约为11.2GW。按每兆瓦1400万美元计算,这些数据中心要实现盈利,每年至少需要1568亿美元的GPU租赁收入。
若计入理论上到2028年底将全部投入运行的114GW容量,所需年营收将飙升至1.18万亿美元。
举个例子,作为拥有Meta、OpenAI、谷歌(为OpenAI服务)、微软(为OpenAI服务)、Anthropic和NVIDIA等客户的最大新云计算厂商CoreWeave,其2023年收入约为51亿美元,并预测2026年将实现120亿至130亿美元的收入。
所有这些算力究竟是为谁准备的?等到这些容量全部建成时,他们有多大可能真的会来购买?尽管许多数据中心都声称在最初几年有租户,但租户只有在数据中心建成之后才能开始付费。如果这是一个AI初创公司,我认为在它建成之时,我们完全有理由质疑其是否真的存在。
请记住:AI算力的客户,大部分要么是试图将资本支出从资产负债表上剥离的超大规模云服务商,要么就是尚未盈利的AI初创公司。Anthropic和OpenAI都计划在接下来几年烧掉数千亿美元,而它们都没有实现盈利的路径。
这意味着——如果不是大部分的话——AI算力的收入依赖于持续不断的风险投资和债务流入,而这两种资金来源都建立在一个前提之上:投资者仍然相信生成式AI将是世界上最大、最宏大的事物。
那么问题来了,到底是谁在为这些数据中心容量买单?为谁提供?真正的需求又在哪里?
如果这种需求确实存在,这些客户到底是怎么付钱的?
生成式AI既不盈利也不可持续,而且只会越来越贵。
尽管有多篇报道声称OpenAI和Anthropic将在2028或2029年实现盈利,但没人能向我解释它们究竟如何能真正达到盈利,尤其是考虑到这两家公司即使剔除高达数十亿美元的训练成本后,利润率仍低于预期。
这个问题我已经问了整整好几年了。每次Anthropic或OpenAI发布新进展时,我们都听说它们比预期多亏损了数十亿美元,利润率不断下滑,成本飙升,一切都变得更贵,尽管承诺的情况恰恰相反。
就连Cursor这家曾经(在被马斯克旗下SpaceX伪收购前)宣称拥有正向毛利润的公司,截至一月份的实际毛利润率为负23%,如果计入非付费用户的成本,则达到负31%——如果你真的在乎自己的账目,这绝对是应该纳入计算的。奇怪的是,有报道称Cursor的利润率“最近转为正值”,但神奇地没有透露具体数值、如何实现,或者任何其他细节,除了可能帮助该公司被出售的那个因素。
我同样看不出这些AI数据中心有任何实际意义,哪怕它们在最初几年有客户愿意支付费用。它们的经济学模型建立在完美假设之上,零容错空间。必须保持持续、100%的利用率和入驻率,否则就会烧掉数百万美元,无法抵消科技行业最昂贵错误所造成的那道漫长折旧墙。
即便它们 somehow 成功了,这些生意也不过是平庸的企业,利润率最多只有70%——前提是付款稳定、入驻率满额,并且要经历令人抓狂的六年折旧周期才能真正回本,考虑到每年升级换代的速度,等你还完贷款时整个系统基本就过时了。
更不用说大多数客户本身就是不盈利、不可持续的初创公司。
我真的不知道这一切到底是怎么运作的。
大语言模型就是个坑,客户一直被蒙在鼓里。
我承认这听起来可能有些夸张,但我真心认为基于订阅的 AI 服务本质上是一种欺诈行为,它们歪曲了核心的单位经济效益,从而也误导了对大型语言模型潜力的认知。像 Anthropic 和 OpenAI 这样的公司通过按月向用户销售产品并培养其使用习惯,已经对其业务进行了不实包装——以至于大多数用户都在与那些在当前形式下不可持续、无法长期维持的产品互动,并围绕这些产品构建工作流程。
Anthropic 近期实施的激进速率限制变更,距离其多次基于现已几乎无法实现的体验展开的密集营销活动,仅仅过去了几个月。而根据其最近的动向可以明显看出,该公司计划在不久的将来开始削减甚至终止对每月仅支付 20 美元的低 tier 订阅用户的服务支持。这是一种令人作呕且具有误导性的经营方式;Anthropic 在谈论其产品与服务时所表现出的模糊态度,是对每一位用户的侮辱,也表明它根本不在乎舆论压力。
我必须明确指出:Anthropic 目前提供的产品——由于近期大幅收紧了速率限制——已与其此前被广泛宣传的版本存在本质差异(且远不如从前)。Anthropic 在明知该产品在三个月内将不复存在的情况下,仍刻意进行市场推广。Dario Amodei 毫不在意,只要媒体继续报道他今天又“创造”了多少年化收入或发布了什么新产品来打压某家不幸的公有 SaaS 公司即可。
媒体同仁们,请允许我以充分的尊重表达我的观点:Anthropic 正在严重伤害其客户利益,而之所以如此行事,是因为它相信自己能够逃脱惩罚。这家公司既不尊重你们,实际上对你抱有相当程度的蔑视——这也是为什么它不愿迅速修复自身服务故障,也不愿以任何连贯的方式解释为何这些功能会失效。
这就是为什么 Anthropic 会编造出“Claude Mythos 太强大而无法发布”这种谎言(其实只是容量问题),因为它知道你会买下它所推销的一切,并且早已精于如何包装信息,让你只需快速浏览系统卡片就能轻易相信其所言所行。
他们还清楚你会迫不及待地抢发报道,而不是等待真正专家的意见。
AI 是一场骗局,而这正是骗局运作的方式。AI 被尽可能快地推向大众面前,以最不高效却最易接触的形式呈现出来——即便这种形式注定无法带来任何可持续商业模式。媒体也被催促立即宣称这就是未来,以便所有人达成共识并开始疯狂使用这项技术,尤其重要的是,人们是在订阅制下体验它,从未质疑过提供这项服务的真实成本。
叙事早已被预先包装好。因为谈论大语言模型(LLMs)的人中,很少有人真正了解其背后的成本,所以他们很容易模糊地说“这就像优步”——那是一家亏损巨大却未倒闭的公司,但比起说“等等,你意思是 OpenAI 今年预计要亏掉50亿美元?”,这种说法显然更容易让人接受。
你可以这样理解:作为一名记者、投资者、高管,或者只是 LinkedIn 上随波逐流的普通用户,你可能断断续续读到过“输入每百万 token 收费5美元,输出每百万 token 收费25美元”,但你从未真正体验过资金流失的速度有多快或多慢——而这恰恰是理解这一产品的关键。Anthropic 和 OpenAI 刻意掩盖了这一现实,构建出预计将在2026年烧掉数千亿美元、到2030年烧掉数万亿美元的业务模式——这一切都源于大多数人仅凭订阅制体验来评判生成式 AI。
大语言模型本质上是一场赌场,而你一直在用庄家的钱下注,还鼓励别人押上自己的筹码,赌某个模型能否完成一项具体任务。
这是有意为之。他们从来不希望你思考成本问题,因为一旦你真的开始思考成本,整个局面就会显得异常疯狂。我坚信,基于 LLM 的订阅服务将彻底消失,至少在以生成代码为业务规模的产品中将不复存在——而这样一来,Amodei 和 Altman 就能成功收网,或至少自认为成功了。
问题在于,这两位现在签下的合同实在太多,想全身而退已不可能。
OpenAI 的首席财务官多次表示,她认为公司尚未准备好上市,并对公司的持续增长能力以及履行义务的能力存在实质性担忧。重复一下之前的引述:
据知情人士透露,首席财务官莎拉·弗里尔(Sarah Friar)已向其他公司高管表示,如果收入增长不够快,OpenAI 可能无法支付未来的计算合同费用。
这是一盏疯狂闪烁的红灯!在一个理性的市场中,这足以让甲骨文股价崩盘,因为 OpenAI 年收入超过2800亿美元的崛起对甲骨文维持现金流至关重要。在正常的媒体环境中,这会在每一个关于 OpenAI 是否真能存活下来的群聊和 Slack 频道中引发恐慌。
这正是公司濒临崩溃前的典型征兆。OpenAI 的增长速度正在放缓,而它此刻最需要的是加速扩张。它必须在2030年前将现有业务有效扩大十倍才能履行债务。而它的 CFO——那个最清楚内情的人——却说,如果收入不快速增长,她就担心 OpenAI 连 fucking compute 合同都付不起。这是多么醒目的警告信号!这不是演习!
更让我震惊的是《华尔街日报》提到,弗里尔认为 OpenAI“尚未准备好满足上市公司所需的严格披露标准”。
这他妈是什么意思?抱歉,请问?这家公司据称已融资1220亿美元,估值高达8520亿美元,还预计在2030年底前烧掉8520亿美元。它的账目难道有问题?还有什么“严格披露标准”是它无法达到的?
如果不是因为这家公司占据了去年风险投资的约20%,而我走到哪里都能听到Altman、Brockman以及OpenAI其他男性高管们没完没了地吹嘘他们的狗屁理念——他们一边趾高气扬地推出一坨坨垃圾软件,一边挥霍别人的钱——我本来根本不会这么八卦。
Anthropic和OpenAI消耗了如此多的资源,按理说无论是作为产品还是企业都应当近乎完美。然而,它们却通过层层伪装来掩盖自身的经济模式与实际效能,扭曲真相,好让首席执行官们攫取金钱、权力和关注。这既是对优秀软件的侮辱,也是对良好品味的践踏——这些应用贵得离谱却最不可靠,它们的错误被原谅,平庸被颂扬,其基础设施则被奉为资本无动于衷的神祇。
生成式AI本身就是一种侮辱。它不可靠,经济逻辑站不住脚,产出毫无价值,而推动这场骗局的人又无聊、愚钝又贪婪,与社会脱节,对任何持异议者不屑一顾。为了推广这种软件,他们偷窃所有人的艺术,破坏环境,推高电费,带来持续的经济崩溃威胁,还制造出“一切都他妈的因为AI变得更糟”的无尽喧嚣——只为说服那些连基本财务常识或理智都不在乎的人。
这一切既昂贵又他妈的乏味透顶。简直令人反感地无聊。甚至主动惹人厌烦。每当我听说有人多沉迷AI时,那语气就像陷入虐待关系或刚加入邪教一样,带着一丝微妙的绝望:“你非得跟我一起进来不可,这东西太好了,而我好像从中一无所获,恰恰说明它效率有多高。” AI能做到的一切毫无轻松愉快可言。大型语言模型也毫无滑稽或 whimsical 之处,每一次互动都空洞无物。
那些拼命寻找它是否开始“有意识”或“更强大”迹象的人,其实只是在寻求自我确认——他们渴望成为第一个发现某事的人,因为这就是他们赖以谋生的方式:抢先抵达他人尚未到达的结论。
“领先一步”——也可以说是站在“前沿”——是当人们内心空虚时最渴望的东西,而这正是骗子们梦寐以求的燃料,因为LLMs总在低语着即将做出新事的错觉,尽管它们在数学上早已被限定只能重复已有的行为。
这是一个极其悲哀的时代。那些合力支撑起这个行业的人,只是延缓了其必然的崩塌。令我恐惧的是,我们的市场和经济的一部分,正依赖于这样一个普遍存在却完全未经证实的假设:LLMs终将变得便宜,AI初创公司会神奇地盈利,提供AI算力将永远有利可图——以至于到2030年,我们必须将现有算力供应扩大十倍。
人们为了维护AI行业而自甘堕落,因为这是行业对信徒们的要求。要成为“AI专家”,就必须主动无视历史上任何行业的最差经济状况,不断为产品的明显缺陷找借口,并积极说服他人接受同样的观点。OpenAI和Anthropic无法清晰解释它们如何盈利,因为它们知道支持者永远不会提出质疑——因为要真正“相信AI”,就必须主动戴上眼罩。
我理解这种心态。如果你认为OpenAI和/或Anthropic最终会崩溃,那么这一切看起来确实有些疯狂。我真诚地希望你能认真考虑:这两家公司中的一家或两家可能会耗尽资金。
我真的很担心,而这种担忧因我在媒体和整个社会中看到的普遍漠不关心而加剧。
如果我必须猜测,人们可能认为我只是危言耸听,并坚信“需求绝对存在”。
那你最好是对的。
至少为了拉里·埃里森的利益着想吧。埃里森已经承诺将其持有的甲骨文股票中的3.46亿股(约合615亿美元)“用于担保个人债务,包括各种信贷额度”,这意味着他将获得“许多针对甲骨文股票的巨额、优渥贷款”。IFR在9月曾估算(当时甲骨文股价更高),这些贷款在(他们称之为“保守”的)20%的贷款价值比下,最多可让他借入214亿美元,前提是银行并不特别慷慨。
如果OpenAI到2030年底无法筹集8520亿美元的收入和资金,就无法负担Stargate项目。这将导致甲骨文股价暴跌,引发一系列追加保证金通知,迫使埃里森出售股票,进而触发更多追加保证金要求。无论是否存在某种救助措施,都无法挽救拉里家族的财富。
我的意思是,埃里森的未来完全取决于山姆·奥特曼能否在4年内筹集并实现8520亿美元的资金和收入。
祝你好运,拉里!你确实需要这份好运。
需要完整排版与评论请前往来源站点阅读。