返回 2026-04-29
🤖 AI / ML

AI 的经济模型说不通AI's Economics Don't Make Sense

wheresyoured.at·2026-04-28

文章质疑当前 AI 行业的经济可行性,指出训练和推理成本与收入模式之间存在巨大差距。作者通过分析 NVIDIA GPU 的定价、云厂商的定价策略以及 AI 公司(如 OpenAI 和 Anthropic)的实际营收数据,揭示大多数 AI 初创企业难以覆盖硬件投入。核心论点是:除非大幅提高用户付费意愿或找到新的变现路径,否则 AI 行业将面临长期亏损。结论是 AI 的经济模型在当前技术条件下不可持续。

Ed Zitron

如果你喜欢这篇文章,欢迎订阅我的付费通讯。年费70美元,或月付7美元,你将获得一份每周5000至18000字的深度通讯,内容包括对NVIDIA、Anthropic和OpenAI财务状况的详细分析,以及更广泛的AI泡沫探讨。我最近发布了《反潮流者指南:SaaS大崩盘》(Hater’s Guide To The SaaSpocalypse),还有《AI为何并非大到不能倒》(How AI Isn't Too Big To Fail),一篇长达17500字的《反潮流者指南:OpenAI深度剖析》,就在上周又推出了重磅之作——《反潮流者指南:私人信贷全景》。

我还刚写了一篇关于OpenAI将如何击垮Oracle的文章,今天这篇也用到了其中的一些素材。这是我写过最好的文章之一,我对此深感自豪。

订阅付费内容不仅物有所值,也让我能够持续撰写这些每周发布的大型、深度调研的免费文章。

昨天早上,GitHub Copilot用户终于确认了我一周前报道的消息——所有GitHub Copilot计划将于2026年6月1日起全面转向基于使用量的定价模式。

微软将不再按“请求次数”向用户收费,而是根据用户实际使用的模型成本来计费,它称之为“……迈向可持续、可靠的Copilot业务和体验的重要一步”。用户将获得与其GitHub Copilot订阅费用等额的额度(例如:每月19美元的套餐可获得19美元的计算资源)。

换句话说就是:“我们不能再补贴GitHub Copilot用户了,否则Amy Hood(微软CFO)就要开始用棒球棒打人。”

不过,这次公告本身却出人意料地透露出这些价格调整将如何被包装宣传:

Copilot已不再是去年那个产品。它已从一款编辑器内助手演变为一个具备运行长时间、多步骤编码会话能力的代理平台,能调用最新模型,并在整个代码库中迭代。代理式使用正成为默认模式,带来了显著更高的计算与推理需求。如今,一次简短的聊天咨询和一场数小时的自主编程会话对用户而言成本相同。GitHub已承担了大量不断攀升的推理成本,但当前的“高级请求”模式已难以为继。按使用量计费解决了这一问题。它能更好地让价格与使用挂钩,帮助我们维持长期服务稳定性,并减少对重度用户的限制。

你看,问题不在于微软正在为近两百万人提供免费算力,而在于AI已经变得如此强大、复杂,本质上已成为一个全新的产品!

尽管Copilot可能“已非一年前的模样”,但底层经济失衡的问题几乎毫无变化:微软在过去三年里一直允许用户每月消耗远超其订阅费用的令牌额度。正如《华尔街日报》在2023年10月所报道:

个人用户每月支付10美元即可使用AI助手。据熟悉数据的人士称,今年年初,公司平均每月每用户亏损超过20美元,部分用户甚至每月给公司造成高达80美元的损失。

自然,GitHub Copilot用户群情激愤,纷纷指责该产品“已死”、“彻底完蛋”。

而我在两年前就预言过这场“次贷AI危机”:

我预判一种次贷式AI危机正在酝酿:几乎整个科技行业都低价购入了一种由大厂高度集中补贴的技术。终有一日,生成式AI惊人的毒性烧钱速度将反噬他们,届时要么涨价,要么推出价格高得离谱的新功能——比如Salesforce“Agentforce”产品每对话收费2美元这种离谱定价——即使是有预算的忠实企业客户也难以承受。

这一天终于来了,因为你所用的每一个AI服务都在补贴算力,而每个服务都在亏钱:

当你为AI初创公司的服务付费时——当然包括OpenAI和Anthropic——你支付的是月费,比如Anthropic的Claude每月20、100或200美元,Perplexity的20或200美元套餐,OpenAI的8、20或200美元订阅。某些企业级场景下,你会获得“信用额度”,用于特定工作量,比如Lovable在25美元/月的订阅中提供“每月100信用点”,以及至2026年第一季度末前价值25美元的云主机,信用还可跨月结转。使用这些服务时,公司需按每百万token向AI实验室付费,或由租用GPU的云服务商(如Anthropic和OpenAI的情况)承担费用。一个token基本相当于四分之三个词。作为用户,你只体验输入输出过程,并不感知token消耗。AI实验室通过“token”“消息数”或5小时速率限制等模糊方式掩盖成本,用户根本不清楚实际花费。后端来看,AI初创公司正疯狂烧钱——直到最近,Anthropic仍允许你每花1美元订阅费就能烧掉8美元算力;OpenAI也是如此,只是具体倍数难以估算。

AI初创公司和超大规模云厂商原本假设:只要先用亏损补贴把足够多的人骗进来,就能让他们对服务上瘾,即便日后提价也不愿离开。他们还想象着token成本会随时间下降——但现实恰恰相反:虽然部分模型价格可能下调,但更新的“推理”类模型消耗的token更多,导致推理成本不降反升。

这两个假设全错了,因为按月订阅模式对任何基于大语言模型的服务都不合理。

生成式AI的核心经济学原理已彻底崩坏。

可以这样理解:当Uber(注意,这和Uber完全不是一回事)开始大幅涨价时,底层经济逻辑并未改变——乘客付车费,司机拿车费。司机仍需自付油费、车险、政府许可费等,这些成本从未被Uber补贴。Uber的巨亏来自巨额补贴、无休止的营销支出,以及对自动驾驶等注定失败的研发投入。

生成式AI订阅模式与Uber毫无相似之处。

为了说明AI定价错位的规模,我要请你想象一个不同的历史:假设Uber采用了截然不同的商业模式。

生成式AI的订阅模式就像这样:Uber向用户每月收取20美元,提供100次不超过100英里的行程,而汽油价格高达每加仑150美元,并且Uber自己承担油费——因为有人坚信,总有一天石油会变得便宜到可以随意使用。

Uber最终会决定开始向用户收取月度订阅费来使用叫车服务,并额外按实际耗油量计费。这样一来,用户原本每月只需支付20美元享受100次乘车,现在却要付20美元才能叫车,再花26美元跑10英里。这当然会让用户感到不满。

虽然听起来有点夸张,但这其实是对生成式AI行业——尤其是GitHub Copilot——正在发生情况的相当准确的比喻。

GitHub Copilot之前的定价方案是每月提供300次高级请求,以及“无限次聊天请求”,使用的是像GPT-5 mini这类模型。每次请求(微软称)都是“你要求Copilot为你执行某项操作的互动”,而更昂贵的模型会占用更多配额,比如Claude Opus 4.6一次就要消耗三个高级请求额度。当高级请求用完后,用户仍可在当月继续使用那些低价模型,次数不限。

甚至情况并非一直如此。直到2025年5月之前,微软都为用户提供对各类模型的无限访问权限;即便如此,用户依然对任何限制表示愤怒。

微软——和所有AI公司一样——通过销售不可持续的服务欺骗了客户,因为从逻辑上讲,根本不可能靠按月订阅的方式合理售卖基于大语言模型的服务。

如果你想知道基于token计费的订阅服务可能有多贵,一位在GitHub Copilot Subreddit的用户发现,原来一次高级请求所消耗的token成本约为11美元——因为那次“请求”涉及使用了6万个token的上下文窗口、几个工具调用,以及大量内部“轮次”(即模型在处理过程中进行的多次推理步骤),才最终生成输出结果。

此外,底层的大型语言模型本身就存在幻觉倾向带来的不稳定性。当你付费购买服务时,即便一个高级请求反复兜圈子、输出半截代码令人沮丧,这种错误也远不如免费使用时那样容易被原谅。

用户也已经习惯了一种完全不同于按token计费的使用方式,我估计很多人甚至不清楚自己到底烧掉了多少个“token”,也不知道某个任务具体需要多少token,而这又取决于你所使用的模型类型。

这和Uber的情况完全不同,任何声称两者相似的人都是在为糟糕的行为找借口。Uber或许提高了价格,但它不必彻底改变平台的基本经济结构,用户也不用因为突然按每加仑油费来收费而被迫完全改变使用方式。

按月订阅的AI服务本质上都是AI补贴骗局的一部分,是有意为之,旨在将生成式AI与其真实成本割裂开来。

从未有过——也永远不会存在——一种经济上可行的方式来提供由 LLM 驱动的服务,而不向每个用户收取实际的 token 消耗费用;而这些公司通过欺骗这些用户,创造了具有虚幻效益和可疑投资回报的产品。

多年来,这一点一直显而易见。

从经济角度来看,只有当成本相对静态时,月订阅才说得通。健身房可以出售会员资格,因为他们大致知道设备的磨损程度、课程运营成本,以及一段时间内电力、人力和水费等开支。

Google Workspace 的客户(至少在 AI 出现之前)的成本仅取决于访问或存储文档的费用,以及 Google Docs 和其他服务的持续成本。数字存储的低廉成本(再加上 Google Workspace 不像 LLM 那样计算密集)意味着重度 Google Drive 用户并不会侵蚀其月度订阅的利润率。

相反,AI 用户的成本可能天差地别。一个用户可能只是偶尔用 ChatGPT 搜索,而另一个用户可能会输入大量文档,尝试重构代码库,或用其制作 PowerPoint 演示文稿。而提供商——无论是 OpenAI 或 Anthropic 这样的模型实验室,还是 Cursor 这样的初创公司——除了通过设置使用限制、缩小上下文窗口、引导客户使用更小更差的模型,或将定价调整以劝阻用户进行高 GPU 消耗的请求等方式让产品变得更糟外,实际上无法控制用户的行为。

然而,这些服务故意隐藏 token 数量或某项活动的具体成本,这意味着用户并不真正理解速率限制的含义,因此每次对速率限制的突然调整都会让客户惊慌失措,拼命弄清楚他们能用该服务完成多少实际工作。

这是一种 abusive、manipulative 且 deceitful 的经营方式,只存在于 Anthropic、OpenAI 及其他 AI 公司能够扩大用户基础的时候,因为大多数 AI 用户完全通过“每美元订阅费可燃烧 8 到 13.50 美元 token”的视角来感知其真实或想象中的好处。

这种故意的欺骗行为只有一个目标:确保大多数人永远无法接触到生成式 AI 的真实成本。《大西洋月刊》在撰写关于 Claude Code 是 Anthropic 的“ChatGPT 时刻”的狂热文章时,依据的是每月 20 美元的订阅费,而非 Anthropic 为其提供该服务所消耗的实际 token 成本,这反过来又让作者原谅模型可能犯的“小错误”,或者当它“在处理更复杂的编程任务时卡住”时的情况。

如果这位作者支付了她实际 token 消耗的费用,并且每次“卡住”都导致 15 美元的 token 费用,我想她就不会那么宽容这些 fuckups 了。

然而,这一切都是骗局的一部分。

至关重要的是,主流媒体中没有人真正了解这些服务到底有多贵,任何关于 ChatGPT 或 Claude Code 等服务的文章都是由那些几乎不了解每项任务对用户可能花费多少的人撰写的。

记住:生成式 AI 服务大多属于实验性产品,其运行方式与任何现代软件或硬件都截然不同。你不能像使用普通工具一样,直接走到 ChatGPT 或 Claude 面前,让它为你干活。

当然,你可以这么做,但如果你提问的方式不对、不了解它的工作原理、输入的内容有误,或者它本身判断错误,它就会吐出你不满意的结果——而这又意味着你得重新调整提示词。大语言模型本质上是不可预测的。

你无法保证某个 LLM 一定会执行特定操作,也无法确保它呈现给你的结果符合现实。即使是你过去多次用 LLM 完成过的任务,你也无法确切知道它要消耗多少成本,更无法确定它是否会突然失控删除内容,或者干脆什么都不做却声称已经完成。

如果用户不是按 token 计费,这些失误就容易被原谅得多——在订阅者看来,这不过是多聊了几轮对话,不像真正在花钱。人们不会去苛责所谓的“锯齿智能”(jagged intelligence),因为默认假设是:现在遇到的问题终将在未来某个时刻解决,反正最后也没付钱。

要是用户必须按实际费率付费,我估计很多人会立刻放弃这个产品——毕竟,只要你随便玩玩、探索一下 LLM 能做什么,5 美元就很容易烧完了。

顺便说一句:事实上,即便花掉一大笔钱,也可能完全得不到想要的结果,因为 LLM 根本就不是真正的智能!一个对自身局限毫无认知的人,很容易花上 30 美元、50 美元,甚至 100 美元去试图说服一个 LLM 去做它其实根本无法胜任的事。这种现象有个术语,叫“谄媚”(sycophancy)。LLM 常被设计成顺应用户的意愿,哪怕对方说出危险离谱的话,甚至会回应“你想要一个技术上或财务上都极不现实的大东西?没问题!”。这就是为什么整个行业拼命掩盖这些成本——简直是赤裸裸的宰客!

我认为,大多数 AI 订阅转向基于 token 的计费模式几乎是不可避免的,尤其是考虑到 Anthropic 和 OpenAI 都已经对其企业客户采取了这种做法。

微软将 GitHub Copilot 订阅者转为 token 计费,更是一个极其糟糕的信号。微软可以说是资金最雄厚、盈利能力最强、布局最完善的公司,有能力继续补贴算力;如果连它都撑不住了,其他人就更没戏了。

真正值得警惕的“白骑士”(pale horse)信号,将是像 Anthropic 或 OpenAI 这样的大型 AI 实验室全面将其所有订阅用户转为 token 计费。一旦发生,就意味着倒计时开始了。

普通公司能否负担得起转向 token 计费?Anthropic 估算,用户使用 Claude Code 每天花费 13–30 美元(每年超 7,000 美元),而大型组织每年投入数百万甚至上千万美元。

正如我上周所讨论的,优步 CTO 在一次会议上透露,该公司在几个月内就用完了 2026 年全年的 AI 预算;高盛则指出,有些公司已将高达 10% 的人力成本用于购买 AI token,并可能在接下来几个季度内提升至 100%。

这完全是训练每一位 AI 用户尽可能人性化地使用这些服务的直接结果,而同时却刻意模糊了它们真实的成本。每一家要求每位员工“尽可能使用 AI”的主要公司,要么从根本上忽视了实际的代币消耗,要么完全脱离了实际情况;而随着企业被迫承担真实成本,我不确定如何从经济角度为这项技术的任何投资提供正当理由。

当然,你可能会说工程师们“更快地交付代码”之类的鬼话,我懂,但到底快了多少?由此你又赚到了或省下了多少钱?如果你将 10% 的人力成本用于 AI 代币,是否能看到这笔额外开支在其他方面得到抵消?反正我不确定你能做到。我也不确定有任何企业在投入巨额资金购买代币后获得了回报,这就是为什么每一项关于 AI 投资回报率的研究都难以找到多少证据来证明其存在。

在大多数情况下,那些你读到的对生成式 AI 可能性赞不绝口的人,其实并未真正承担其全部成本。每一个在网上歇斯底里地鼓吹自己整个工程团队都在疯狂使用 Claude Code 的 Twitter 喷子,实际上都是在使用每月每人 125 美元的 Teams 订阅服务,其使用限制与 Anthropic 每月 100 美元的个人订阅类似。每一个在 LinkedIn 上叫嚣着用某种 Perplexity 产品“几分钟完成数小时工作”的 LinkedIn 怪胎,最多也只是支付了每月 200 美元的 Perplexity Max 订阅费。

实际上,那每月 1250 美元、涵盖 10 人的 Teams 订阅,很可能每月通过 API 调用就烧掉了 5000 到 1 万美元,甚至更多。Anthropic 增长负责人 Amol Avasare 上周表示,其 Max 订阅是为重度聊天设计的,而非人们用来做 Claude Code 和 Cowork 的那类用途,并明确指出 Anthropic 正在考虑“不同的选项以保持卓越体验”,换句话说就是“我们迟早会调整价格”。

我不确定人们是否意识到这些代币有多贵,尤其是涉及庞大代码库并频繁调用编程和基础设施工具的项目。谁能预见性地负担得起每月 350、400 甚至 500 美元?他们能否承受某个月超支的情况?如果超出预算,或者根本无法负担完成工作所需的费用,又会发生什么?

举个更实际的例子:直到四月初,Anthropic 自己的 Claude Code 开发者文档(存档)曾写道:“平均每位开发者的每日成本为 6 美元,90% 的用户每日花费低于 12 美元。”而本周起,该文档内容已更新如下:

Claude Code 按 API token 消耗量计费。订阅计划(Pro、Max、Team、Enterprise)的价格请参见 claude.com/pricing。每位开发者的费用因模型选择、代码库规模和使用模式(如运行多个实例或自动化操作)差异很大。在企业部署中,平均成本约为每位活跃开发者每天13美元,每月150至250美元;90%的用户每日成本仍低于30美元。要估算您团队的支出,建议先从小范围试点开始,并使用下方跟踪工具建立基准,再逐步推广。

若假设一个月有21个工作日,则 Claude Code 用户的平均月成本约为273美元,年成本为3,276美元。若按每日30美元计算,则月成本为630美元,年成本达7,560美元。

这些数字令人震惊——尤其当你使用的是 Anthropic 较新的模型时更觉离谱。Claude Opus 4.7 的输入 token 单价为5美元/百万,输出 token 为25美元/百万。一百万 tokens 约等于5万行代码,而如果你真的在使用所谓“最先进”的模型,那几乎不可能只消耗不到一百万 tokens;除非你对不同任务该用哪个模型毫无概念,否则这个数字还会急剧攀升。

让我们再深入看看这个30美元/天的数字。

  • 对于一个十人开发团队来说,这相当于每年75,600美元——而且我们还没算周末和节假日。
  • 如果将日均成本提高到50美元,三个月后总支出将达到88,200美元。
  • 如果再加上一个月内某天花费超过100美元,全年支出就高达102,900美元。
  • 如果每天花费300美元,那么十个人一年的 token 开销就是756,000美元。
  • 虽然这在资金充裕的初创公司或像 Meta 这样的“香蕉共和国”式的企业里或许还能接受,但任何真正关心成本的企业都会发现,为一项“提升生产力”的服务额外支付六位数金额极其难以合理化——尤其是这种“提升”还无法被量化衡量。

    目前来看,我认为大多数公司大致分为三类:

  • 大型组织(如 Spotify、Uber),其 CEO 已深度拥抱 AI,允许预算无限扩张——我同样认为这种情况也存在于资金雄厚的大型初创公司。
  • 小型初创公司则依赖补贴版的“Teams”订阅方案。
  • 个人用户按月付费使用 Claude 或其他 AI 订阅服务。
  • 即便如此,大型组织仍可继续宣称他们为软件工程师烧掉数百万美元 AI token,理由是“顶尖工程师无需写代码”。

    但只需一次糟糕的财报电话会,就能彻底颠覆这一叙事。终有一日,即使是那些推动 AI 泡沫的蠢货投资者,也会开始质疑不断攀升的研发开支(AI token 消耗通常藏在这里面),一旦公司营收增长乏力。届时很可能重演 Meta 的做法——大规模裁员以控制成本,然后当有人问出“这些破玩意儿到底能不能让我们干活更快更好?”时,一切都将戛然而止。

    我还认为,那些用 AI token 烧掉10%以上人力成本的初创公司,六个月后很难再向投资人证明这是必要的。

    一旦所有人都转向基于 token 的计费模式,我们对生成式 AI 的 hype 恐怕就不会这么疯狂了。

    AI数据中心和计算的经济模式根本说不通

    人们谈论AI数据中心的方式完全脱离现实,我实在无法理解为什么这个时代的荒谬程度会达到如此地步。

    AI数据中心建设成本高昂、运营费用惊人,却几乎无法创造实际收益

    据TD Cowen的Jerome Darling分析,每兆瓦数据中心容量需要约1400万美元的基础设施投入,而关键的IT设备(包括GPU及相关硬件)成本约为3000万美元。根据规模不同,数据中心建设周期从一年到三年不等——前提是电力供应能够保障。

    截至2028年底计划建设的114GW数据中心中,目前仅有15.2GW处于任何形式的建设阶段。而所谓的"建设中"可能仅仅意味着"地面上挖了个坑",这绝不意味着相关设施能立即投入使用并产生相应产能。

    补充说明:如果您对其中涉及的深层数学原理感兴趣,欢迎订阅我的付费通讯,在那里您可以看到我开发的" bastard数据中心模型",该模型是在多位分析师和科技巨头数据源协助下完成的。

    让我们从最简单的概念开始:每当您想到100兆瓦的数据中心时,请记住这相当于44亿美元的投资,其中很大一部分都用于采购NVIDIA GPU。

    因此,每个AI数据中心在初期就要背负数百万美元的债务,即便采用六年折旧周期,也需要数年时间才能回本——更何况考虑到NVIDIA每年都会推出新一代产品,这些GPU在完成首个客户合同后很难再创造同等水平的收益。

    更令人担忧的是,除了OpenAI和Anthropic之外,我们尚不清楚是否还存在其他AI算力需求方。这两家公司的需求已占据在建数据中心容量的50%,如果其中任何一方资金链断裂,都将对整个行业造成系统性风险。

    无论如何,这些数据中心究竟收取何种持续费率仍不明确。虽然B200 GPU的现货价格可能维持在每小时4.5美元左右,但长期合约价格通常低得多——据《信息报》报道,某位创始人透露他们曾以每小时3.7美元的价格签订了一年期的GPU使用协议。

    必须明确区分现货成本与合约算力成本:前者指临时租用他人服务器上的GPU资源,后者才是数据中心资本支出的主要构成部分。大多数数据中心都是为1-2个大型客户量身定制的,这意味着这些客户很可能通过谈判获得更优惠的综合费率。

    因此,许多数据中心实际收费远低于每小时3.7美元,因为它们按兆瓦(或千瓦)为单位计费。

    正是从这里开始,经济模型开始出现严重问题。

    100兆瓦数据中心的经济困境:每小时2.55美元,100%满负荷运转时毛利率仅16%,但由于债务负担仍属亏损状态

    这是100兆瓦数据中心的初始成本。实际上只有85兆瓦可用于创收,根据与熟悉超大规模运营商计费模式的业内人士交流,预计每兆瓦年收入约为1250万美元,即年总收入约10.63亿美元。

    现在我要澄清一点:大多数你听说过的数据中心公司其实并不自己建造数据中心,而是把这项工作交给像 Applied Digital 这样的公司——他们也被称为“托管合作伙伴”。例如,CoreWeave 就向 Applied Digital 支付托管费用,以使用其位于北达科他州的设施。而 CoreWeave 负责数据中心内部所有 GPU 和其他技术设备的部署。

    为了说明这种经济上的错配,我将用一个假设的场景来解释:一个理论上的 AI 算力公司租用了一个虚拟的数据中心。

    该数据中心很可能使用的是 NVIDIA 的 Blackwell 芯片。最有可能的配置是采用每 Pod 8 颗 B200 GPU 的架构,单颗零售价约为 45 万美元,即每颗约 56,250 美元。假设总共有 85 兆瓦的关键 IT 负载,则每兆瓦的综合资本支出(capex)约为 36.78 万美元,整个数据中心的 IT 相关 capex 总计约为 31.26 亿美元,其中仅 GPU 部分就高达约 26.7 亿美元。

    我们假设这个数据中心位于北达科他州的埃兰代尔(Ellendale),这意味着电力成本为每千瓦时约 6.31 美分,相当于每年电费约为 5,540 万美元。根据与业内人士的交流,我估计运维、人员、电源更换等持续运营成本约占收入的 12%,即每年约 1.28 亿美元。这样,总成本已达每年 1.834 亿美元。

    等等,抱歉,还有一笔托管费没算进去。这笔费用是基于关键 IT 负载计算的。据 Brightlio 提供的信息,通常为每千瓦每月 180 到 200 美元,具体取决于规模和位置;不过我也看到过低至每千瓦每月 130 美元的报价,这里我就按这个数字计算,即每年约 1.33 亿美元。这样一来,总成本升至每年 3.164 亿美元。

    嗯,即便如此,全年收入仍有 10.6 亿美元,似乎还能勉强维持,对吧?

    错了!你还有价值 31.26 亿美元的 IT 设备需要折旧。按照六年直线折旧法,每年需计提约 5.21 亿美元。加上前面提到的运营和托管成本,年总支出达到 8.374 亿美元,因此年利润仅剩约 1.686 亿美元,毛利率仅为约 16.7%……

    ……前提是数据中心始终保持 100% 的出租率!实际情况是,从安装 GPU 到客户上线往往要花费一到两个月时间,期间你一分收入都拿不到,却仍需持续支付托管费、电费及运营开支——尽管此时负载较低(我模型中设定为电费和部分运营成本降至正常水平的 10% 和 15%),但每天仍净亏损约 327 万美元。

    为简化分析,我们假设额外增加一个月才能正式启用,这意味着你将白白支出约 1.02 亿美元,且永远无法收回。计入折旧后,全年总成本达 9.394 亿美元,毛利率仅为 6.6%。

    等等,操,你不会是用贷款买的这些 GPU 吧?你还真这么干了?那情况有多糟?天啊——你拿到了一笔为期六年的资产支持贷款,贷款价值比(LTV)高达 80%,也就是说你借了 28 亿美元,利率为 6%。

    你的银行倒是挺“慷慨”,给了你一个为期 12 个月的宽限期,只需支付利息……这部分利息约为 1.68 亿美元。若不计入那一个月的延迟(出于公平考量),第一年总成本约为 10.05 亿美元,而同期收入仅为 10.6 亿美元。

    这5.19%的毛利率甚至还没开始偿还本金。届时,你每月需支付5410万美元的贷款,未来五年累计约6.49亿美元,总成本达14.8亿美元左右,导致毛利率转为负值,约为-40%。

    我必须明确指出,这是在100%利用率且租户每次都按时付款的前提下。

    Stargate Abilene是一场灾难——每GPU每小时2.94美元,年收入100亿美元,严重滞后,仅一家客户每年亏损数十亿美元。

    我们来谈谈数据中心历史上最具经济可行性的项目——一个为甲骨文(Oracle)建造的大型园区,甲骨文是全球最大的AI公司之一,拥有数十年历史的近超大规模数据中心运营商,长期向企业和政府销售昂贵的数据库及企业管理软件。

    哈哈,开玩笑的,这个地方简直是个噩梦。

    Stargate Abilene是一个由八栋建筑组成的1.2GW数据中心园区,IT负载约824MW,于2024年7月首次宣布。截至2026年4月27日,仅有两栋建筑投入运营并开始创收,第三栋几乎没有任何IT设备。我估计Stargate Abilene的总成本约为528亿美元。

    根据我的报道,甲骨文预计从Stargate Abilene获得约100亿美元的年度收入,而我估计其向OpenAI提供的7.1GW数据中心容量将带来总计约750亿美元的收入。我还曾报道,甲骨文在2024年估计Abilene每年的托管和电费支出至少为21.4亿美元,需支付给土地开发商Crusoe。

    我还应补充一点,似乎甲骨文正在承担Stargate Abilene的全部建设成本。

    基于我的计算和报道,我估计一旦Stargate Abilene完全投入运营,其毛利率约为37.47%:

    我必须明确指出,这一37.47%的毛利率可能偏高,因为我并不掌握甲骨文真实的保险或人力成本数据,仅基于本出版物查阅的文件估算。我还应强调,甲骨文正将其整个未来押注于像Stargate Abilene这样的项目上,前期投入数十亿美元,即使OpenAI每次都能及时付款,该项目也需要数年时间才能实现盈利。

    遗憾的是,我无法确定Abilene有多少是通过债务融资支付的,但我知道甲骨文在2025年9月发行了总额约180亿美元的各类债券,期限从7年到40年不等,并在上一季度财报中录得247亿美元的负现金流。

    我所知道的是,它与开发商Crusoe签订了为期15年的租约,而甲骨文的未来严重依赖OpenAI能否持续付款,而这又取决于甲骨文能否完成Stargate Abilene的建设。

    我还需要明确指出,38.5亿美元的年度利润只有在OpenAI及时付款、尽快入驻Abilene且一切按计划进行的情况下才可能实现。

    如果OpenAI在未来四年内无法筹集到852亿美元的收入、资金和债务,Stargate数据中心项目将拖垮甲骨文。

    可悲的是,情况恰恰相反:

    根据数据中心动态(DatacenterDynamics)的报道,该设施的首批200兆瓦电力本应在“2025年”投入使用。但随着时间推移,预计入住时间推迟至2025年上半年,并“有望在2025年达到1吉瓦规模”,全部1.2吉瓦容量将于2026年中完成,整体项目于2026年中实现供电。截至2025年9月30日,已有“两栋建筑投入运营”;而到了2025年12月12日,甲骨文联合首席执行官克莱·马古伊尔克表示,阿比林(Abilene)项目“进展顺利”,已交付超过96,000颗英伟达Grace Blackwell GB200 GPU——相当于两座数据中心的算力规模。然而四个月后,即2026年4月22日,甲骨文发布推文称:“在阿比林,200兆瓦的电力设施已投入运行,八座园区的交付仍按计划进行。”目前尚不清楚这200兆瓦是指关键IT负载还是整个阿比林园区的总可用电力,但无论如何,仅够支撑两座建筑的用电需求,这意味着甲骨文显然并未按进度推进。

    这是一个极其严重的问题。OpenAI只能为实际存在的算力付费,而目前仅有206兆瓦的关键IT电力真正产生收入,第三座至少还需一个月(甚至一个季度)才能上线创收。

    更根本、更具毁灭性的是,整个星门(Stargate)数据中心项目的逻辑前提存在致命缺陷——除非OpenAI能实现其荒谬到近乎卡通化的预测目标,否则该项目毫无意义可言。

    正如我周五所分析的那样:

    我再重申一遍数字:正在建设的7.1吉瓦星门数据中心建成后,每年将带来约750亿美元收入,总成本则高达逾3400亿美元。甲骨文自由现金流为负247亿美元,其他业务线已趋于停滞,其唯一增长引擎是低利润率的云计算业务。为了让OpenAI真正有能力履行其对合作伙伴(包括亚马逊、微软、CoreWeave、谷歌、Cerberus及甲骨文本身)的算力采购承诺,它必须在未来四年内筹集或创造8520亿美元的营收和/或资金,这意味着其业务每年必须增长超过250%,到2030年底时规模需扩大十倍。届时,它还得想办法实现正向现金流,否则这些数字根本站不住脚。必须明确的是,OpenAI的预测显示其在未来四年内将实现6730亿美元收入,却要为此烧掉2180亿美元。这是一家极度亏损的企业,即便不亏损,也远远无法持续支付甲骨文的费用。

    我之所以得出750亿美元这个数字,是基于假设Vera Rubin GPU集群每兆瓦算力可贡献约1400万美元年收入(这一数据已通过熟悉数据中心行业的消息源确认),并以此推算剩余4.64吉瓦关键IT设施所能带来的收益。

    OpenAI的数据直接来源于《信息报》(The Information)披露的内部泄露文件,其中显示该公司预计到2030年底累计实现6730亿美元收入,同时累计消耗8520亿美元资金。

    我必须强调:任何未经批判性思考就盲目传播这些数据而不指出其荒谬性的记者,都应感到羞耻。正如我在周五发布的付费专栏中所言:

    换言之,OpenAI预计在两年内实现的年收入将超过台积电(TSMC),三年内接近Meta的水平,而到2030年底,其年度收入将与微软相当(约为3000亿美元,基于过去12个月滚动数据)。

    如果 OpenAI 无法承担这些计算资源,Oracle 就会陷入困境,因为该公司为了建设 Stargate 数据中心已经背负了约1150亿美元的债务,而完成项目还需要额外投入1500亿美元:

    Oracle 目前年收入约为640亿美元,上一季度自由现金流为负247亿美元。该公司于2025年9月发行180亿美元债券,2026年2月又发行250亿美元债券,3月份通过市场配售方式融资200亿美元。尽管名为“封闭”融资已持续数月,其威斯康星州Stargate和Shackelford项目的380亿美元项目融资才刚刚敲定。此外还需计入与密歇根州Stargate相关的140亿美元数据中心债务。无论如何,Oracle 都缺乏足够资本完成 Stargate Abilene 项目。至少还需要另外1500亿美元才能实现目标——这还是假设其他合作伙伴将承担约300亿美元成本的前提下。说实话,这个数字可能还要更高。

    我必须明确指出:Oracle 若不依赖 OpenAI,就没有任何其他途径获得这笔收入,而这些项目完全依靠数据中心自身的预期现金流来融资和支付。

    我并非唯一对此感到担忧的人。据《华尔街日报》报道,OpenAI 首席财务官 Sarah Friar 在公司未能达成用户和营收目标后也表达了类似忧虑:

    OpenAI 近期未能实现新用户增长和营收目标,这些挫折引发部分高管对公司能否支撑巨额数据中心开支的担忧。知情人士透露,CFO Sarah Friar 已向其他高管表示,若营收增长不够快,公司可能无法履行未来的算力采购合同。董事们近几个月也更仔细地审查了公司的数据中心协议,并质疑 CEO Sam Altman 在经济放缓背景下仍致力于获取更多算力的做法。

    如果这还不足以让你担心,不妨看看这个:

    她向高管和董事会强调,OpenAI 亟需加强内部控制,并警告称公司尚未准备好满足上市公司所需的严格披露标准。据知情人士透露,Altman 倾向于加快IPO时间表。

    听起来这分明是一家有望在十年内实现8520亿美元营收的公司!

    Anthropic 与 OpenAI 同样糟糕,将向 Google 和 Amazon 承诺最高达10GW(对应年收入超1000亿美元)的计算资源

    虽然我常批评 OpenAI 的离谱承诺,但 Anthropic 也不遑多让——它承诺从 Google 和 Amazon 分别获取“最高达”5GW的算力容量。考虑到规模因素,我估算该协议实际包含约1000亿美元的算力承诺。

    不过我要补充的是:Google 和 Amazon 远比 Oracle 精明老练,也远非 desperation( desperation 在此译为“ desperation”,但根据上下文,更合适的翻译是“ desperation”或“ desperation”,但为了保持流畅,我们使用“ desperation”)。即使 Anthropic 资金链断裂,它们也能承受损失。“最高达”这一措辞为它们提供了急需的弹性空间,这是 Oracle 完全不具备的。

    然而,Anthropic 若想真正兑现承诺,到2030年底每年必须在算力上投入250亿至1000亿美元之间。

    Anthropic 的 CFO 在3月表示,该公司自成立以来总收入仅为50亿美元。

    要支撑正在建设的15.2吉瓦(GW)AI数据中心,每年需要1568亿美元的AI计算收入;而要支持全部已宣布的114吉瓦容量,这一数字将高达1.18万亿美元。

    杰弗里·黄(Jensen Huang)声称不断转移数百亿美元的GPU所引发的近乎色情狂热的兴奋感,掩盖了一个关键问题:这些算力卖给谁,杰弗里?

    如果我们假设正在建设中的15.2吉瓦数据中心(预计到2028年底完工)的PUE约为1.35,那么实际可用的IT负载功率约为11.2吉瓦。按每兆瓦1400万美元计算,要实现这些数据中心的经济可行性,每年所需的GPU租赁收入约为1568亿美元。

    如果考虑到到2028年底理论上将上线114吉瓦的容量,这一数字将攀升至每年1.18万亿美元的收入。

    举个例子,作为拥有Meta、OpenAI、Google(为OpenAI服务)、Microsoft(为OpenAI服务)、Anthropic和NVIDIA等客户的最大新云服务商CoreWeave,其年收入约为51亿美元,并预计在2026年达到120亿至130亿美元。

    那么,所有这些算力究竟面向哪些客户?他们是否真的会在所有产能建成时愿意购买?虽然许多数据中心都声称在运营初期几年内有租户,但只有当数据中心完全建成时,租户才开始付费——而如果是AI初创公司,我认为可以合理质疑他们在数据中心建成时是否还存在。

    请记住:AI算力的客户主要是两类——要么是试图将资本支出移出资产负债表的超大规模云厂商,要么是尚未盈利的AI初创公司。Anthropic和OpenAI都计划在接下来几年烧掉数千亿美元,而它们都没有实现盈利的路径。

    这意味着,AI算力收入的很大一部分——如果不是大部分的话——依赖于持续不断的风险投资和债务融资,而这两种资金来源都要求投资者仍然相信生成式AI将是世界上最大、最重要的事物。

    那么,这到底是如何运作的?谁在为这些数据中心容量买单?它们面向谁?真正的需求在哪里?

    而且,如果这种需求确实存在,这些客户究竟如何支付费用?

    生成式AI既不盈利也不可持续,只会越来越贵。

    尽管有多篇报道声称OpenAI和Anthropic将在2028或2029年实现盈利,但没有人能向我解释它们究竟如何实现盈利,尤其是考虑到这两家公司即使剔除数十亿美元训练成本后的利润率也低于预期。

    这个问题我已经问了整整几年了。每次我们听到Anthropic或OpenAI的新消息时,都会发现它们的亏损比预期更多,利润率持续下滑,成本飙升,一切都比承诺的更昂贵,尽管承诺的情况恰恰相反。

    即使是 Cursor 这家曾短暂(在被马斯克旗下 SpaceX 伪收购前)宣称实现正向毛利的公司,截至一月份的毛利率实际为负23%,若计入非付费用户的成本则达负31%——如果你真在乎财务核算的话,这绝对是必须纳入的。令人费解的是,有报道声称其“近期已转为正向”,却神秘地未透露具体幅度、实现方式或任何其他细节,唯独对促成公司被出售的因素心知肚明。

    我也不明白这些 AI 数据中心究竟如何说得通,即便它们头几年有客户愿意买单。其经济模型建立在完美假设之上:零容错率、持续满负荷运行和稳定租户。稍有波动就会烧掉数百万美元,根本无法啃动科技行业最昂贵错误所累积的多年折旧墙。

    即便侥幸成功,这也不过是利润率平庸的可怜生意——最多70%,前提是持续收款、保持满租,并忍受长达六年(他妈的)的折旧周期才能勉强回本;考虑到每年升级换代让设备刚还清就近乎报废,这几乎不可能实现。

    更别提大部分客户本身就是亏损且不可持续的初创企业。

    我真不知道这一切到底怎么运作的。

    大语言模型是场骗局,用户一直被蒙在鼓里。

    我承认这听起来有点极端,但我真心认为基于订阅的 AI 服务本质上是一种欺骗,堪比欺诈——它们扭曲了核心单位经济效益,进而误导了对大型语言模型潜力的认知。像 Anthropic 和 OpenAI 这样的公司按月向用户兜售产品,并培养使用习惯,实则构建的是无法维持的商业模式,导致大多数用户基于注定难以为继的产品搭建工作流程。

    Anthropic 近期激进实施速率限制变更,距离其多次鼓吹“理想体验”的营销活动仅过去数月,而当前限制下那些体验如今几乎无法复现。结合 Anthropic 近期的举措,显然它正计划在未来某个时间点削减甚至移除其每月20美元的低价订阅用户的服务。这种运营方式极其恶劣且充满误导,它对产品的模糊表述是对所有用户的侮辱,也暴露出它根本不在乎舆论监督。

    我必须明确指出:Anthropic 目前提供的产品——由于最近的速率限制调整——已与外界广泛宣传的版本截然不同(甚至更差)。Dario Amodei 蓄意营销一个他知道三个月内就会消失的产品,毫不在意。只要媒体继续吹捧他臆想出的年度数十亿美元收入,或推出任何旨在击垮某家早已增长放缓的公众 SaaS 公司的“新武器”,他才懒得管呢。

    媒体的朋友们,我这样说完全是出于敬意:Anthropic 正在严重伤害它的客户,而且它之所以这么做,是因为它觉得自己可以逍遥法外。这家公司并不尊重你们,事实上,它对你们怀有相当程度的蔑视,这就是为什么它不愿意迅速修复自己的服务,也不愿意清晰地解释为什么这些服务会出问题。

    这就是为什么 Anthropic 在 Claude Mythos 过于强大而无法发布这件事上撒了谎(实际上只是容量问题),而它不过又是一个彻头彻尾的“大型语言模型垃圾”——因为它认为你会买下它所推销的任何东西,而且它已经想好了如何包装,让你和你的编辑在快速浏览系统卡时,就能相信它所宣称的一切。

    它们还知道你会迫不及待地报道它,而不是等待真正的专家发表意见。

    AI 是一场骗局,而这就是这场骗局的工作原理。AI 被以尽可能快、尽可能不高效但最易获取的方式推向我们面前,即使这种形式注定无法带来任何可持续的商业模式。媒体也被催促着立即宣称这就是未来的方向,以便所有人都同意这就是现在该做的事,并尽可能多地使用它,更重要的是,以订阅的形式使用它,让人们在使用时从不质疑提供这项服务的成本。

    叙事早已被预先设定好。因为谈论大语言模型(LLMs)的人中很少有人真正体验过它们的实际成本,所以他们很容易模糊地说“这就像 Uber”,因为 Uber 是一家亏损很多但最终没有倒闭的公司,比起说“等等,你是说 OpenAI 今年预计要亏掉50亿美元?”,这种说法更容易让人接受。

    你可以这样理解:作为一名记者、投资者、高管,或者一个普通的 LinkedIn Lounge Lizard,你可能会断断续续地看到每百万输入 tokens 收费5美元,每百万输出 tokens 收费25美元,但你从未真正体验过钱是如何快速或缓慢地流失的,因为只有真正体验过,你才能完全理解这个产品。Anthropic 和 OpenAI 故意模糊了这种体验,并建立了预期在2026年烧掉数千亿美元、到2030年烧掉数百亿美元的业务,原因在于大多数人都是基于订阅制的体验来评判生成式 AI 的。

    LLMs 就是一个赌场,而你一直在用庄家的钱赌博,同时还在鼓励人们用自己的钱去赌某个模型能否完成一项任务。

    这是有意为之。它们从来就不想让你思考成本问题,因为一旦你真的开始思考成本,整个事情看起来就会有点疯狂。我真心相信,基于大语言模型的订阅制产品将彻底消失,至少是在生成代码这类产品的规模上,而 Amodei 和 Altman 也会借此结束他们的骗局,或者至少是相信自己已经成功了。

    问题是,这些人现在签下的合同太多了,以至于他们几乎不可能全身而退。

    OpenAI 的首席财务官已经多次表示,她不认为 OpenAI 已经准备好上市,并且对其增长和持续履行义务的能力存在重大担忧。重复一下之前的说法:

    据知情人士透露,首席财务官莎拉·弗里尔(Sarah Friar)已向其他公司高管表示,如果收入增长不够快,该公司可能无法支付未来的计算合同费用。

    这是一盏疯狂闪烁的红灯,在一个理性的市场中本应让甲骨文公司的股价一落千丈——因为 OpenAI 年营收突破 2800 亿美元对甲骨文避免资金枯竭至关重要。在正常的媒体环境下,这早已在各类群聊和 Slack 频道中引发关于 OpenAI 是否真能存活的恐慌性讨论。

    这正是企业开始走向衰亡前的征兆。OpenAI 的增长速度正巧处于需要加速的关键节点。它必须在 2030 年前将现有业务规模扩大十倍才能履行其义务。而 OpenAI 的首席财务官——这个最清楚内情的人——竟然公开表示,若收入不增长,连基本的算力合同都付不起。这可不是演习!这是真正的警报!

    但真正让我不安的是《华尔街日报》提到的那句评论:弗里尔认为 OpenAI“尚未准备好满足上市公司所需的严格披露标准”。

    这到底是什么意思?抱歉我多嘴——这家公司据称已融资 1220 亿美元,估值高达 8520 亿美元,并预计到 2030 年底将烧掉 8520 亿美元。它的账目难道有问题?还有什么“严格披露标准”是它无法达到的?

    通常我不会如此八卦,除非考虑到这样一个事实:去年这家企业占据了风险投资总额的约 20%,而我走到哪里都能听到 Altman、布罗克曼以及 OpenAI 其他高管们没完没了地吹嘘他们的所谓“普通人该怎么做”,同时还在不断推出烂透了的软件,挥霍着别人的钱。

    以 Anthropic 和 OpenAI 所消耗的巨大资源来看,这两家公司无论在产品还是商业层面都不该有任何瑕疵。然而它们却通过层层包装经济模型与实际效能来误导公众,掩盖真相,只为让 CEO 们攫取金钱、权力与关注。这既是对优秀软件的侮辱,也是对品味的践踏——史上最昂贵、最不可靠的应用程序,它们的失误被原谅,平庸被颂扬,基础设施则被奉为资本的无形之神。

    生成式 AI 本身就是一场骗局。它不可靠,经济逻辑说不通,产出毫无价值,实施者是一群无聊、愚钝又贪婪、与社会脱节、容不下任何异议的男人。他们靠窃取所有人的艺术成果、破坏环境、抬高电费账单、威胁全球经济安全,还要制造出“一切都因 AI 变糟了”的聒噪噪音,只为推广那些只能用无视基本财务常识或理性判断来为其存在辩护的软件。

    这一切都贵得离谱,又无聊透顶。简直令人反感地乏味。让人烦躁不已。每当你听到有人炫耀自己用了多少AI,听起来都像陷入虐待关系或邪教组织,语气中带着一丝绝望的恳求:“你非得加入我们不可,这东西太棒了,而我居然感受不到快乐,恰恰说明它的高效。” AI能做到的一切毫无轻松愉快可言。大型语言模型也毫无滑稽或奇思妙想之处,每一次互动都空洞无物。

    那些拼命寻找AI正在觉醒或“变得更强大”迹象的人,其实是在寻求自我认同——他们渴望成为第一个发现的人,因为抢先得出他人结论正是他们的职业所在。

    成为“第一人”——也可以说是站在“前沿”——是当人们内心空虚时最渴望的东西,而这正是骗子们赖以生存的燃料,因为LLMs总给人一种即将做出新事物的感觉,尽管它们在数学上注定只能重复已有行为。

    这是一个极其悲哀的时代。那些为了支撑这个行业而激烈合作的人们,只是延缓了其不可避免的崩溃。令我恐惧的是,我们的市场和部分经济正依赖于一个普遍但完全未经证实的假设:LLMs终将变得便宜,AI初创企业将神奇地盈利,提供AI算力将永远有利可图,以至于到2030年需要将当前供应量增加十倍。

    人们已经贬低自我去捍卫AI行业,因为这是行业对追随者的要求。要成为“AI专家”,就必须主动忽视历史上任何行业的最差经济规律,不断为产品的明显缺陷找借口,并积极说服他人如此。OpenAI和Anthropic从未清晰解释如何盈利,因为他们知道支持者永远不会追问——因为彻底“相信AI”的唯一方式就是主动戴上眼罩。

    我理解你的想法。如果你接受OpenAI和/或Anthropic终将倒闭,那么这一切似乎确实有些疯狂。我真心希望你认真考虑过,这些公司终会耗尽资金。

    我真的很担心,而这种担忧因媒体和社会整体缺乏关注而愈发加剧。

    如果非要揣测,我想人们大概觉得我只是危言耸听,认为“需求绝对存在”。

    那你最好是对的。

    至少为了拉里·埃里森的缘故。埃里森已承诺将其持有的3.46亿股甲骨文股票(约合615亿美元)“用于担保个人债务,包括各类信贷额度”,这意味着他抵押了巨额甲骨文股份以获得“许多漂亮的大额贷款”。IFR曾在去年9月估算(当时甲骨文股价更高),按他们所称的“保守”20%贷款价值比计算,这笔抵押最多可贷出约214亿美元,前提是银行不算特别慷慨。

    如果 OpenAI 到2030年底无法筹集到8520亿美元的收入和资金,就无法承担 Stargate 项目的成本。这将导致甲骨文股价暴跌,引发一系列追加保证金通知,进而迫使埃里森抛售股票,进一步触发更多追加保证金要求。无论是否存在任何可能的救助措施,都无法挽救拉里·埃里森的遗产。

    我的意思是说,埃里森的未来完全取决于山姆·奥特曼在4年内能否筹集并实现8520亿美元的资金和收入。

    祝你好运,拉里!你确实需要它。

    需要完整排版与评论请前往来源站点阅读。