返回 2026-04-22
💡 观点 / 杂谈

Four Horsemen of the AIpocalypseFour Horsemen of the AIpocalypse

wheresyoured.at·2026-04-21

If you liked this piece, please subscribe to my premium newsletter. It’s $70 a year, or $7 a month, and in return you get a weekly newsletter that’s usually anywhere from 5,000 to 18,000

Ed Zitron

如果你喜欢这篇文章,欢迎订阅我的付费通讯。年费70美元,或每月7美元,你将收到一份每周更新的通讯,通常长达5,000至18,000字,内容包括对NVIDIA、Anthropic和OpenAI财务状况的详尽分析,以及关于AI泡沫的全面探讨。我最近发布了《SaaSpocalypse的反对者指南》,另一篇是《AI为何并非大到不能倒》,还有一份长达17,500字的《OpenAI反对者深度指南》,就在上周,我又推出了重磅之作——《私人信贷反对者指南》。

订阅付费内容不仅物超所值,也让我能够持续撰写这些篇幅庞大、研究深入且免费发布的文章。

配乐 — Megadeth — Hangar 18(降半音调弦)

近四年来,我一直致力于撰写关于AI泡沫和科技行业的长篇巨制。我仍计划继续创作这类作品,但今天,我要做我最擅长的事——剖析科技行业中那些怪诞现象,并解释它们为何令我深感忧虑。

而且,既然我喜欢讲这些精彩故事,我就把它们和我预测AI末日(AIpocalypse)即将来临的几个关键征兆联系起来——这些征兆表明,历史上最令人恼火的这个泡沫正开始破裂。

总之,考虑到现在通讯和播客已成为我的主要收入来源,我将在免费和付费内容中尝试调整不同形式,以保持内容的新鲜感和多样性。

Anthropic的产品不断出现故障,因为它缺乏足够的算力,而Opus 4.7模型表现更差,还消耗更多token。

预警信号:如果Anthropic和OpenAI进一步涨价或服务降级,说明它们的现金流已接近枯竭。

我们先从一个直白的判断开始:Anthropic应该暂停新增客户,直到它解决其容量问题。

一般来说,任何你经常使用的服务——比如Netflix——都应具备“四个九”的可用性标准,即正常运行时间达到99.99%。一旦企业规模超过某个阈值,拥有四个九的可用性就被视为标准商业实践……

……除非你是Anthropic!

截至本文撰写时,Anthropic的Claude聊天机器人过去90天的可用性为98.79%,其平台/控制台为99.14%,API为99.09%,Claude Code为99.25%。

我来帮你理解这个数字的含义。当服务可用性达到99.99%时,每周仅会中断一分钟(0.48秒)。而像Claude聊天机器人这样只有98.79%的可用性,每周中断时间就会增加到两小时、一分钟、58秒。

换句话说,98.79%的可用性意味着在一年中有近四天的时间服务不可用。

更令人震惊的是,Claude for Government的可用性仅为99.91%。政府服务通常至少要求达到四个九的标准,对于紧急服务等关键系统,则要求五个九(99.999%)。

这是一家最近融资300亿美元、备受瞩目的公司,却出现了与其资金实力极不相称的服务稳定性问题,其服务频繁因容量不足而中断。

据《华尔街日报》报道:

自二月中旬以来,Anthropic各系统的故障频发,一些企业客户已开始转向其他AI模型提供商。
Retool软件开发平台创始人兼CEO David Hsu表示,他更倾向于使用Anthropic的Opus 4.6模型来驱动其公司的AI代理工具,因为他认为这是最适合企业级应用的模型。他最近已将公司代理工具的模型切换为OpenAI的产品。“Anthropic的服务一直频繁宕机,”他说道。互联网核心服务的可靠性通常以“几个9”来衡量,四个9即99.99%的正常运行时间——这是软件公司对客户承诺的典型标准。截至4月8日,Anthropic的Claude API在过去90天内的正常运行时间率为98.95%。

然而,Anthropic的问题远不止简单的宕机(正如我上周所讨论的),还导致Opus 4.6出现严重性能问题(无论是有意还是无意):

最详尽的公开投诉始于Stella Laurenzo于2026年4月2日在GitHub上提交的一个issue。她的LinkedIn资料显示她任职于AMD AI部门的高级总监。在该帖子中,Laurenzo写道Claude Code已退化到无法信任其进行复杂工程工作的程度,并附上对6,852个Claude Code会话文件、17,871个思考块和234,760次工具调用的广泛分析来佐证这一说法。该投诉指出,自2月起,Claude的推理深度估算值急剧下降,同时伴随更多过早停止、更多“最简单修复”行为、更多推理循环,以及从“先研究后编辑”向“先编辑后研究”的可测量转变等性能恶化迹象。

尽管Anthropic声称不会为了应对需求而降低模型性能,但这与众多用户抱怨的问题并不相符。Anthropic的回应基本是否认问题存在,一位发言人仅将VentureBeat记者Carl Franzen(他在此事上有篇精彩文章)引向两条不同的Twitter帖子,而这两条内容均未真正解释实际情况。

情况在Opus 4.7发布后进一步恶化,该版本似乎性能更差且消耗更多token。

据《商业内幕》报道:

一个标题为“Claude Opus 4.7是严重倒退而非升级”的Reddit帖子已获得2,300个赞。一位X用户在Opus 4.7并未真正优于Opus 4.6的观点下获得14,000个点赞。在一项非正式但流行的AI智能测试中,Opus 4.7竟表示“strawberry”中有两个P。另一位用户截图显示它声称因“偷懒”而未进行交叉引用。一些Redditors发现Opus 4.7会重写他们的简历,添加新的学校和姓氏。多位X用户推测Opus 4.7明显变笨了。部分X用户认为问题出在AI模型的推理时间上。Anthropic表示新的“自适应推理”功能让模型能自主决定思考时长。一位用户写道无法“让Opus 4.7进入深度思考模式”。另一位则称这“削弱了性能表现”。“不准确,”Claude Code创作者Boris Cherny回应道。“自适应思考让模型自主选择何时思考,整体表现更佳。”

一家据称价值数千亿美元的公司竟然无法保证其服务持续稳定运行,反而似乎让产品变得更差,还拒不承认或讨论这个问题,这实在令人匪夷所思。自2024年起,用户就不断抱怨Claude模型“越来越笨”,而每次面对的都是这家CEO热衷于鼓吹其AI产品将取代半数白领工作的公司所抛出的敷衍否认与煤气灯效应。

Anthropic在应对容量问题上毫无良策,不应再接纳新客户——增加容量只会让它亏得更多。

有人可能会说Anthropic对其产品有着“永不满足的需求”,但在我看来,这是一家基础设施糟糕透顶、运营方式不道德的烂生意。Anthropic显然且令人担忧地无法负担起为客户提供稳定可靠的服务,而其扩张计划似乎是与博通(Broadcom)签订协议,这些新增能力预计“从2027年开始”才上线;同时它还与Hut8合作,后者似乎从未建造过任何AI数据中心,并宣称拥有接近理论极限的算力;此外,它也与CoreWeave合作,而CoreWeave至今尚未兑现其与OpenAI签订的2025年全部产能承诺,截至2025年底仅拥有约850兆瓦的“活跃电力容量”——即实际算力约为653兆瓦——相比2024年底的360兆瓦有所增长。

请记住:数据中心的建设耗时极长,全球可用容量本就有限,其中大部分已被微软、谷歌、亚马逊、Meta和OpenAI占据,而这三家巨头早已同时为Anthropic和OpenAI提供算力支持。

我们可能已经触及了可用AI算力的绝对物理上限,即便未来有其他数据中心建成,难道计划是永远将这些资源交给OpenAI或Anthropic吗?

同样不清楚的是,这些额外容量的目标究竟是什么,正如我上周所讨论的那样:

然而,尚不清楚“更多容量”是否意味着服务会更便宜、更好,或者只是Anthropic在日益糟糕的体验基础上继续扩张的一种手段。需要说明的是,当像Anthropic或OpenAI这样的AI实验室“达到容量限制”时,并不意味着它们会拒绝业务或停止接受订阅者,而是当前(以及新增)订阅者将面临随机宕机、模型异常以及愈发严苛的速率限制。这两家公司并未因无法提供服务而陷入财务困境(相反,它们正因向客户提供服务而亏损),真正为此付出代价的只有客户。

那么,真正的目标到底是什么?是为了给现有客户提供更好的体验?还是为了吸纳更多客户而确保足够容量?抑或是为了支撑像Mythos这样的大型模型?Anthropic到底何时才能达到供需平衡?那又会是怎样一番景象?

还有一个成本问题。

Anthropic每年亏损数十亿美元,却仍在提供可用性低下、质量波动的服务,并且持续接纳新的订阅用户,这意味着容量问题并未影响其增长势头。因此,增加更多容量只会以更高的成本提升产品的运行效率。

Anthropic的增长故事建立在补贴和劣质服务的基础之上,纯属骗局。

克劳迪娅的成长故事是一场骗局,其根基在于出售订阅服务——用户每支付1美元订阅费,实际需花费8至13.5美元来“燃烧”这些资源,而该公司提供的却是脆弱且不一致的服务。这种模式之所以能持续,全靠源源不断的风险资本注入以及基础设施供应商为数据中心建设买单。

换句话说,克劳迪娅根本无需遵守常规规则。风投资金让它能够大规模补贴自身服务,媒体对其近乎无休止的吹捧则掩盖了服务质量不断下滑的事实。科技领域,尤其是人工智能领域缺乏任何真正的监管,使得该公司可以随心所欲地降低客户的服务等级(rugpull),比如随意设置不同的速率限制。

如果克劳迪娅被迫按真实成本收费——不,我并不相信其API是盈利的,无论多少人误读达里奥·阿莫迪的采访——那么它的增长将迅速崩塌,因为客户将直面AI的真实成本(我稍后会详细讨论这一点)。如果克劳迪娅被迫提供稳定的服务,它要么停止接受新客户,要么大幅提高推理成本。

克劳迪娅是一个骗局,而这个骗局之所以能成立,完全依赖于没完没了的、站不住脚的炒作。所有盲目追捧这家公司的人都是受害者。

“神话”模型未能发布,不是因为担心其能力,而是受限于容量问题。

恭喜所有再次中招的“年度再信奖”得主们。据《金融时报》报道:

克劳迪娅表示,在确信该模型安全且不会被恶意行为者滥用之前,它将暂缓更广泛的发布。该公司拥有的计算资源有限,最近几周还遭遇了服务中断。多位知情人士称,克劳迪娅推迟发布是为了确保能够稳定地向客户提供该模型。

所以,没错,任何媒体如果轻信了达里奥·阿莫迪所说的“太危险而无法发布”这种鬼话,那他们就是受害者。卡尔·纽波特有一篇出色的文章揭穿了这场炒作,但我的总体感觉是,如果“神话”模型真的如此强大,那么Claude Code的源代码是怎么泄露出去的?

……克劳迪娅难道没有用其超级强大的“神话”模型来检查吗?还是说它什么都没发现?无论如何,这对所有相关方来说都非常尴尬。

AI算力需求被克劳迪娅和OpenAI夸大了,超过50%正在建设的AI数据中心是为这两家公司建造的,到2028年底仅有15.2GW的容量处于建设阶段。

白马:数据中心崩溃及其他事故。

正如我之前所讨论的,目前全球仅有5GW的AI算力处于建设阶段(基于Sightline Climate的研究),这里的“处于建设阶段”包括从仅围起脚手架的场地(如Nscale位于洛顿的数据中心)到即将交付给客户的建筑。

我联系了Sightline以获取更清晰的信息,他们告诉我,到2028年底计划上线114GW的容量中,仅有15.2GW处于建设阶段,其中包括2026年计划投入使用的5GW。

这……非常糟糕。

当你意识到其中大部分建设都是为了两家公司时,情况就变得更糟了:

  • OpenAI的“星门”数据中心占4.6GW——德克萨斯州阿比林1.2GW;德克萨斯州夏克福德1.4GW;新墨西哥州多纳安娜1GW;威斯康星州华盛顿港1GW。
  • 可以合理推测,凭借科技巨头数百亿美元的资本支出,其数据中心将占据相当大比例——高达6吉瓦——其中大部分很可能流向Anthropic或OpenAI。亚马逊在印第安纳州的“Project Rainier”项目可能占据了其中相当可观的一部分,该项目“最终”(据CNBC报道)将消耗超过2.2吉瓦的电力。尽管亚马逊声称其已“全面投入运营”,但显然是在撒谎,因为它还宣称已拥有“近50万个Trainium 2芯片”,而每个芯片功耗为500瓦,50万乘以500瓦约为250兆瓦。其他报告显示,到2025年底该项目的Trainium 2芯片数量可能达到100万个,即便如此也仅相当于500兆瓦。Anthropic似乎是主要租户。此外,Anthropic还与谷歌云达成协议,采购3.5吉瓦的TPU算力,其中首阶段1吉瓦将于2027年上线;同时,Anthropic也与微软达成协议,采购由“Vera Rubin和Grace Blackwell系统”构成的1吉瓦算力,这意味着这些很可能是正在建设中的数据中心。Anthropic与谷歌还在2025年第四季度宣布,Anthropic将在新合作中采用100万个TPU,并计划在2026年实现“远超”1吉瓦的算力上线。
  • 微软也在扩建Stargate Abilene项目,新增900兆瓦容量。考虑到微软现有的GPU基础设施大多已分配给OpenAI,我只能猜测这部分新增容量也将流向OpenAI。补充一点:萨提亚·纳德拉曾宣称微软在2025年实现了2吉瓦算力的上线,并称其Fairwater数据中心集群将“提前投产”,但随后并未澄清具体时间表或所谓“提前”的含义。微软对实际算力规模的披露也较为模糊,但根据“数十万个GB200 GPU”这一数据推算(假设为30万个),总功耗约为583兆瓦。
  • 补充说明:Anthropic还与亚马逊云服务(AWS)达成协议,未来十年内将向其投入1000亿美元,这是其在亚马逊投资计划的一部分——初始投资50亿美元(未来可能追加至200亿美元,但无更多具体细节)。据称,Anthropic已获得5吉瓦的算力资源,并计划在年底前上线近1吉瓦的Trainium 2和3芯片算力。对此我持怀疑态度,不过也无所谓了。这类交易本就不应被允许。

    综上所述,在建的15.2吉瓦数据中心容量中,至少有4.6吉瓦是为OpenAI预留的,另有至少4吉瓦通过微软、谷歌和亚马逊等合作伙伴为Anthropic保留。实际上,这一数字可能远高于此。

    这种情况从根本上说是荒谬至极的。OpenAI和Anthropic每年都要烧掉数十亿美元,据《信息报》报道,Anthropic预计2026年将消耗至少110亿美元,OpenAI则高达250亿美元。这两家公司若要继续生存,唯一的出路就是不断融资——要么靠无限轮次的风险投资或,假设它们能上市,则依靠无限的债务发行或二级市场股票增发。

    NVIDIA宣称其2027年前的销售可见性达1万亿美元,但实际在建的数据中心仅价值2850亿美元规模的GPU——NVIDIA正以前所未有的方式提前数年销售GPU并将其囤积仓储。

    更令人担忧的是,宣布的算力产能中仅有极小一部分正在建设中,尤其是当你将其与NVIDIA的实际销售数据进行对比时,这种差距显得尤为触目惊心。

    去年,TD Cowen的杰罗姆·达林估算,每兆瓦关键IT设备(包括GPU、服务器、存储等)的成本约为3000万美元,而数据中心的建设成本为每兆瓦1200万至1400万美元,这使得关键IT在总单位兆瓦成本中占比高达68%(处于建设成本的较高区间)。

    需要明确的是,数据中心提到的千兆瓦和兆瓦指的是整体供电能力,而非仅关键IT部分;若取平均PUE(电源使用效率,衡量数据中心电力利用效率的指标)为1.35,则对应的关键IT硬件总量为11.2GW,其中我估计90%以上为GPU,因此GPU规模约为10.1GW。

    若将这些GPU按GB200或GB300 NVL72机架划分,每台功耗约140千瓦,则相当于约71,429个机架规模的硬件,每个机架平均价值400万美元,由此可推算出英伟达在此类配置下的潜在收入约为2857亿美元。

    英伟达宣称其在2025至2026年间累计订单达5000亿美元,到2027年销售额有望突破1万亿美元,然而这些订单究竟流向何处尚不明确——除了位于台湾的一个仓库之外似乎别无去处。

    至此,我们不禁要问:既然无处安放,为何还有人疯狂采购更多GPU?如今每一次英伟达的财报超预期都显得愈发可疑。

    AI开销巨大:企业用于大语言模型令牌的花费已达人力成本的10%,未来几个季度可能攀升至人力成本的100%

    新预警信号:任何表明企业正面临AI经济现实迹象,包括对日益增长的AI成本提出抱怨或采取相应调整措施。

    上周高盛发布报告指出(原文引述):“……企业在推理方面的初始预算严重超支,幅度达数个数量级(我们听说某行业数据显示工程推理成本已接近人力成本的10%,但根据当前趋势,未来几个季度或将与人力成本持平)。”

    简而言之,这意味着一些公司已将高达员工总薪酬10%的资金投入生成式AI服务,却未见稳定性、质量或效率提升,甚至(虽然我不愿看到这种情况)也没有正当理由进行裁员。

    《信息报》的劳拉·布拉顿上周也报道,优步在2026年初几个月就已耗尽全年AI预算:

    据首席技术官普拉文·内帕利·纳加透露,优步激增的AI编码工具使用量——尤其是Anthropic的Claude Code——使其在2026年仅过去数月便用完了全年的AI预算。“我已回到原点,因为我原本计划的预算早已被彻底打破,”纳加在接受采访时表示……他未披露公司软件预算的具体数字,也未说明其在AI编码工具上的支出情况。优步的研发费用从上一年的31亿美元增至2025年的34亿美元,涨幅达9%,该公司近期在证券文件中称,预计这一成本将继续以绝对数值形式上升。

    优步的首席技术官还补充说,“……目前,在其后端系统中实时更新的代码中约有11%是由AI代理编写的,这些AI代理主要基于Claude Code构建,而三个月前这一比例仅为百分之几。”任何在过去一年使用过优步应用的人都能看到效果如何,尤其是当他们不得不提交某种支持工单的时候。

    说真的,我觉得这一切他妈的完全疯了。生成式AI的销售宣传一直是它作为效率驱动的神奇万能药,但每当你问别人时,答案要么是“是啊,我们用AI写所有代码!”却没有任何具体好处,要么就是“这玩意儿花他妈太多钱了。”

    让我们来实际看看这些经济账吧,以Spotify为例,因为它的CEO自豪地宣称其“顶尖工程师”几乎不再写代码了——不过要说明的是,高盛的那个例子并没有特指某一家公司。

    为了论证方便,假设该公司有3000名工程师——其中一个网站声称有2700人,但我见过高达3500人的报告。再根据Spotify Blind(一个面向科技从业者的匿名社交媒体平台)的数据,我们假设这些工程师的年薪中位数为19.2万美元。

    如果Spotify将其工程人力成本的10%(约5.76亿美元)用于AI推理,那么它将花费大约5760万美元,约占其2025财年研发支出13.93亿美元的4.1%。在座的数学爱好者可能会注意到,如果将全部人力成本投入AI推理,那几乎相当于研发预算的一半,或者约占其当年22亿美元净利润的四分之一。

    现在要明确的是,这些数字很可能已经包含了一些AI推理的开支,我只是想说明这个成本的巨大规模而已。

    虽然这对Anthropic(以及程度较轻的OpenAI)来说是好事,但我看不出它的客户能从中受益。软件工程中增加10%的成本恰恰与AI原本旨在实现的目标背道而驰;如果成本继续攀升,我不确定谁能进一步证明这笔开支的合理性。

    我们很快就会知道结果,因为代币补贴的时代正在终结。

    次贷AI危机持续发酵:微软将于今年晚些时候对GitHub Copilot实施基于代币的计费模式,而Anthropic也已开始将企业客户转向API费率体系。

    老马:如果AI初创公司继续涨价或降低服务质量,没错,这就是我对GitHub Copilot的评价——它亏损数亿美元,却几乎不产生收入。

    正如我昨天报道的那样,内部文件显示,微软计划暂时暂停个人账号注册GitHub Copilot编码产品,全面收紧速率限制,从其每月10美元的Pro订阅套餐中移除Opus模型,并于今年晚些时候从请求制(即单次与GitHub Copilot交互)过渡到基于代币的计费模式。微软在一篇博客文章中确认了部分细节(但未提及代币计费)。

    这是一项重大举措,据我的调查,微软运行GitHub Copilot的周环比成本自1月份以来几乎翻了一番。

    顺便解释一下:如果你对“基于 token 的计费”感到困惑,要知道目前绝大多数 AI 服务都在补贴其订阅费用,而是采用另一种计量方式(如“请求次数”或“速率限制”)来衡量用户使用服务的程度。然而,这些服务仍会以实际成本消耗 token——例如我之前提到的 Opus 4.7 每百万输入收费 5 美元、每百万输出收费 25 美元——这意味着除非用户几乎不用订阅服务,否则公司几乎总是亏钱。企业这么做是为了扩大订阅用户数量,我认为他们曾天真地以为成本会自然下降。干得漂亮,各位!

    转向基于 token 的计费后,GitHub 用户将根据平台使用量以及提示词消耗的 token 数量被收费——也就是他们使用的计算资源多少。目前尚不清楚这一政策何时开始实施,但它显著改变了产品的价值。

    我还想说,微软完全停止为新的付费 GitHub Copilot 用户提供订阅服务,这是软件史上最具冲击力的举措之一。我从未见过哪家公司在非彻底停售产品的情况下做出如此决定,而据我的消息来源称,这很可能是因为他们计划将付费客户迁移到基于 token 的计费模式,尽管目前还不清楚这些新层级会是什么样子,因为每月 10 美元和 39 美元的订阅主要区别在于可使用的请求次数。

    值得注意的是,微软是少数有能力长期资助 AI 发展的巨头之一,自 2023 年中以来每个季度利润超过 200 亿美元。

    它决定削减 AI 相关开支,表明这些成本已变得难以承受。《信息报》今年一月曾报道,仅向 Anthropic 一家就计划每年投入 5 亿美元;如果这个数字翻倍,很可能意味着微软在 GitHub Copilot 上的支出是其收入的十倍左右——据我今天掌握的信息,截至 2025 年底,GitHub Copilot 年收入约为 10.8 亿美元,其中大部分来自 CoPilot Business 和企业版订阅。

    《信息报》几周前还报道,由于“流量激增以及将其应用从自有服务器迁移至微软 Azure 云的努力”,GitHub 近期频繁出现服务中断。

    GitHub 首席运营官凯尔·戴格尔表示:“自一月份起,几乎每个月每周都会创下新的峰值记录。”他将增长归因于“代理程序和人”,并指出 AI 编程工具的兴起促使越来越多缺乏深厚编码知识的人开始使用 GitHub 平台。

    这里的“代理程序”可能指任何东西——比如 OpenAI 的 Codex、Anthropic 的 Claude Code,甚至有人把那个浪费资源、实用性存疑的 OpenClaw 接入自己的 GitHub Copilot 账户。如果是这种情况,那很可能是推动采用基于 Token 的计费和速率限制的主要原因。

    无论如何,既然微软要采取这一举措,说明 CFO 艾米·胡德——去年主导数据中心建设放缓决策的高管——已经决定补贴时代结束了。虽然微软尚未正式宣布转向基于 Token 的计费,但我估计本周就会公布这一消息。

    两周前,Anthropic 对其企业客户采取了同样的做法,将其转为每人每月固定收费20美元的模式,并在此基础上按他们使用的模型按 token 计费。

    我判断,到2026年底,大多数 AI 服务将把部分或全部客户转向基于 token 的计费方式,因为他们必须正视运行 AI 模型的真正成本。

    这就是 AI 狂热时代

    我今天说得简单一点,既是为了让自己轻松一些,也是因为我觉得这些故事确实值得讲出来。

    不过,我还是不得不感叹,如今的一切变得多么荒谬。

    无论你走到哪里,总有人在用“代理”(agents)这个词,但他们的理解与现实完全脱节——比如 Aaron Levie 那篇长篇大论,声称“AI 代理让全球几乎所有公司都开始开发软件,以实现工作流的自动化,这在技术上不可行,在经济上也不划算”,这话听起来简直像是在说独角兽和蝎尾狮,跟现实毫无关联。

    我拿 Aaron 开刀有点于心不忍,因为他看起来并不是坏人。然而,他越来越典型地代表了高管层那种疯狂的 AI 狂热症:讨论行业时只能用“代理”“推理”“token 作为商品”这类模糊的未来感词汇来掩盖一个丑陋而简单的真相——生成式 AI 利润微薄,似乎并未带来实际的生产力提升,反而一直在赔钱,既赔了生意,也赔了客户。

    我的论点可能啰嗦,但最终其实很简单:AI 带来的好处——无论是经济上的还是其他方面的——连一丝一毫都不足以证明其高昂成本的合理性。每出现一篇关于降本增效或惊人烧钱速度的报道,都在不断印证我的观点;而支持者们通常只会回一句:“看!收入多高啊!”

    可事实并非如此!AI 的收入烂透了、糟透了、惨不忍睹。整个行业——包括 OpenAI 和 Anthropic 理论上分别达到131亿美元和45亿美元的营收——去年总收入也就约650亿美元,而这其中还包含了由 CoreWeave 这类新云厂商和微软等超大规模云服务商提供的算力收入。

    我也干脆直说了吧:我认为 AI 初创公司在向投资者和普通公众汇报营收时存在误导行为。根据我去年报道的数据,OpenAI 在2025年前三季度的营收约为43亿美元;而 Anthropic 的首席财务官克里希纳·拉奥在一份宣誓书中称,截至2026年3月9日,该公司营收已“超过”(唉)50亿美元,这个数字与公开披露的年化营收数据相加后根本对不上号。

    Cursor 据称已实现年化营收60亿美元(约合每月5亿美元),且“毛利润为正”——鉴于它去年融资超过30亿美元,今年似乎又在筹备新一轮20亿美元的融资,我对这个说法也表示怀疑。

    即便这些数字属实,OpenAI、Cursor 和 Anthropic 的大部分收入仍来自补贴性质的订阅服务。形势已经严峻到连 CNBC 的 Deidre Bosa 都认同我的看法——AI 需求被 token 最大化策略和补贴服务严重虚增了。

    否则,其他所有人都在赚取个位数或十位数百万美元,却在这个过程中损失了数亿美元。据创始人斯科特·史蒂文森(Scott Stevenson)称,夸大年化收入的情况极为普遍——AI初创公司会签订“三年期”企业合同,第一年打折,外加12个月的试用期:

    许多AI初创公司之所以能打破营收纪录,是因为它们使用了一种不诚实的指标。全球最大的基金都在支持这种做法,并误导记者以获得公关报道。具体操作是:公司与客户签署3年期企业合同,第一年价格优惠(例如100万美元),第二年涨价至200万美元,第三年按全价收费(300万美元)。他们却将300万美元作为“年度经常性收入”(ARR)上报——尽管目前实际只收到100万美元。更糟糕的是,客户在12个月后拥有解约权!这根本不是真正的三年期合同。

    虽然很难确定这种潜在的欺诈行为有多普遍,但史蒂文森估计,超过50%的AI企业初创公司都在使用“合同ARR”来抬高估值。一位(诚实的)创始人回应史蒂文森说,他的公司合同ARR为35万美元,但实际ARR仅为4.2万美元,他还补充道:“明年应该会很棒吧”——但我认为这对一个看起来像是帮助找投资人的聊天机器人来说恐怕不会实现。

    这个行业的未来完全依赖于无限资源的假设,而大多数AI公司实际上只是Anthropic和OpenAI所拥有模型的前端界面,这两家公司依赖无限资源来运行其服务并资助基础设施。

    而在金字塔顶端的是NVIDIA——股市上最大的公司,它售出的GPU数量已经超过了实际能够安装的数量,但似乎很少有人注意到或关心这一点。

    我说的是一堆价值数千亿美元的GPU正堆积在仓库里无人安装,单季度GPU销售额的安装周期就要长达六个月。根据我所读过的所有财经媒体的报道,普遍假设似乎是:“它会永远卖GPU,而且一切都会很美好。”

    杰森,你到底要把它们放哪儿?这些该死的GPU要往哪里去?根本没有足够的建设容量!如果NVIDIA真的像宣称的那样卖出那么多GPU,那它很可能是在“所有权转移”上做文章——把尚未真正交付给买家的产品标记为“已售出”。

    备注:已经有迹象表明GPU开始出现积压。你看,当超大规模云服务商购买AI服务器时,实际情况是ODM(原始设计制造商)从NVIDIA采购GPU,组装成服务器后再运送到数据中心——这一切都是公开且正常的流程。这些ODM公司会将NVIDIA GPU的全部价值计入营收,这也是为什么富士康、威腾和广达电脑等公司在AI泡沫期间营收都大幅增长的原因。哦对了,那些迹象。根据广达电脑第四季度的财务报告显示,库存(也就是等待出货的东西)从2025年第三季度的105.4亿美元飙升至2025年的163亿美元,同比几乎翻倍(83.3亿美元),而毛利率则从2024年第四季度的7.9%下降至2025年同期的7%。虽然这不是普遍问题(比如威腾的库存就环比下降了),但台湾地区的ODM厂商很可能是最先出现库存积压的地方之一。

    无论如何,我总是绕回到“歇斯底里”这个词,因为很难找到其他词来形容这个炒作周期。媒体、市场、分析师、高管和风险投资家谈论人工智能的方式完全脱离现实——他们用与实际不符的术语讨论“智能体”,用完全荒谬的“千兆瓦”来描述AI数据中心,并以一种令人不寒而栗的笃定口吻,让我不禁怀疑自己是否遗漏了什么关键信息。

    但所有迹象都表明我是对的,如果我的判断在我想象的那个尺度上成立,那么我认为我们正面临一场投资界和主流媒体的公信力危机——因为普通人敏锐地察觉到不对劲,很多时候正是因为他们会算数。

    需要完整排版与评论请前往来源站点阅读。