返回 2026-04-21
💡 观点 / 杂谈

AI启示录的四大骑士Four Horsemen of the AIpocalypse

wheresyoured.at·2026-04-21

文章探讨了当前人工智能领域面临的四大核心挑战,即所谓的‘AI启示录四骑士’,包括模型幻觉、数据污染、算力垄断和伦理失控。作者指出,这些风险正随着AI技术的快速商业化而加剧,尤其在大模型训练依赖低质量网络数据、头部公司控制关键基础设施的背景下尤为突出。文中特别强调,缺乏透明度和监管的AI发展路径可能带来系统性社会风险。最终呼吁行业建立更严格的验证机制与分布式治理框架以应对危机。

Ed Zitron

如果你喜欢这篇文章,请订阅我的付费通讯。年费70美元,或月付7美元,作为回报,你将每周收到一篇通常长达5000到18000字的深度通讯,内容涵盖对NVIDIA、Anthropic和OpenAI财务状况的详尽分析,以及对整个AI泡沫的全面剖析。我最近发布了时效性强且意义重大的《SaaSpocalypse厌恶者指南》,另一篇《AI并非大到不能倒》,一篇长达17500字的《OpenAI厌恶者指南》,就在上周,我还推出了篇幅庞大的《私募信贷厌恶者指南》。

订阅付费内容不仅物超所值,也让我能够每周持续撰写这些篇幅宏大、研究深入的免费文章。

配乐 —— Megadeth —— 《Hangar 18》(降E调)

过去近四年里,我一直专注于撰写关于AI泡沫和整个科技行业的宏大叙事。我仍打算继续写下去,但今天我要做我最擅长的事——解释科技行业中正在发生的各种怪现象,并说明为何这些现象令我担忧。

而且因为我喜欢玩点花活,我会把这些故事与我那匹预示AI末日的“灰马”联系起来——这些迹象表明,历史上最烦人的泡沫正在开始破裂。

总之,考虑到通讯和播客现在是我主要的收入来源,我将在免费和付费内容之间尝试不同的形式,以保持趣味性和多样性。

Anthropic的产品因容量不足而频繁崩溃,而Opus 4.7不仅性能更差,还消耗更多token。

灰马警示:Anthropic和OpenAI若进一步提价或服务降级,说明它们现金流吃紧。

我们先从一个直白的观点说起:Anthropic应暂停吸纳新客户,直到其解决容量问题。

一般来说,任何你经常使用的服务——比如Netflix——都应具备“四个九”的可用性,即正常运行时间达到99.99%。一旦公司发展到一定规模,实现四个九就被视为标准商业实践……

……除非你是Anthropic!

截至撰写本句时,Anthropic旗下Claude聊天机器人在过去90天内的可用性为98.79%,其平台/控制台为99.14%,API为99.09%,Claude Code为99.25%。

让我来解释一下这意味着什么。当可用性为99.99%时,服务每周仅中断1分钟(外加0.48秒)。而如果像Claude聊天机器人那样只有98.79%的可用性,中断时间就会飙升至2小时1分58秒。

换言之,98.79%的可用性相当于一年中有近四天半的时间服务不可用。

更令人震惊的是,Claude for Government的可用性仅为99.91%。政府服务通常要求至少达到四个九(99.99%),对于支撑紧急服务等关键系统,则要求五个九(99.999%)。

这是一家最近刚融资300亿美元、被众人捧为“天才儿童”的公司,但其服务却因容量不足而持续出现可用性问题。

据《华尔街日报》报道:

自二月中旬以来,Anthropic各系统的宕机已变得如此频繁,以至于部分企业客户正在转向其他AI模型提供商。
软件开发平台 Retool 的创始人兼 CEO David Hsu 表示,他此前更倾向于使用 Anthropic 的 Opus 4.6 模型来驱动其公司的 AI 代理工具,因为他认为这是最适合企业场景的模型。但他最近已改用 OpenAI 的模型来支持其公司的代理功能。“Anthropic 的表现一直在持续下滑,”他说。互联网核心服务的可靠性通常以“几个九”来衡量。四个九代表 99.99% 的正常运行时间——这是软件公司通常向客户承诺的典型水平。截至 4 月 8 日,Anthropic 的 Claude API 在过去 90 天内的正常运行时间仅为 98.95%。

然而,Anthropic 的问题远不止简单的宕机(正如我上周所讨论的),这还导致了 Opus 4.6 出现(有意或无意造成的)严重的性能退化:

最详尽的公开投诉之一源自 Stella Laurenzo 于 2026 年 4 月 2 日在 GitHub 上提交的一个 issue,其 LinkedIn 资料显示她是 AMD AI 部门的高级总监。在该帖子中,Laurenzo 指出,Claude Code 已经退化到无法胜任复杂工程任务的程度,并随后通过一份详尽的分析予以佐证:她分析了 6,852 个 Claude Code 会话文件、17,871 个思考块以及 234,760 次工具调用。投诉指出,自 2 月起,Claude 的预估推理深度急剧下降,同时伴随多项性能劣化迹象,包括更频繁的提前终止、更多“最简单修复”行为、更多推理循环,以及从“先研究后行动”向“先编辑后行动”的可量化行为转变。

尽管 Anthropic 声称不会为了应对需求而降低模型性能,但这与大量用户抱怨的情况严重不符。Anthropic 的回应基本是假装一切正常,其发言人曾轻描淡写地打发 VentureBeat 的 Carl Franzen(他对此事有一篇很好的报道),只是让他去看两条 Twitter 帖子,而这两条帖子实际上都没有解释任何实质问题。

上周 Opus 4.7 的发布让情况进一步恶化,该版本似乎性能更差,且消耗更多 token。

据 Business Insider 报道:

一篇题为《Claude Opus 4.7 是一次严重退化,而非升级》的 Reddit 帖子获得了 2,300 个赞。一位 X 用户提出 Opus 4.7 相比 Opus 4.6 并无实质改进,该推文获得了 14,000 个点赞。在一个非正式但广受欢迎的 AI 智能测试中,Opus 4.7 似乎声称单词 "strawberry" 中有两个字母 P。另一位用户截图显示,它自称没有交叉验证是因为“懒得做”。一些 Reddit 用户发现 Opus 4.7 在重写简历时添加了新的学校和姓氏。多位 X 用户认为 Opus 4.7 明显变笨了。部分 X 用户推测问题出在 AI 模型的推理时间上。Anthropic 表示,新的“自适应推理”功能允许模型自行决定思考时间长短。有用户写道,他们“无法让 Opus 4.7 进行思考”。另一位用户称其“削弱了性能”。“不准确,”Claude Code 的创建者、Anthropic 的 Boris Cherny 回应道,“自适应思考让模型自主决定何时思考,这反而表现更好。”

我觉得非常诡异:一家据称价值数千亿美元的巨头公司,A)竟然无法以任何程度的稳定性维持其服务在线,B)似乎还在让自家产品越变越差,C)而且拒绝真正去解决或讨论这个问题。早在2024年,用户就一直在抱怨Claude模型“越来越笨”,而每次回应他们的,都是该公司轻描淡写的敷衍——这家公司的CEO还热衷于宣称自己的AI产品将消灭一半白领岗位。

Anthropic对其产能问题毫无良策,本就不该再接纳新客户——而增加产能只会让它亏更多钱。

有人可能会把这说成是“Anthropic产品需求旺盛”,但在我看来,这是一家基础设施糟糕、运营方式不道德的烂生意。显而易见且令人震惊的是,Anthropic根本无力为客户提供稳定可靠的服务,而其扩大产能的计划,似乎只是与Broadcom签订协议(预计“从2027年开始”上线)、与Hut8合作(后者似乎从未建过AI数据中心)、以及与CoreWeave联手(该公司尚未完成其与OpenAI在2025年协议所需的全部产能,截至2025年底仅有约850MW的“可用电力容量”,即实际算力容量约653MW,相比2024年底的360MW电力容量有所提升)。

别忘了:数据中心建设周期极长,全球可用产能本就有限,其中大部分已被微软、谷歌、亚马逊、Meta和OpenAI占据,而这三家(指前三个)早已同时为Anthropic和OpenAI提供算力支持。

我们很可能已经触及(或即将触及)可用AI算力容量的绝对物理极限,即便有其他数据中心陆续上线,难道计划就是永久性地把它们交给OpenAI或Anthropic吗?

此外,增加这部分额外产能的目标究竟是什么,也尚不明确——正如我上周所讨论的:

然而,“更多产能”是否意味着服务会更便宜、更好,还是仅仅让Anthropic得以继续扩大其日益糟糕的用户体验,目前仍不清楚。需要说明的是,当Anthropic或OpenAI这类AI实验室“达到产能极限”时,并不意味着它们开始拒绝业务或停止接受订阅用户,而是现有(及新)用户将面临随机宕机和模型故障,同时遭遇越来越严苛的速率限制。这两家公司并未因无法提供服务而陷入财务困境(相反,它们之所以财务吃紧,正是因为正在向客户提供服务),而真正为这些“产能限制”买单的,只有客户。

那么,目标到底是什么?是为现有客户提供更好的体验?还是确保足够产能以持续吸纳新客户?抑或是为支持Mythos等更大模型储备算力?Anthropic究竟何时能达到平衡状态?那种状态又是什么样子?

还有一个成本问题。

Anthropic目前每年亏损数十亿美元,提供的服务可用性业余、质量波动,却仍在持续接受新订阅用户,这意味着产能问题并未阻碍其增长。因此,增加更多产能只会让产品在成本大幅上升的情况下运行得稍好一些。

Anthropic的增长故事,本质上是一个建立在补贴和劣质服务之上的骗局。

Anthropic 的成长故事是一场骗局,它靠销售订阅服务为生,用户每支付 1 美元的订阅收入,就要烧掉 8 到 13.50 美元,而提供的服务却脆弱且不稳定,这一切之所以可能,完全依赖于近乎无限的风险投资资金,以及基础设施提供商为数据中心建设买单。

换言之,Anthropic 根本不必遵守规则。风险投资让它能够大规模补贴其服务。媒体无休止、歇斯底里的追捧,掩盖了其服务质量的恶化。科技行业,更不用说 AI 领域,缺乏真正的监管,这意味着它可以随心所欲地通过调整速率限制来“割韭菜”。

如果 Anthropic 被迫按实际成本收费——不,无论有多少人误读了 Dario Amodei 的采访,我都不相信它的 API 能盈利——那么随着客户面临 AI 的真实成本(我稍后会谈到),它的增长将迅速瓦解。如果 Anthropic 被迫提供稳定的服务,它就必须停止接受新客户,或大幅提高推理成本。

Anthropic 就是个骗局,而这场骗局之所以能得逞,全靠无休止的、虚假的炒作。那些盲目为这家公司所做的一切鼓掌的人,都是上当受骗的傻瓜。

Claude Mythos 被搁置,不是因为对能力的担忧,而是受限于算力瓶颈。

恭喜所有“又上当了奖”的现任得主。据《金融时报》报道:

Anthropic 表示,在确信该模型安全且不会被恶意行为者滥用之前,不会进行更广泛的发布。该公司算力有限,且最近几周还遭遇了服务中断。多位知情人士透露,Anthropic 之所以暂缓更广泛的发布,是因为要等到能稳定地向客户提供服务为止。

所以,没错,任何媒体如果相信了 Dario Amodei 所谓“太危险而不能发布”的鬼话,那就是个傻瓜。Cal Newport 有一篇精彩的文章戳破了这种炒作,但我的总体感觉是,如果 Mythos 真的那么强大,Claude Code 的源代码怎么会泄露?

Anthropic……难道都没想过用其超级强大的 Mythos 模型去检查一下?还是说它什么都没发现?无论哪种情况,对所有相关方来说都非常尴尬。

AI 算力需求正被 Anthropic 和 OpenAI 夸大,超过 50% 的在建 AI 数据中心是为这两家公司而建,而到 2028 年底,在建总容量仅为 15.2GW。

Pale Horse:数据中心倒塌,等等。

正如我之前所讨论的,目前全球在建的 AI 算力容量仅为 5GW(基于 Sightline Climate 的研究),“在建”指的是从带围栏的脚手架场地(如 Nscale 位于 Loughton 的数据中心)到即将交付给客户的建筑等各种阶段。

我联系 Sightline 以获取更清晰的信息,他们告诉我,在预计到 2028 年底上线的 114GW 容量中,只有 15.2GW 正在建设中,其中包括 2026 年到期的 5GW。

这……非常糟糕。

当你意识到大部分建设都是为两家公司服务时,情况就更糟了:

  • OpenAI 的 Stargate 数据中心占 4.6GW——其中德克萨斯州阿比林 1.2GW;德克萨斯州沙克尔福德 1.4GW;新墨西哥州多娜安娜 1GW;威斯康星州波特华盛顿 1GW。
  • 可以合理推测,鉴于大型科技公司数千亿美元的资本支出,其数据中心将占据相当大的份额——高达6吉瓦(GW),其中大部分可能流向Anthropic或OpenAI。其中一块规模难以确定的容量可能来自亚马逊在印第安纳州的“雨神计划”(Project Rainier),据CNBC报道,该项目“最终”将消耗超过2.2吉瓦的电力。尽管亚马逊声称该项目“已全面投入运营”,但这纯属扯淡,因为其还宣称拥有“近50万颗Trainium 2芯片”,每颗芯片功耗为500瓦,50万乘以500瓦约为250兆瓦(MW)。另有报道称,到2025年底,Trainium 2芯片数量将达100万颗,但即便如此,总功耗也仅为500兆瓦。Anthropic显然是主要租户。此外,Anthropic还同意从Google Cloud获取3.5吉瓦的TPU算力容量,其中首批1吉瓦将于2027年上线,并同意从微软获取1吉瓦由“Vera Rubin和Grace Blackwell系统”构成的容量,这意味着这些很可能是目前正在建设中的数据中心。Anthropic与谷歌还于2025年第四季度宣布,Anthropic将在与Google Cloud的新协议中使用100万颗TPU,且“远超”1吉瓦的容量将于2026年上线。
  • 微软也在推进Stargate Abilene项目900兆瓦的扩容,考虑到微软大部分GPU基础设施已用于OpenAI,我只能推测这部分容量也将流向OpenAI。此外,萨提亚·纳德拉声称微软在2025年上线了2吉瓦的容量,并称其Fairwater数据中心集群“提前投入运营”,却未能说明具体何时上线或原定计划为何。微软对实际容量的表述也较为模糊,但根据“数十万颗GB200 GPU”的说法(假设为30万颗),其功耗约为583兆瓦。
  • 附注:我还需指出,作为与亚马逊达成的50亿美元投资协议的一部分(未来还可能追加“高达20亿美元”,但除此之外无任何细节),Anthropic同意在未来十年内向Amazon Web Services投入1000亿美元。据称,Anthropic已确保获得5吉瓦的容量,并将在年底前“上线近1吉瓦的Trainium2和3容量”——对此我深表怀疑,但随便吧。这些交易本就不该被允许合法存在。

    综上所述,在正在建设的15.2吉瓦数据中心容量中,至少有4.6吉瓦用于OpenAI,另有至少4吉瓦通过微软、谷歌和亚马逊等合作伙伴预留给Anthropic。实际上,这一数字可能更高。

    这本质上是一种疯狂的局面。OpenAI和Anthropic每年烧掉数十亿美元,据The Information报道,Anthropic预计2026年将烧掉至少110亿美元,OpenAI则高达250亿美元。这些公司得以持续存在的唯一方式是不断募集风险投资,或假设它们能成功上市,则需持续发行债务或在二级市场抛售股票。

    英伟达声称截至2027年拥有1万亿美元的销售可见度,但目前正在建设的数据中心仅能容纳价值2850亿美元的GPU——英伟达正在提前数年销售GPU并将其囤积起来。

    更令人担忧的是,仅有极小比例的已公布算力容量正在实际建设中,尤其是当你将其与英伟达的实际销售额进行对比时。

    去年,TD Cowen 的杰罗姆·达林估计,每兆瓦关键 IT 设备(GPU、服务器、存储等)的成本约为 3000 万美元,而建设数据中心的成本为每兆瓦 1200 万至 1400 万美元,这意味着关键 IT 占每兆瓦总成本的约 68%(按较高建设成本计算)。

    需要明确的是,目前数据中心所说的吉瓦和兆瓦指的是总功耗,而非关键 IT 设备的功耗。如果我们取 1.35 的平均 PUE(电源使用效率,衡量数据中心电力利用效率的指标),则关键 IT 硬件的功耗为 11.2 吉瓦,其中大部分(我估计占 90%)是 GPU,因此 GPU 的功耗约为 10.1 吉瓦。

    如果将这些 GPU 划分为 GB200 或 GB300 NVL72 机架,每机架功耗约为 140 千瓦,那么总共需要约 71,429 个机架的硬件,每个机架平均成本为 400 万美元,这意味着 NVIDIA 的营收约为 2857 亿美元。

    NVIDIA 声称,2025 年至 2026 年间的订单总额达到 5000 亿美元,到 2027 年的销售额将达到 1 万亿美元,但目前尚不清楚这些订单除了发往台湾的仓库外,还能用在什么地方。

    此时,我认为有理由质疑:既然根本没地方放这些 GPU,为什么还有人继续购买?现在 NVIDIA 每一次“超预期”的财报都显得极其可疑。

    AI 真的很烧钱:企业用于 LLM Token 的支出高达人力成本的 10%,未来几个季度可能达到人力成本的 100%。

    新“灰马”信号:任何表明企业正在面对 AI 经济现实的现象,包括对 AI 成本上升的抱怨或为适应成本上升而采取的调整措施。

    上周,高盛的一份报告指出(原文引用):“……企业在推理上的支出远超初始预算数个数量级(我们听到一个行业数据:工程部门的推理成本目前已接近人力成本的 10%,根据当前趋势,未来几个季度可能将与人力成本持平)。”

    简单来说,这意味着一些公司在生成式 AI 服务上的支出已高达员工成本的 10%,却并未带来任何稳定性、质量或效率的提升,也没有(尽管我并不希望如此)为裁员提供合理依据。

    《The Information》的劳拉·布拉顿上周也报道称,优步在 2026 年刚开始几个月就用完了全年 AI 预算:

    优步首席技术官普拉文·内帕利·纳加表示,该公司对 AI 编码工具(尤其是 Anthropic 的 Claude Code)的使用激增,导致其在 2026 年刚开始几个月就用完了全年 AI 预算。“我不得不重新规划,因为我原本以为够用的预算已经花光了,”纳加在一次采访中表示。……他拒绝透露公司软件预算的具体金额,或其在 AI 编码工具上的支出。优步的研发支出(通常反映企业开发新 AI 产品的成本)在 2025 年同比增长 9%,达到 34 亿美元,该公司在最近提交给监管机构的文件中称,预计该成本将继续以绝对美元金额上升。

    Uber 的首席技术官还补充说,“其后端系统中约 11% 的真实代码更新是由 AI 代理完成的,主要基于 Claude Code 构建,而三个月前这一比例还不到 1%。”过去一年里使用过 Uber 应用的人都能看出这效果有多“好”,尤其是那些不得不提交过支持工单的用户。

    说实话,我觉得这整件事简直他妈的荒谬至极。生成式 AI 的销售说辞是它能成为提升效率的神奇万能药,可每当你问别人实际效果时,回答要么是“对啊,我们现在全用 AI 写代码了!”却毫无具体收益描述,要么就是“这玩意儿烧钱烧得他妈太厉害了”。

    我们来务实一点分析这些经济账,以 Spotify 为例,因为其 CEO 曾 proudly 宣称其“顶尖工程师”几乎不再手写代码了。不过需要说明的是,高盛的那个例子并未特指某一家公司。

    为便于讨论,假设该公司有 3000 名工程师——其某个官网称有 2700 人,但我见过高达 3500 人的报道。再根据 tech 从业者匿名社交平台 Spotify Blind 的数据,假设这些工程师年薪中位数为 19.2 万美元。

    如果 Spotify 将其工程师人力成本的 10%(约 5.76 亿美元)用于 AI 推理支出,那么这笔开销约为 5760 万美元,相当于其 2025 财年 13.93 亿美元研发费用的约 4.1%。热衷心算的听众会注意到,若将 100% 人力成本都算作 AI 支出,则几乎占研发预算的一半,或接近其全年 22 亿美元净利润的四分之一。

    需要澄清的是,这些数字可能已包含部分 AI 推理支出,我只是想说明其成本规模之大。

    虽然这对 Anthropic(以及在较小程度上对 OpenAI)是好事,但我看不出这对它的客户有何益处。软件工程成本直接上涨 10%,完全违背了 AI 本该实现的目标;如果成本继续攀升,我真不知道该如何进一步 justify 这笔开销。

    而且我们很快就会知道结果,因为 token 补贴的时代正在终结。

    次贷级 AI 危机持续发酵:微软将于今年晚些时候对 GitHub Copilot 实行基于 token 的计费,而 Anthropic 已将其企业客户转向 API 费率模式。

    灰马预警:如果 AI 初创公司 further 提价或服务降级——没错,我说的就是 GitHub Copilot,毕竟它亏损数亿美元却几乎毫无收入。

    正如我昨日报道,内部文件显示,微软计划暂时暂停 GitHub Copilot 编码产品的个人账户注册,全面收紧速率限制,从其每月 10 美元的 Pro 订阅中移除 Opus 模型,并计划于今年晚些时候从“请求计费”(即每次与 GitHub Copilot 的单一交互)转向基于 token 的计费模式。微软在博客中确认了部分细节(但未提及 token 计费)。

    这是一项重大举措,据我本人报道,其动因是微软运行 GitHub Copilot 的周环比成本自今年 1 月以来几乎翻了一番。

    附带说明一下:如果你对“基于 token 的计费”感到困惑,需要知道的是,目前绝大多数 AI 服务都在补贴其订阅费用,它们使用其他指标(例如“请求次数”或“速率限制”)来衡量用户可以使用多少服务。然而,这些服务仍然以支付成本的速度消耗 token——例如我之前提到的,Opus 4.7 每百万输入 token 收费 5 美元,每百万输出 token 收费 25 美元——这意味着除非用户很少使用订阅服务,否则公司几乎总是亏损。公司这样做是为了增加订阅用户数量,我认为他们当时以为成本会以某种方式降下来。干得漂亮,各位!

    转向基于 token 的计费后,GitHub 用户将根据其平台使用情况以及提示消耗的 token 数量(也就是使用的计算量)被收费。目前尚不清楚这一变更何时开始,但这将显著改变该产品的价值。

    我还要说的是,微软完全停止注册新的付费 GitHub Copilot 订阅,这是软件史上最具震撼性的举措之一。我从未见过哪家公司会在不打算彻底砍掉产品的情况下这么做,而根据我的消息来源,微软此举很可能是为了将付费客户迁移到基于 token 的计费模式,尽管目前尚不清楚这些层级会是什么样子,因为现有的每月 10 美元和 39 美元订阅主要区别在于你可使用的请求数量。

    值得注意的是,微软是少数几个有能力无限期资助 AI 发展的玩家之一,自 2023 年年中以来,其每季度利润超过 200 亿美元。

    它开始削减 AI 相关成本的决定表明,这些成本已变得难以承受——《The Information》早在今年 1 月就报道称,仅与 Anthropic 的合作,微软每年就要花费 5 亿美元;如果这笔支出已经翻倍,那很可能意味着微软在 GitHub Copilot 上的支出是其收入的十倍以上。据我今日获悉,截至 2025 年底,GitHub Copilot 的收入约为 10.8 亿美元,其中大部分来自其 Copilot Business 和企业版订阅。

    《The Information》几周前还报道称,GitHub 近期出现了大量服务中断,原因被归结为“流量激增,以及其将应用程序从自有服务器迁移到微软 Azure 云的努力”:

    “自今年 1 月以来,几乎每个月、每周都会出现新的历史最高使用率峰值,”GitHub 首席运营官凯尔·戴格尔(Kyle Daigle)表示。他将增长归因于“代理和人类用户”,并指出 AI 编程工具的兴起,也促使越来越多缺乏深厚编程知识的人开始使用 GitHub 平台。

    此处的“代理”可能指任何东西——OpenAI 的 Codex、Anthropic 的 Claude Code,甚至是人们将浪费且实用性存疑的 OpenClaw 接入其 GitHub Copilot 账户。如果真是这种情况,那很可能是推动转向基于 token 计费和速率限制的背后原因。

    无论如何,如果微软真的采取这一举措,那就意味着 CFO 艾米·胡德(Amy Hood)——去年叫停数据中心建设的那位高管——已经认定补贴时代结束了。尽管微软尚未正式宣布转向基于 token 的计费,但我估计它会在本周内迅速公布这一决定。

    两周前,Anthropic 也对其企业客户采取了同样的做法,将收费模式调整为每位用户每月固定 20 美元,除此之外,客户使用任何模型都按 token 计费。

    我判断,到 2026 年底,大多数 AI 服务将把部分或全部客户转向基于 token 的计费模式,因为它们不得不正视运行 AI 模型的真实成本。

    这就是 AI 歇斯底里的时代。

    今天我讲得比较简单,一方面是想让自己轻松一点,另一方面是因为这些故事我觉得非讲不可。

    不过,我还是得说,现在的一切已经荒唐到离谱。

    无论你往哪儿看,总有人在谈论“智能体”(agents),但其描述与现实完全脱节,比如 Aaron Levie 那些夸张的言论,说什么“AI 智能体让地球上每一家公司都开始开发软件,以实现工作流程自动化,而这种方式在技术上原本不可行,或在经济上原本无法承受”——这种说法与其说是关于现实,不如说是关于他妈的独角兽和蝎尾狮。

    我有点不好意思拿 Aaron 开刀,因为他看起来不像个坏人。但他越来越典型地体现了高管层对 AI 的歇斯底里式脑残:讨论这个行业时,只能用些 vaguely futuristic 的术语,比如“智能体”、“推理”、“token 作为商品”,目的就是掩盖一个丑陋而简单的真相:生成式 AI 严重亏损,似乎并未带来切实的生产力提升,反而只会让企业和客户双双亏钱。

    尽管我的论述可能啰嗦,但核心其实很简单:AI 带来的好处——无论是经济上的还是其他方面的——连一丁点都抵不上其毁灭性的成本。每篇关于削减成本或惊人烧钱速度的新报道,都在进一步印证我的观点;而支持者们大多只是回应说:“喂,看看那 revenue 有多大啊!”

    才不是!AI 的收入烂透了。糟糕透顶。一文不值。整个行业——包括 OpenAI 和 Anthropic 理论上分别达到的 131 亿美元和 45 亿美元收入——去年总收入约为 650 亿美元,而这还包括了来自 CoreWeave 这类新云厂商和微软这类超大规模云厂商提供的算力收入。

    我干脆直说了吧:我认为这些 AI 初创公司正在误导投资者和公众,夸大其收入。我去年报道过,OpenAI 在 2025 年前三个季度的收入约为 43 亿美元;而 Anthropic 的首席财务官 Krishna Rao 在一份宣誓书中称,截至 2026 年 3 月 9 日,公司收入“超过”(叹气)50 亿美元——但如果你把所有关于该公司的年化收入数据加起来,这个数字根本说不通。

    Cursor 据称年化收入也达到 60 亿美元(约合每月 5 亿美元),并且“毛利率为正”——对此我也表示怀疑,毕竟它去年刚融资超过 30 亿美元,今年 apparently 又在融 20 亿美元。

    即便这些数字是真的,OpenAI、Cursor 和 Anthropic 的大部分收入也来自补贴型软件订阅。情况已经糟糕到连 CNBC 的 Deidre Bosa 都同意我的观点:AI 需求被 token 滥用和补贴服务严重虚增。

    否则,其他所有人都在赚取数百万美元(个位数或两位数),同时又亏损数亿美元才能达到这一目标。据创始人斯科特·史蒂文森(Scott Stevenson)称,虚报年化收入极为普遍,AI初创公司将“三年期”企业交易的首年折扣价与十二个月后的价格计入收入:

    许多AI初创公司之所以能打破收入纪录,是因为它们使用了一种不诚实的指标。全球最大的几家基金正在支持这种做法,并误导记者以获取公关报道。具体操作如下:公司签订为期三年的企业协议。第一年享受折扣(例如100万美元),第二年价格上调(200万美元),第三年按全价收费(300万美元)。它们将300万美元报告为“ARR”——尽管目前实际只收到100万美元。最糟糕的是:客户在12个月后拥有退出选项!这实际上并非一份为期三年的合同。

    尽管很难判断这种潜在的欺诈行为有多普遍,但史蒂文森估计,超过50%的企业级AI初创公司正在利用“合同ARR”来推高自身估值。一位(诚实的)创始人回应史蒂文森时表示,其公司合同ARR为35万美元,但实际ARR仅为4.2万美元,并补充说“明年会非常棒”,但我认为这对于一个似乎只是用于寻找投资者的聊天机器人来说不太可能实现。

    这个行业的未来完全依赖于无限资源的存在,而大多数AI公司实际上只是Anthropic和OpenAI所拥有模型的前端界面,这两家公司本身也依赖无限资源来运行其服务并支撑其基础设施。

    而在这一堆叠结构的顶端,坐着英伟达(NVIDIA)——股市上最大的公司,其GPU销量已超过实际可安装的数量,但似乎很少有人注意到或在意这一点。

    我说的是数千亿美元的GPU积压在仓库中未被安装,而安装一个季度销量的GPU就需要六个月时间。根据我所读过的所有财经出版物,普遍的假设似乎是“它将永远销售GPU,一切都会非常美好”。

    你打算把它们放哪儿,黄仁勋?这些该死的GPU到底要去哪儿?根本没有足够的在建产能!如果英伟达真的如其所述售出了那么多GPU,那它很可能在“所有权转移”上做了手脚——将产品标记为“已售”给尚未实际接收的客户。

    附注:已有迹象表明GPU开始积压。要知道,当超大规模云服务商购买AI服务器时,实际流程是:ODM(原始设计制造商)从英伟达购买GPU,组装成服务器,再运送到数据中心——这一切当然都是合规且正常的。这些ODM也会将英伟达GPU的全部价值计入收入,这也是富士康、纬创(Wistron)和广达电脑(Quanta Computing)等公司在AI泡沫期间收入激增的原因。哦,对了,那些迹象。根据广达电脑2025年第四季度的财报,库存(即积压在仓库等待出货的产品)已从2025年第三季度的105.4亿美元飙升至163亿美元,较去年同期(83.3亿美元)几乎翻倍,而毛利率则从2024年第四季度的7.9%下降至2025年第四季度的7%。虽然这并非普遍问题(例如纬创的库存环比有所下降),但台湾地区的ODM厂商将是观察库存积压的首批重点对象之一。

    无论如何,我始终绕不开“歇斯底里”这个词,因为实在找不到更合适的词来形容这股炒作热潮。媒体、市场、分析师、企业高管和风险投资家谈论AI的方式完全脱离现实——他们口中的“智能体”与现实毫不相符,所谓的AI数据中心“吉瓦级”电力需求更是纯属虚构,却还带着一种令人不安的笃定,让我不禁怀疑是不是自己漏掉了什么关键信息。

    但种种迹象都表明我是对的,而且如果我的判断在规模上也是正确的话,我认为投资和主流媒体即将面临一场合法性危机,因为普通人敏锐地察觉到事情不对劲,很多时候,他们只是会数数罢了。

    需要完整排版与评论请前往来源站点阅读。