如果我们在 AI 泡沫中?——对 AI 未来预测过度乐观的批判(第一部分)Premium: What If...We're In An AI Bubble? (Part 1)
作者质疑当前对 AI 发展的普遍乐观预期,指出许多关于 AGI 将创造‘永久底层阶级’并终结软件创业的说法缺乏依据。这些预测往往基于对现有模型能力的错误外推,忽视了经济结构、人类适应性和技术扩散的现实约束。
Ed Zitron
每天我都会读到一些关于AI未来的荒谬推演——比如今天的模型某种意义上预示着通用人工智能(AGI)将创造一个“永久底层阶级”,让人们无法创办软件公司,甚至无法在电脑上做任何工作:
这听起来是不是有点夸张?也许吧。但即使那些认为“永久底层阶级”说法言过其实的人,也告诉我这个梗背后确实有几分道理。23岁的初创公司创始人、斯坦福辍学生Yash Kadadi总结了同龄人的普遍心态:“GPT-7一出来,软件行业就全完了,你再也建不了软件公司了。”或者更极端地说,“特斯拉Optimus的终极版本一旦问世”,就能完成所有体力劳动。在他们看来,今年就是人类参与创新的“最后机会”。
Yash,还有你们这群人,简直他妈的是蠢货。你们还不如在讨论驯养格林奇(Grinch)或者忍者神龟,或者抱怨哥斯拉即将来袭呢。“特斯拉Optimus的终极版本”这种说法,暗示特斯拉已经推出了能胜任任何有用工作的Optimus机器人,或者其原型机具备接近实用的能力——而特斯拉自己早就澄清过并非如此。
如今每场关于AI的讨论,都变成了对一到一百万种不同理论假设的漫谈。
《信息报》那篇标题为“OpenAI将通过与微软的最新协议在2030年前节省970亿美元”的文章——该文称OpenAI的收入分成上限(即实际支付给微软的钱)为380亿美元——其前提是OpenAI到那时能实现1900亿美元的收入,因为只有这样才能真正达到收入分成的上限。
大多数关于METR“任务时间范围”研究的文章——该研究评估模型完成任务所需的时间——都充斥着无脑吹捧,却常常忽略两个关键细节:这些比较是基于对人类完成任务时间的估算;而且最常被引用的任务指标,其实是模型在50%的情况下能成功完成的任务。
任务完成时间范围,是指AI代理在特定可靠性水平下,预计能够成功完成某项任务所对应的任务时长(以人类专家完成时间为基准)。例如,50%时间范围就是指该代理预计有一半概率能成功完成该任务的时长。
这就像《王牌播音员》里那只“性感黑豹”的笑话,只不过现在变成了一张被主流媒体刊登、并当作AI即将觉醒的证据四处传播的图表。
尽管如此,大家似乎都很享受编造各种离谱说法,或者基于OpenAI或Anthropic的预测做出荒谬断言。上周,疑似遭遇瓦斯泄漏事故的多名博主中有一位名叫Joseph Jacks的人发帖称,按当前增速,Anthropic将在2028年超越谷歌的收入。还有不少我不愿点名的人,正在发布尚未正式发布的Mythos模型的基准测试结果,作为“我们正处于虚构的AI 2027‘模拟阶段’早期至中期”的证据——尽管整个推论建立在LLM某天会获得意识并开始自主研究这一完全荒诞不经的前提之上。
这些人似乎根本不想面对现实,哪怕是在他们的推演中也一样。
无论你相信泡沫是否会破裂,都很难反驳(尽管没人真的费心去试)我最近关于数据中心上线不足的报道,以及大多数AI收入来自两家最终会自我喂养的超级云服务商这一事实。在Oracle需要OpenAI在未来四年内每年支付700多亿美元才能生存的前提下,没人能提出任何真正有力的论点来解释它如何完成数据中心建设或避免资金枯竭。除了极端中心主义者和连数都算不清的人之外,没人对我的论断做出过任何真正有思考的回应,这恰恰说明我可能抓住了关键,对此我感到无比自豪。
但最近我没再做过——至少自2027年AI泡沫以来——根据我所读、所见和报道的内容来推测未来。
今天我要换个思路,灵感来自我最喜欢的漫画系列之一。在漫威的《What If…?》中,编剧们提出了完全改变漫威宇宙走向的问题,比如如果神奇四侠没有获得超能力会怎样,或者洛基配得上雷神之锤会怎样。
我必须承认,我对AI泡沫有很多未解之谜,这使得做出精确的时间预测几乎不可能。我们正处在一个历史上最疯狂的市场狂潮之中,NVIDIA和数据中心相关股票估值爆炸式增长,尽管有大量令人信服的证据表明数百万台Blackwell GPU正躺在仓库里,这意味着市场是在围绕数据中心将被建造这一理念狂欢,却从未证实这是否真的会发生。
过去,我采取调查式的方法,试图证明这可能是历史上最大的一笔资本错配。今天,我想玩得开心一点,通过提问的形式探索我所看到的令人担忧的迹象及其潜在后果,将我的报道与一些虚构元素混合在一起。
我的推理很简单:我认为人们非常擅长吸收和记住具体的事实和事件,但在理解其后果方面却差得多。例如,我非常喜爱和敬佩的彭博社的Dave Lee曾说"OpenAI泡沫不是AI泡沫",并做出了许多关于OpenAI的正确判断,但他未能考虑到OpenAI占据了甲骨文、微软和亚马逊7180亿美元的积压订单,这意味着OpenAI的崩溃将使甲骨文陷入绝境,微软和亚马逊蒙受损失,Cerebras失去80%以上的收入,而CoreWeave也将因OpenAI的收入担保贷款契约违约而陷入困境。
即使Anthropic能够消化部分闲置产能,它也依赖无尽的创业资本和超级云服务商的支持来支付——或者说,越来越大的超级云服务商收入分成。
我感觉很多人愿意问我们是否正处于AI泡沫之中,但似乎很少有人愿意讨论可能发生的情况。说“股价被高估了”或“OpenAI严重亏损”很容易,但再深入思考一点,就会让人觉得有点疯狂。如今数据中心建设占所有建筑支出的比例已超过商业地产。OpenAI承诺的投资总额超过一万亿美元,Anthropic也达到了3300亿美元。NVIDIA占标普500指数市值的8%,而这一估值基于一个前提——它永远不会停止增长,而这只有在数据中心建设永不停止的情况下才可能实现。CoreWeave、IREN、Nebius和Nscale都依赖与OpenAI相关的超大规模计算合同,如果这些合同因OpenAI的变故而终止,它们就完蛋了。
大多数人都能说出这些事实,但很少有人愿意去思考其后果,因为一旦开始思考,一切就会变得完全、彻底地荒谬不堪。
换句话说,要让我判断错误,就必须满足以下所有条件:所有这些数据中心都必须建成;OpenAI必须在未来四年内筹集并创造8520亿美元的收入;生成式AI的基本经济模式必须以戏剧性且难以想象的方式大幅改善;并且要以一种能催生数百个年算力收入达4000亿美元的AI初创企业的速度发展。为了让NVIDIA继续以历史性的速度增长营收,到2028年,它必须销售价值超过1万亿美元的GPU,这需要有人为购买这些GPU提供资金,而此时超大规模计算公司的现金流正在枯竭,银行也担心自己“窒息”于AI数据中心的债务之中。
AI泡沫几乎完全建立在空想之上,人们一次又一次地无视明显的警示信号,只希望某一天情况会发生变化。你可以引用任何关于Anthropic营收飙升的故事(这些数字绝对被夸大了)——不可否认的是,该公司每年亏损数十亿美元,如果你的回答是它将在2028年实现盈利,请告诉我这是如何实现的,因为没有证据表明这是可能的。
我也多少理解为什么没人愿意思考这些事情。尽管经济逻辑早已明显站不住脚,但股市仍在持续上涨,尤其是那些与AI泡沫相关的股票,这种走势违背逻辑却奖励乐观预期。主流媒体仍在不断发布关于AI力量的正面报道,而这些报道似乎与AI的实际能力毫无关联,各大公司也在投入数百万美元,寄望于一个理论上存在的投资回报。
不,真的,正如《信息报》的Laura Bratton引述PagerDuty首席信息官Eric Johnson所说:
“我正在准备迎接账单带来的冲击,”他说,“我们相信这里有很多价值。不幸的是,这项技术还比较新,围绕其成本和获取投资回报方面仍有一些问题需要我们逐步解决。”
天哪,我们已经进入这个阶段好几年了,投资回报的问题居然到现在还是个开放性问题?
好吧,我们已经知道答案了:我们身处一场泡沫之中。每个人都逼迫着其他人“整合AI”,要求“让每位工程师都掌握AI”,鼓吹“用AI提升效率”,而代币支出竟成了某种庸俗的地位象征——尽管AI浪潮的核心本应是取代、增强劳动力,或至少带来某些可衡量的成果。但最终,唯一被量化的只是员工消耗了多少代币。于是亚马逊的员工故意搭建“代理”来烧掉更多代币,只为显得比实际更“积极拥抱AI”。这一切的根源在于愚蠢的管理者和高管根本不了解员工的工作内容,他们只懂一个道理:数字必须上涨。
因此,即便这种群体思维荒诞不经、歇斯底里,甚至建立在诸如“这就像Uber一样”(其实根本不像)或“亚马逊云服务烧了很多钱”(实际上AWS在15年间用于资本开支的投入不到OpenAI 1220亿美元融资的一半,且经通胀调整后仍远低于后者)这类站不住脚的观点之上,人们依然更容易随波逐流。因为质疑众人皆错,意味着你要与市场、社交媒体、老板乃至最烦人的同事唱反调。
人们也不喜欢真正去思考坏事的发生。他们乐于做出模糊的推断,让自己感觉已做好最坏准备(比如那些关于数据中心全为军方服务或用于某种理论性救助计划的说法),尤其是当这些推测能让他们感觉自己很聪明时。但这样做反而让他们回避了真正的恶果:普通人面临的经济后果、科技行业即将迎来的多年萧条,以及市场可能遭遇的灾难性冲击。
所以今天,我要开开心心地探讨一下我一直以来所写内容的真实后果。我会结合自己的报道和他人的调查,尽可能把这些想法推向逻辑的终点。
这将是一篇两部分的系列文章的第一部分,探讨AI泡沫破裂后可能带来的实际后果。
不过我得先说明:这些终究只是对未来事件的探索,而非板上钉钉的预言。看起来人们不太愿意听到真相,也许现在是时候把这些设想当作理论性的虚构故事来展开——哪怕它们听起来像小说——这样大家才更愿意接受。
这个系列聚焦于简单的情景设定,只有一个非常核心的问题。
时间。空间。现实。它不只是线性路径,而是无尽可能性的棱镜。我是观察者,我清楚AI生成这句话听起来有多奇怪。我是你穿越这片广袤新现实的向导。跟随我,勇敢面对未知,并思索这个问题……
如果……我们正处于一个AI泡沫中?
在本期《你在哪?》高级版中……
需要完整排版与评论请前往来源站点阅读。