返回 2026-04-23
🤖 AI / ML

通过半官方 Codex 后门 API 获取 GPT-5.5 的 PelicanA pelican for GPT-5.5 via the semi-official Codex backdoor API

simonwillison.net·2026-04-23

OpenAI 发布了 GPT-5.5,该模型已集成到 Codex 中并向付费 ChatGPT 用户逐步开放。作者通过预览体验发现其响应迅速、执行精准且能力强大。然而,此次发布未包含标准 API 访问方式,仅通过 Codex 间接可用。这表明 OpenAI 正尝试控制模型分发路径,限制直接 API 调用以维持生态主导权。

Simon Willison

2026年4月23日

GPT-5.5 已经发布。它现在可以在 OpenAI Codex 中使用,并逐步向付费 ChatGPT 订阅用户开放。我提前体验了一下,感觉这个模型运行迅速、效果出色且能力强大。如今这类新模型往往难以用语言描述其优秀之处——我让它做什么,它就能精准地实现我的需求!

不过今天的发布有一个明显缺失:API 接口尚未推出。

API 部署需要不同的安全机制,我们正在与合作伙伴和客户紧密协作,以确保大规模提供服务时的安全性与合规性。很快,GPT-5.5 和 GPT-5.5 Pro 就将登陆 API 平台。

我在运行 pelican 基准测试时,一直偏好使用 API 方式调用,以避免 ChatGPT 或其他智能代理中的隐藏系统提示影响测试结果。

OpenClaw 后门事件

过去几个月里,AI 领域持续关注的一个焦点问题是:像 OpenClaw 和 Pi 这样的智能代理框架如何与大模型厂商提供的 API 进行交互。

OpenAI 和 Anthropic 都提供按月订阅服务,能以远低于原始 API 的价格访问其模型。

OpenClaw 原本可以直接集成这些订阅机制,但后来被 Anthropic 封禁。这引发了一系列连锁反应。OpenAI(最近刚聘请了 OpenClaw 作者 Peter Steinberger)抓住机会宣布,欢迎 OpenClaw 继续通过与其(开源的)Codex CLI 工具相同的机制,集成到 OpenAI 的订阅体系中。

这是否意味着任何人都可以编写代码,利用 OpenAI 特有的 Codex API 来接入现有的订阅服务?

几天前,Jeremy Howard 提出疑问:

有人知道 OpenAI 是否正式支持 Pi 和 Opencode(据我所知)所使用的 /backend-api/codex/responses 端点吗?

原来在3月30日,OpenAI 的 Romain Huet 曾发推表示:

我们希望人们能在任何地方使用 Codex 及其 ChatGPT 订阅服务!无论是在应用内、终端中,还是在 JetBrains、Xcode、OpenCode、Pi,乃至最新的 Claude Code 中都可以。正因如此,Codex CLI 和 Codex 应用服务器也都是开源的!😊

Peter Steinberger 随后回复 Jeremy 说:

OpenAI 订阅是官方支持的。

llm-openai-via-codex

于是……我让 Claude Code 逆向解析 openai/codex 仓库,搞明白认证令牌是如何存储的,然后开发了 llm-openai-via-codex 这个全新的 LLM 插件。它能自动识别你已有的 Codex 订阅,并用它来执行各类提示词请求!

(事后想想,我应该用 GPT-5.4 或 GPT-5.5 预览版来做这件事会更有趣。我曾认真考虑过用 Codex 和 GPT-5.5 重写整个项目来制造笑点,但最终决定不再浪费时间在这上面!)

使用方法如下:

  • 安装 Codex CLI,购买 OpenAI 套餐,登录 Codex
  • 安装 LLM:uv tool install llm
  • 安装新插件:llm install llm-openai-via-codex
  • 开始提问:llm -m openai-codex/gpt-5.5 '你的提示词写在这里'
  • 所有现有 LLM 功能均可正常使用——使用 -a filepath.jpg/URL 可附加图片,llm chat -m openai-codex/gpt-5.5 可开启持续对话,llm logs 可查看历史记录,llm --tool ... 则可尝试启用工具支持的功能。

    顺便看看 pelican 的效果

    我们来生成一只 pelican(北美红尾鵟)!

    llm install llm-openai-via-codex
    llm -m openai-codex/gpt-5.5 'Generate an SVG of a pelican riding a bicycle'

    这是我得到的结果:

    相比 GPT-5.4 的表现,这次稍逊一筹,所以我加上了 -o reasoning_effort xhigh 参数重新尝试:

    这次耗时近四分钟才完成,但我觉得成果明显更用心、更细致。

    如果比较 SVG 代码(默认、xhigh),xhigh 采用了截然不同的方法,其 CSS 使用量要大得多——那些渐变效果就说明了这一点。xhigh 使用了 9,322 个推理标记,而默认版本仅用了 39 个。

    关于 GPT-5.5 的几点补充说明

    GPT-5.5 最引人注目的特点之一是其定价。一旦在 API 中上线,其价格将是 GPT-5.4 的两倍——每百万输入 token 收费 5 美元,每百万输出 token 收费 30 美元,而 5.4 的价格分别是 2.5 美元和 15 美元。

    GPT-5.5 Pro 的价格会更高:每百万输入 token 30 美元,每百万输出 token 180 美元。

    GPT-5.4 仍将保持可用。以 GPT-5.5 一半的价格来看,这感觉就像 Claude Sonnet 之于 Claude Opus。

    Ethan Mollick 对 GPT-5.5 进行了详细评测,他让 GPT-5.5(以及 GPT-5.5 Pro)接受了一系列有趣的挑战。他的结论是:这个不平坦的前沿仍在延续,GPT-5.5 在某些方面表现出色,而在其他方面则面临挑战,这种表现仍然难以预测。

    需要完整排版与评论请前往来源站点阅读。