最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。
于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 coding agent 和模型 provider 之间 API 格式不一致的问题。
现在可以在 Anthropic Messages / OpenAI Chat Completions / OpenAI Responses 之间做转换和适配,比如把 Claude 模型跑到 Codex CLI 里,或者把 OpenAI 模型跑到 Claude Code 里。
这次重点是 DeepSeek 。
它除了 Chat -> Responses 之外,还需要额外处理 thinking/reasoning content 和 tool call 合并。虽说是 vibe 出来的功能,但确实花了不少 token 。
现在配置过的 provider profile 都可以通过 VibeAround 暴露成本地 endpoint ,给 Codex CLI / Claude Code 或者其他工具比如 Cursor 使用。
理论上 Kimi 、MiniMax 、Z.AI/GLM ,以及自定义 OpenAI-compatible Chat Completions 都支持。
1
jazzenchen OP 比较好玩的是,在 Claude Code 里面跑着 openai/gpt-5.5 ,Codex CLI 里面挂着 anthropic/claude-opus-4.6 。
然后分别问它们: “你们里面都是啥模型?” Claude Code 会老老实实回答: 我是 Claude Code ,但环境显示我由 openai/gpt-5.5 驱动。 但 Codex CLI 一脸认真地说: 我是 Codex ,模型是 GPT-5.5 。 也不知道是 Codex CLI 的系统提示词控制力强,还是 claude opus 的指令遵循能力更强? |
2
longxk 20h 31m ago
咦,这个不是 LiteLLM Proxy 做的事情吗?
|
3
jazzenchen OP @longxk 没错没错,不过我这个没那么重,本意是通过远程 IM 遥控 Codex / Claude 的时候,可以更灵活选择模型供应商,顺手就把这个能力给加上了。
|
4
xingheng 18h 39m ago
embeding 模型怎么做的
|
6
cooli 5h 50m ago
厉害了,能解决新版本 Codex 接入 Aliyun Coding Plan 吧。
|
7
jazzenchen OP @cooli 按说应该可以,但百炼的 Coding Plan 每次看都在补货,还没有实测过
|
8
chenzezeya 1h 37m ago
codex 的客户端可以支持吗
|
9
PowerDi 21 mins ago
这个打开怎么是 agent 代理的工程,跟你说的是一个东西吗
|