我先直接把命令一条龙发出来,复制粘贴就可以直接使用
sudo apt update #(先更新软件源)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash #安装 nvm:
source ~/.bashrc #(使 nvm 生效(无需重启终端,直接执行以下命令))
nvm install stable #(安装最新稳定版 Node.js(会自动安装对应的 npm):)
#验证安装:
node --version
npm --version
#如果能正常输出版本号,说明安装成功
npm config set registry https://registry.npmmirror.com #(更换镜像源)
npm config get registry #验证源
npm install -g @openai/codex #(全局下载指令)
下载完成之后,点开.codex文件夹
然后,点击config.toml
接着,直接复制粘贴,把你API的请求网址输进去
model_provider = "cch"
model = "gpt-5.2"
model_reasoning_effort = "medium"
disable_response_storage = true
sandbox_mode = "workspace-write"
suppress_unstable_features_warning = true
[features]
plan_tool = true
apply_patch_freeform = true
view_image_tool = true
web_search_request = true
unified_exec = false
streamable_shell = false
rmcp_client = true
[model_providers.cch]
name = "cch"
base_url = ""
wire_api = "responses"
requires_openai_auth = true
[notice.model_migrations]
"gpt-5.2" = "gpt-5.2-codex"
base_url = ""
下一步,打开auth.json
输入api秘钥
{
"OPENAI_API_KEY": ""
}
记得Ctrl+S,然后点击终端,输入codex
就配置成功了
上面只是我中转平台的配置方式,需要根据你自己找到的中转平台或者官方渠道进行配置,配置方法大差不差。
下面我介绍一下codex是个什么玩意,我尽量以最能懂的语言一句概括:
接入GPT的API,便于读取你开发项目的文件,代码,大幅提高你的效率,如果需要接入国内LLM模型,需要转换成openai兼容的请求格式(我没试过,不建议,但是可以这么做)
如上图所示,codex里面内置了很多提供效率的工具,比如最近很热门的skills,多agent执行,同样你可以配置mcp,但是我建议不要在设备上配置太多的功能,配置codex最大的好处是可快速解决代码部署到设备上的一些不知名的错误,也就是大幅提高部署效率,其他的你可以在你的电脑上完成/调优。
同理,你可以按照相同的思路,配置Claude code和Gemin-cli,但是需要科学上网(最好是在电脑上部署,板子上就codex就够了,主要是方便),这点我不多做赘述,下面我给国外三大家cli的开源网址(也就是我上面说的),如果需要更详细的去了解功能,点击即可
https://github.com/openai/codex
https://github.com/anthropics/claude-code
https://github.com/google-gemini/gemini-cli
这三个cli都是开源项目,是由官方以及世界各地的开发者不断进行维护和更新
下面,我给出skills的网址
https://github.com/anthropics/skills
这是由A社推出的一个概念,大家可以自行去研究怎么写,skills主要是一定程度上来解决AI幻觉以及管理上下文的,主要思想就是渐进式披露上下文,因为他的存在让多模型合作开发变成现实,比如Claude雇佣GPT和Gemini打工,GPT和Gemini只需要返回关键信息即可…大家可以自行去了解
下面,我给出OpenSpec的网址
https://github.com/Fission-AI/OpenSpec
这是AI工作流的一个很便捷的开发范式,本质上就是skills的集大成者,可以把AI写的代码边界给狠狠约束住,大家自行去了解,也可以去了解一下其他的比如promt engineering,context engineering等等各种工程理论/经验
下面,我给出MCP的网址
https://github.com/modelcontextprotocol
简单说,就是让模型拥有访问外界的能力,比如查询时间,查询文档,这里我推荐一个:
https://github.com/upstash/context7
很好用,我就不赘述了
其次,这些cli的功能和cursor,trae,windsurf等AI ide的功能是一样的,但是他们的好处是跨平台,跨架构的便捷性,同理可得结论犀牛派 A1也可以部署
总之,在我看来这些现在很火的技术未来很有可能被迭代,很有可能出现新的更好的选择,比如现在又出了一个Clawdbot的新概念。总之这些技术具有一定的不成熟性和一定的先进性,这可能是AI发展中的阵痛,最好的办法是我们以辩证的眼光去看待这些事物,不要盲目去相信营销号的信息,但也要积极的去接纳和学习,信息大爆炸的时代每一天都充满着机遇,但也容易陷入大数据的洪流。






