本文提供 官方 Codex CLI/Desktop App 与 开源本地部署方案 两种路径的详细步骤,涵盖全平台(Windows/macOS/Linux),可直接复制命令执行。
一、安装前准备
1.1 基础环境要求
表格
1.2 必备账号与密钥
OpenAI 账号(需开通 API 权限)
API Key(从OpenAI 控制台获取)
可选:ChatGPT Plus 订阅(解锁高级功能)
二、官方 Codex 安装部署(推荐)
方案 A:Codex CLI(全平台通用)
步骤 1:安装 Node.js
bash
运行
# Windows/macOS/Linux通用(推荐使用nvm安装)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash
nvm install 20 # 安装Node.js 20 LTS
nvm use 20
步骤 2:安装 Codex CLI
bash
运行
# 全局安装(推荐)
npm install -g @openai/codex --registry=https://registry.npmmirror.com # 国内加速
# 验证安装
codex --version # 应显示版本号,如1.1.0
步骤 3:配置认证(两种方式)
方式 1:交互式登录(推荐)
bash
运行
codex login
# 浏览器自动打开,用ChatGPT账号登录授权
方式 2:手动配置 API Key
bash
运行
# 创建配置目录
mkdir -p ~/.codex # Linux/macOS
mkdir -p %USERPROFILE%\.codex # Windows
# 创建auth.json文件
echo '{"OPENAI_API_KEY": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"}' > ~/.codex/auth.json
# 创建config.toml文件
echo 'model = "gpt-4o-code"\napi_base_url = "https://api.openai.com/v1"' > ~/.codex/config.toml
步骤 4:使用 Codex CLI
bash
运行
# 基本使用
codex "写一个Python快速排序算法"
# 生成文件
codex "创建一个Node.js Express服务器" --output server.js
# 项目级配置(在项目根目录)
echo 'model = "gpt-4-code"\nlanguage = "javascript"' > .codex/config.toml
方案 B:Codex Desktop App(图形界面)
macOS 安装
bash
运行
# 方式1:App Store安装
open -a "App Store" && echo "搜索Codex并安装"
# 方式2:Homebrew安装
brew install --cask codex
Windows 安装
bash
运行
# 方式1:微软商店安装
start ms-windows-store://pdp/?productid=9plm9xgg6vks
# 方式2:手动下载
start https://apps.microsoft.com/detail/9plm9xgg6vks
首次启动配置
打开 Codex App
选择 "Sign in with ChatGPT"
浏览器自动弹出登录页面,完成授权
授予辅助功能、文件访问、网络访问权限
三、开源本地部署方案(离线使用)
方案 A:Ollama + DeepSeek-v2(推荐)
步骤 1:安装 Ollama
bash
运行
# Linux/macOS
curl -fsSL https://ollama.com/install.sh | sh
# Windows
irm https://ollama.com/install.ps1 | iex
步骤 2:拉取并运行 DeepSeek-v2(FIM 模型)
bash
运行
ollama run deepseek-v2 # 自动下载并启动模型
步骤 3:部署 Copilot 代理服务
bash
运行
# 克隆代理仓库
git clone https://github.com/atizose/github-copilot-proxies.git
cd github-copilot-proxies
# 安装依赖
pip install -r requirements.txt
# 启动代理(对接本地Ollama)
python main.py --model deepseek-v2 --host 0.0.0.0 --port 8080
步骤 4:配置 VS Code 插件
安装 GitHub Copilot 插件
打开设置 → 扩展 → Copilot
设置
GitHub Copilot: Proxy为http://localhost:8080重启 VS Code 即可使用本地模型
方案 B:Docker 部署 Codex 代理
bash
运行
# 克隆开源Codex代理
git clone https://github.com/ymichael/open-codex.git
cd open-codex
# 构建Docker镜像
docker build -t codex-proxy .
# 启动容器(对接本地Ollama)
docker run -d \
--name codex-proxy \
-p 3000:3000 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-e DEFAULT_MODEL=deepseek-v2 \
codex-proxy
四、高级配置与优化
4.1 配置文件详解(~/.codex/config.toml)
toml
# 基础设置
model = "gpt-4o-code" # 模型选择:gpt-4o-code/gpt-4-code/codex-002
api_base_url = "https://api.openai.com/v1" # 国内可使用中转API
temperature = 0.3 # 0-1,越低越稳定
# 代码生成设置
language = "javascript" # 默认编程语言
max_tokens = 1000 # 最大生成 tokens
top_p = 0.9 # 采样参数
# 高级设置
editor = "code" # 默认编辑器:code/vim/nano
save_history = true # 保存历史记录
history_path = "~/.codex/history.json" # 历史记录路径
4.2 国内使用优化
bash
运行
# 1. 使用国内npm镜像
npm config set registry https://registry.npmmirror.com
# 2. 设置API中转(如使用letai.cc)
echo 'api_base_url = "https://api.letai.cc/v1"' >> ~/.codex/config.toml
# 3. 配置网络代理
export HTTP_PROXY=http://127.0.0.1:7890
export HTTPS_PROXY=http://127.0.0.1:7890
4.3 系统服务部署(Linux)
bash
运行
# 创建systemd服务文件
sudo nano /etc/systemd/system/codex.service
# 粘贴以下内容
[Unit]
Description=Codex Local Service
After=network.target
[Service]
User=your_username
WorkingDirectory=/home/your_username/.codex
ExecStart=/usr/local/bin/codex server --port 8080
Restart=always
[Install]
WantedBy=multi-user.target
# 启用并启动服务
sudo systemctl daemon-reload
sudo systemctl enable codex
sudo systemctl start codex
五、常见问题解决
表格
六、总结与下一步
官方方案:适合需要完整 Codex 功能、接受联网调用的用户,配置简单,功能全面OpenAI
开源方案:适合需要离线使用、保护代码隐私的用户,需一定技术基础