🚀 模型 ID 速查表
防止你的 AI 編碼代理編造過時的模型名稱。 這個 MCP 服務器能讓任何 AI 助手即時獲取 19 個提供商的 107 個模型的準確、最新的 API 模型 ID、定價和規格信息。
該項目使用 Go 語言構建,單個二進制文件僅 10MB,無需外部調用,響應時間亞毫秒級,且每天自動更新。
- model = "gpt-4-turbo" # 編造的 - 該模型已不存在
+ model = "gpt-5.3-codex" # 正確 - 已根據官方文檔驗證
- model = "claude-3-opus-20240229" # 已棄用
+ model = "claude-opus-4-6" # 當前 - 最新的 Anthropic 旗艦模型
🚀 快速開始
從以下選項中任選其一,一分鐘內即可完成設置並開始使用。
選項 A:Claude Code(一條命令)
claude mcp add --transport sse --scope user model-id-cheatsheet \
https://universal-model-registry-production.up.railway.app/sse
驗證是否生效:
claude mcp list
然後啟動一個新的 Claude Code 會話並提問:“最新的 OpenAI 模型是什麼?” - 它會自動使用工具。
選項 B:Cursor
將以下內容添加到 ~/.cursor/mcp.json:
{
"mcpServers": {
"model-id-cheatsheet": {
"url": "https://universal-model-registry-production.up.railway.app/sse"
}
}
}
重啟 Cursor 使更改生效。
選項 C:Windsurf
在設置中添加到 “MCP Servers”(或者編輯 ~/.codeium/windsurf/mcp_config.json):
{
"mcpServers": {
"model-id-cheatsheet": {
"serverUrl": "https://universal-model-registry-production.up.railway.app/sse"
}
}
}
選項 D:Codex CLI
將以下內容添加到 ~/.codex/config.toml:
[mcp_servers.model-id-cheatsheet]
command = "uvx"
args = ["mcp-proxy", "--transport", "sse", "https://universal-model-registry-production.up.railway.app/sse"]
選項 E:OpenCode
將以下內容添加到 ~/.config/opencode/opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"mcp": {
"model-id-cheatsheet": {
"type": "remote",
"url": "https://universal-model-registry-production.up.railway.app/sse"
}
}
}
選項 F:任何 MCP 客戶端
直接連接到 SSE 端點(無需 API 密鑰,無需身份驗證):
https://universal-model-registry-production.up.railway.app/sse
或者使用可流式傳輸的 HTTP 傳輸方式:
https://universal-model-registry-production.up.railway.app/mcp
驗證設置
連接成功後,嘗試向你的 AI 助手提出以下任何問題:
- “Claude Opus 4.6 的正確模型 ID 是什麼?”
- “gpt-4o 仍然可用嗎?”
- “比較 gpt-5.2 和 claude-opus-4-6”
- “支持視覺功能的最便宜的模型是什麼?”
如果代理在回答之前調用了 get_model_info 或 check_model_status 等工具,則表示設置成功。
✨ 主要特性
你的 AI 代理可獲得 6 個工具,在編寫任何模型 ID 之前會自動調用這些工具:
| 工具 |
功能 |
示例提示 |
get_model_info(model_id) |
獲取完整規格:API ID、定價、上下文窗口、功能 |
"Claude Sonnet 的模型 ID 是什麼?" |
list_models(provider?, status?, capability?) |
瀏覽和篩選註冊表 |
"顯示所有當前的 Google 模型" |
recommend_model(task, budget?) |
根據任務給出排名推薦 |
"適合編碼且預算有限的最佳模型" |
check_model_status(model_id) |
驗證模型是當前版本、舊版本還是已棄用 |
"gpt-4o 仍然可用嗎?" |
compare_models(model_ids) |
並排比較表格 |
"比較 gpt-5.2 和 claude-opus-4-6" |
search_models(query) |
在所有字段中進行自由文本搜索 |
"搜索推理模型" |
資源
| URI |
描述 |
model://registry/all |
所有 107 個模型的完整 JSON 轉儲 |
model://registry/current |
僅包含當前(未棄用)模型的 JSON |
model://registry/pricing |
按最便宜優先排序的定價表(Markdown 格式) |
底層原理
- 你要求代理編寫代碼或回答模型相關問題。
- 代理自動調用適當的工具(例如
get_model_info)。
- 服務器在亞毫秒級內響應經過驗證的數據(無需外部 API 調用)。
- 代理使用正確的當前模型 ID 編寫代碼。
服務器指令告知代理:“在使用訓練數據中的模型 ID 之前,務必先進行驗證。” 這意味著代理在編寫之前總會進行檢查。
💻 使用示例
基礎用法
編寫 API 調用:
response = client.chat.completions.create(
model="gpt-5.4",
messages=[...]
)
高級用法
捕獲已棄用的模型:
response = client.chat.completions.create(
model="gpt-5",
messages=[...]
)
找到最便宜的選項:
response = client.chat.completions.create(
model="gpt-5-nano",
messages=[...]
)
比較選項:
🔧 技術細節
資源佔用
一個常見的問題是:“這會減慢我的代理速度或消耗令牌嗎?”
| 指標 |
值 |
| 二進制文件大小 |
~10MB |
| 運行時內存 |
最小(靜態內存映射,無數據庫) |
| 外部 API 調用 |
無(所有數據均已內置) |
| 響應時間 |
亞毫秒級 |
| 每次工具調用的令牌成本 |
~200 - 500 個令牌(小文本響應) |
| 工具架構開銷 |
系統提示中約 500 - 800 個令牌 |
相比之下,一次網絡搜索消耗的令牌比所有 6 個工具架構的總和還要多。
涵蓋的模型(共 107 個)
當前模型(79 個)
| 提供商 |
模型 |
API ID |
| OpenAI (15) |
GPT-5.4、GPT-5.4 Pro、GPT-5.3 Instant、GPT-5.2、GPT-5.2 Pro、GPT-5.1、GPT-5.1 Codex、GPT-5.1 Mini、GPT-5、GPT-5 Mini、GPT-5 Nano、GPT-4.1 Mini、GPT-4.1 Nano、o3、o4-mini |
gpt-5.4、gpt-5.4-pro、gpt-5.3-chat-latest、gpt-5.2、gpt-5.2-pro、gpt-5.1、gpt-5.1-codex、gpt-5.1-mini、gpt-5、gpt-5-mini、gpt-5-nano、gpt-4.1-mini、gpt-4.1-nano、o3、o4-mini |
| Anthropic (4) |
Claude Opus 4.6、Claude Sonnet 4.6、Claude Sonnet 4.5、Claude Haiku 4.5 |
claude-opus-4-6、claude-sonnet-4-6、claude-sonnet-4-5-20250929、claude-haiku-4-5-20251001 |
| Mistral (11) |
Mistral Large 3、Mistral Medium 3、Mistral Small 3.2、Mistral Saba、Ministral 3B、Ministral 8B、Ministral 14B、Magistral Small 1.2、Magistral Medium 1.2、Devstral 2、Devstral Small 2 |
mistral-large-2512、mistral-medium-2505、mistral-small-2506、mistral-saba-2502、ministral-3b-2512、ministral-8b-2512、ministral-14b-2512、magistral-small-2509、magistral-medium-2509、devstral-2512、devstral-small-2512 |
| Amazon (6) |
Nova Micro、Nova Lite、Nova Pro、Nova Premier、Nova 2 Lite、Nova 2 Pro |
amazon-nova-micro、amazon-nova-lite、amazon-nova-pro、amazon-nova-premier、amazon-nova-2-lite、amazon-nova-2-pro |
| Google (5) |
Gemini 3.1 Pro、Gemini 3.1 Flash Lite、Gemini 3 Flash、Gemini 2.5 Pro、Gemini 2.5 Flash |
gemini-3.1-pro-preview、gemini-3.1-flash-lite-preview、gemini-3-flash-preview、gemini-2.5-pro、gemini-2.5-flash |
| Cohere (5) |
Command A、Command A Reasoning、Command A Vision、Command A Translate、Command R7B |
command-a-03-2025、command-a-reasoning-08-2025、command-a-vision-07-2025、command-a-translate-08-2025、command-r7b-12-2024 |
| xAI (4) |
Grok 4、Grok 4.1 Fast、Grok 4 Fast、Grok Code Fast 1 |
grok-4、grok-4.1-fast、grok-4-fast、grok-code-fast-1 |
| Microsoft (4) |
Phi-4、Phi-4 Multimodal、Phi-4 Reasoning、Phi-4 Reasoning Plus |
phi-4、phi-4-multimodal-instruct、phi-4-reasoning、phi-4-reasoning-plus |
| Perplexity (4) |
Sonar、Sonar Pro、Sonar Reasoning Pro、Sonar Deep Research |
sonar、sonar-pro、sonar-reasoning-pro、sonar-deep-research |
| Moonshot (3) |
Kimi K2.5、Kimi K2 Thinking、Kimi K2 (0905) |
kimi-k2.5、kimi-k2-thinking、kimi-k2-0905-preview |
| Tencent (3) |
Hunyuan TurboS、Hunyuan T1、Hunyuan A13B |
hunyuan-turbos、hunyuan-t1、hunyuan-a13b |
| Zhipu (3) |
GLM-5、GLM-4.7、GLM-4.7 FlashX |
glm-5、glm-4.7、glm-4.7-flashx |
| Meta (2) |
Llama 4 Maverick、Llama 4 Scout |
llama-4-maverick、llama-4-scout |
| DeepSeek (2) |
DeepSeek Reasoner、DeepSeek Chat |
deepseek-reasoner、deepseek-chat |
| NVIDIA (2) |
Nemotron 3 Nano 30B、Nemotron Ultra 253B |
nvidia/nemotron-3-nano-30b-a3b、nvidia/llama-3.1-nemotron-ultra-253b-v1 |
| AI21 (2) |
Jamba Large 1.7、Jamba Mini 1.7 |
jamba-large-1.7、jamba-mini-1.7 |
| MiniMax (2) |
MiniMax M2.5、MiniMax M2.5 Lightning |
minimax-m2.5、minimax-m2.5-lightning |
| Kuaishou (1) |
KAT-Coder Pro |
kat-coder-pro |
| Xiaomi (1) |
MiMo V2 Flash |
mimo-v2-flash |
舊版和已棄用的模型(30 個)
對這些模型進行跟蹤,以便你的代理能夠檢測到過時的模型 ID 並建議使用當前的替代模型:
- OpenAI:
gpt-5.3-codex(已棄用)、gpt-5.2-codex(已棄用)、gpt-5.1-codex-mini(已棄用)、o3-pro(已棄用)、o3-deep-research(已棄用)、o3-mini(舊版)、gpt-4.1(已棄用)、gpt-4o(已棄用)、gpt-4o-mini(已棄用)
- Anthropic:
claude-opus-4-5(舊版)、claude-opus-4-1(舊版)、claude-opus-4-0(舊版)、claude-sonnet-4-0(舊版)、claude-3-7-sonnet-20250219(已棄用)
- Google:
gemini-3-pro-preview(已棄用)、gemini-3-pro-image-preview(已棄用)、gemini-2.5-flash-lite(已棄用)、gemini-2.0-flash-lite(已棄用)、gemini-2.0-flash(已棄用)
- xAI:
grok-4.1(已棄用)、grok-3(舊版)、grok-3-mini(舊版)
- Mistral:
mistral-small-2503(舊版)、codestral-2508(舊版)
- MiniMax:
minimax-m2.1(舊版)、minimax-01(已棄用)
- Meta:
llama-3.3-70b(舊版)
- DeepSeek:
deepseek-r1(舊版)、deepseek-v3(已棄用)
- Zhipu:
glm-4.6v(已棄用)
📦 安裝指南
如果你更喜歡在本地運行服務器,而不是使用託管端點,可以參考以下方法:
選項 1:從源代碼構建(推薦本地使用)
需要 Go 1.23 及以上版本。
git clone https://github.com/aezizhu/universal-model-registry.git
cd universal-model-registry/go-server
go build -o model-id-cheatsheet ./cmd/server
然後將其作為本地標準輸入輸出服務器添加到 Claude Code 中(零延遲,無需網絡):
claude mcp add --scope user model-id-cheatsheet -- /path/to/model-id-cheatsheet
或者以 SSE 模式運行,供其他客戶端使用:
MCP_TRANSPORT=sse PORT=8000 ./model-id-cheatsheet
選項 2:使用 Docker
git clone https://github.com/aezizhu/universal-model-registry.git
cd universal-model-registry
docker build -t model-id-cheatsheet .
docker run -p 8000:8000 model-id-cheatsheet
你的 SSE 端點將位於 http://localhost:8000/sse。
選項 3:部署到 Railway
或者手動操作:
railway login
railway init
railway up
📚 詳細文檔
保持更新
模型數據會在太平洋時間每天晚上 7 點自動檢查和更新,無需人工干預。
工作原理:
- Railway 定時任務每天運行更新程序,抓取 6 個提供商的公共文檔頁面(無需 API 密鑰)。
- 從文檔中移除的模型 --> 通過 PR 自動標記為棄用(代碼中的狀態更改為
"deprecated")。
- 檢測到新模型 --> 創建 GitHub 問題以供審核。
- CI 在自動生成的 PR 上運行 --> 如果測試通過 --> 自動合併到主分支。
- Railway 從主分支自動部署。
無需提供商 API 密鑰。更新程序讀取公開可用的文檔頁面以檢測模型更改。只需要 GITHUB_TOKEN 和 GITHUB_REPO 來創建 PR 和問題。
自動更新管道詳情
Railway 定時任務(主要) -- 託管實例使用 Railway 定時服務,每天運行更新程序。配置文件見 configs/railway-updater.toml。
需要設置的環境變量(在 Railway 控制檯設置):
GITHUB_TOKEN -- 具有 repo 權限的 GitHub 個人訪問令牌
GITHUB_REPO -- 格式為 "owner/repo" 的倉庫(例如 "aezizhu/universal-model-registry")
檢查的提供商(通過公共文檔):
- OpenAI(通過 GitHub SDK 源代碼)、Anthropic、Google、Mistral、xAI、DeepSeek
CI/CD 工作流:
.github/workflows/ci.yml -- 在每個 PR 上運行測試
.github/workflows/auto-merge.yml -- CI 通過後自動合併標記為 auto-update 的機器人 PR
GitHub Actions(替代方案) -- .github/workflows/auto-update.yml 中還包含一個 GitHub Actions 工作流,供不使用 Railway 進行自託管的用戶使用。無需 API 密鑰 -- 僅需 GITHUB_TOKEN(由 GitHub Actions 自動提供)。
安全
- 速率限制:每個 IP 每分鐘 60 個請求
- 連接限制:每個 IP 最多 5 個 SSE 連接,總共 100 個
- 請求體限制:最大 64KB
- 輸入清理:所有字符串輸入截斷為安全長度
- HTTP 強化:讀取超時 15 秒,讀取頭部超時 5 秒,空閒超時 120 秒,最大頭部 64KB
- 非根 Docker:容器以非特權用戶身份運行
- 優雅關閉:在 SIGINT/SIGTERM 信號下清理連接
技術棧
- 語言:Go 1.23
- MCP SDK:
github.com/modelcontextprotocol/go-sdk v1.3.0(官方)
- 傳輸方式:標準輸入輸出、SSE、可流式傳輸的 HTTP
- 二進制文件大小:~10MB
- 測試:156 個單元測試
- 安全:按 IP 進行速率限制、連接限制、輸入清理
- 部署:Docker(Alpine)、Railway
貢獻
歡迎貢獻代碼!無論是添加新模型、修復數據還是改進服務器,都可以按照以下步驟進行:
- 分叉倉庫並在本地克隆。
- 在
go-server/internal/models/data.go 中編輯模型數據。
- 在
go-server/internal/models/data_test.go 中更新測試計數。
- 運行測試:
cd go-server && go test ./... -v
- 提交 PR -- 我們會盡快審核。
如果你發現過時的模型或錯誤的定價,提出問題同樣有幫助。
📄 許可證
本項目採用 MIT 許可證。