🚀 Multi-MCP:用於Claude Code的多模型代碼審查與分析MCP服務器
Multi-MCP是一個多模型AI編排MCP服務器,專為自動化代碼審查和大語言模型驅動的分析而設計。它與Claude Code CLI集成,能夠編排多個AI模型(如OpenAI GPT、Anthropic Claude、Google Gemini),進行代碼質量檢查、安全分析(遵循OWASP Top 10標準)以及多智能體共識決策。該工具基於模型上下文協議(MCP)構建,讓Python開發者和DevOps團隊能夠在開發工作流程中直接利用AI洞察實現代碼審查自動化。

✨ 主要特性
- 🔍 代碼審查:具備系統的工作流程,包含OWASP Top 10安全檢查和性能分析。
- 💬 聊天交互:提供具有倉庫上下文感知能力的交互式開發輔助。
- 🔄 對比分析:支持並行多模型分析,助力架構決策。
- 🎭 多智能體辯論:實現多智能體共識工作流程(獨立回答 + 相互批判)。
- 🤖 多模型支持:兼容OpenAI GPT、Anthropic Claude、Google Gemini和OpenRouter等多種模型。
- 🖥️ CLI與API模型結合:可混合使用基於CLI的模型(如Gemini CLI、Codex CLI)和API模型。
- 🏷️ 模型別名:支持使用簡短名稱,如
mini、sonnet、gemini。
- 🧵 上下文管理:在多步驟審查中保持上下文連貫。
🚀 快速開始
前提條件
- Python 3.11及以上版本
- 至少一個AI模型提供商(OpenAI、Anthropic、Google或OpenRouter)的API密鑰
📦 安裝指南
選項1:從源代碼安裝
git clone https://github.com/religa/multi_mcp.git
cd multi_mcp
make install
選項2:手動配置
如果你不想運行make install,可以手動安裝:
uv sync
cp .env.example .env
將以下內容添加到Claude Code配置文件(~/.claude.json)中,將/path/to/multi_mcp替換為實際的克隆路徑:
{
"mcpServers": {
"multi": {
"type": "stdio",
"command": "/path/to/multi_mcp/.venv/bin/python",
"args": ["-m", "multi_mcp.server"]
}
}
}
配置
環境配置(API密鑰和設置)
Multi-MCP按以下順序從.env文件加載設置(優先級從高到低):
- 環境變量(已在shell中設置)
- 項目
.env文件(當前目錄或項目根目錄)
- 用戶
.env文件(~/.multi_mcp/.env) - 適用於pip安裝的回退配置
編輯.env文件,添加你的API密鑰:
OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-...
GEMINI_API_KEY=...
OPENROUTER_API_KEY=sk-or-...
AZURE_API_KEY=...
AZURE_API_BASE=https://your-resource.openai.azure.com/
AWS_ACCESS_KEY_ID=...
AWS_SECRET_ACCESS_KEY=...
AWS_REGION_NAME=us-east-1
DEFAULT_MODEL=gpt-5-mini
DEFAULT_MODEL_LIST=gpt-5-mini,gemini-3-flash
模型配置(添加自定義模型)
模型在YAML配置文件中定義(用戶配置優先):
- 包默認配置:
multi_mcp/config/config.yaml(隨包提供)
- 用戶覆蓋配置:
~/.multi_mcp/config.yaml(可選,優先級更高)
要添加自定義模型,創建~/.multi_mcp/config.yaml文件(參考和示例):
version: "1.0"
models:
my-custom-gpt:
litellm_model: openai/gpt-4o
aliases:
- custom
notes: "My custom GPT-4o configuration"
my-local-llm:
provider: cli
cli_command: ollama
cli_args:
- "run"
- "llama3.2"
cli_parser: text
aliases:
- local
notes: "Local LLaMA via Ollama"
gpt-5-mini:
constraints:
temperature: 0.5
合併規則:
- 新模型將與包默認模型一起添加。
- 現有模型將進行合併(用戶設置覆蓋包默認設置)。
- 別名可以從包模型轉移到自定義模型。
💻 使用示例
基礎用法
安裝到Claude Code後,你可以使用以下命令:
💬 聊天交互:交互式開發輔助
Can you ask Multi chat what's the answer to life, universe and everything?
🔍 代碼審查:使用特定模型分析代碼
Can you multi codereview this module for code quality and maintainability using gemini-3 and codex?
🔄 對比分析:獲取多個視角(使用默認模型)
Can you multi compare the best state management approach for this React app?
🎭 多智能體辯論:深入分析並進行批判
Can you multi debate the best project code name for this project?
高級用法
啟用白名單
編輯~/.claude/settings.json文件,在permissions.allow中添加以下行,使Claude Code可以無阻礙地使用Multi MCP:
{
"permissions": {
"allow": [
...
"mcp__multi__chat",
"mcp__multi__codereview",
"mcp__multi__compare",
"mcp__multi__debate",
"mcp__multi__models"
]
},
"env": {
"MCP_TIMEOUT": "300000",
"MCP_TOOL_TIMEOUT": "300000"
}
}
模型別名
使用簡短別名代替完整模型名稱:
| 別名 |
模型 |
提供商 |
mini |
gpt-5-mini |
OpenAI |
nano |
gpt-5-nano |
OpenAI |
gpt |
gpt-5.2 |
OpenAI |
codex |
gpt-5.1-codex |
OpenAI |
sonnet |
claude-sonnet-4.5 |
Anthropic |
haiku |
claude-haiku-4.5 |
Anthropic |
opus |
claude-opus-4.5 |
Anthropic |
gemini |
gemini-3-pro-preview |
Google |
flash |
gemini-3-flash |
Google |
azure-mini |
azure-gpt-5-mini |
Azure |
bedrock-sonnet |
bedrock-claude-4-5-sonnet |
AWS |
運行multi:models命令查看所有可用模型和別名。
CLI模型
Multi-MCP支持與API模型一起執行基於CLI的AI模型(如Gemini CLI、Codex CLI或Claude CLI)。CLI模型作為子進程運行,可與現有工具無縫協作。
優點:
- 可以使用具有完整工具訪問權限的模型(文件操作、shell命令)。
- 在
compare和debate工作流程中混合使用API和CLI模型。
- 無需API開銷,直接利用本地CLI。
內置CLI模型:
gemini-cli(別名:gem-cli) - 支持自動編輯模式的Gemini CLI。
codex-cli(別名:cx-cli) - 支持全自動化模式的Codex CLI。
claude-cli(別名:cl-cli) - 支持acceptEdits模式的Claude CLI。
添加自定義CLI模型:
在~/.multi_mcp/config.yaml文件中添加以下內容(參考模型配置):
version: "1.0"
models:
my-ollama:
provider: cli
cli_command: ollama
cli_args:
- "run"
- "codellama"
cli_parser: text
aliases:
- ollama
notes: "Local CodeLlama via Ollama"
前提條件:
CLI模型需要安裝相應的CLI工具:
npm install -g @anthropic-ai/gemini-cli
npm install -g @openai/codex
npm install -g @anthropic-ai/claude-code
CLI使用(實驗性)
Multi-MCP包含一個獨立的CLI,可在無需MCP客戶端的情況下進行代碼審查。
⚠️ 重要提示
CLI處於實驗階段,正在積極開發中。
multi src/
multi src/server.py src/config.py
multi --model mini src/
multi --json src/ > results.json
multi -v src/
multi --base-path /path/to/project src/
🔧 技術細節
工作原理
Multi-MCP作為一個MCP服務器,Claude Code與之連接,提供AI驅動的代碼分析工具:
- 安裝MCP服務器並配置AI模型API密鑰。
- 通過
make install自動與Claude Code CLI集成。
- 使用自然語言調用工具(例如,"multi codereview this file")。
- 並行編排多個AI模型,獲取分析結果。
性能
快速多模型分析:
- ⚡ 並行執行:3個模型約10秒完成分析(順序執行約30秒)。
- 🔄 異步架構:採用非阻塞的Python asyncio。
- 💾 對話上下文管理:在多步驟審查中保持上下文連貫。
- 📊 低延遲:響應時間取決於最慢的模型,而非所有模型響應時間之和。
為什麼選擇Multi-MCP?
| 特性 |
Multi-MCP |
單模型工具 |
| 並行模型執行 |
✅ |
❌ |
| 多模型共識 |
✅ |
因工具而異 |
| 模型辯論 |
✅ |
❌ |
| 支持CLI + API模型 |
✅ |
❌ |
| OWASP安全分析 |
✅ |
因工具而異 |
故障排除
“未找到API密鑰”
- 在
.env文件中至少添加一個API密鑰。
- 驗證密鑰是否已加載:
uv run python -c "from multi_mcp.settings import settings; print(settings.openai_api_key)"
集成測試失敗
- 設置
RUN_E2E=1環境變量。
- 驗證API密鑰是否有效且有足夠的額度。
調試模式:
export LOG_LEVEL=DEBUG
uv run python -m multi_mcp.server
查看logs/server.log日誌文件獲取詳細信息。
📚 詳細文檔
常見問題解答
問:是否需要所有三個AI提供商的API密鑰?
答:不需要,只需一個API密鑰(OpenAI、Anthropic或Google)即可開始使用。
問:它真的能並行運行嗎?
答:是的!當使用codereview、compare或debate工具時,所有模型使用Python的asyncio.gather()併發執行。這意味著你可以在最慢模型的響應時間內獲得多個模型的響應,而不是所有模型響應時間之和。
問:可以同時運行多少個模型?
答:沒有嚴格限制!你可以並行運行任意數量的模型。實際上,2 - 5個模型適用於大多數用例。所有工具默認使用配置的模型(通常2 - 3個),但你可以指定任意數量的模型。
貢獻代碼
我們歡迎貢獻!請參考CONTRIBUTING.md瞭解:
快速開始:
git clone https://github.com/YOUR_USERNAME/multi_mcp.git
cd multi_mcp
uv sync --extra dev
make check && make test
📄 許可證
本項目採用MIT許可證,詳情請參閱LICENSE文件。
鏈接