🚀 Multi-MCP:用于Claude Code的多模型代码审查与分析MCP服务器
Multi-MCP是一个多模型AI编排MCP服务器,专为自动化代码审查和大语言模型驱动的分析而设计。它与Claude Code CLI集成,能够编排多个AI模型(如OpenAI GPT、Anthropic Claude、Google Gemini),进行代码质量检查、安全分析(遵循OWASP Top 10标准)以及多智能体共识决策。该工具基于模型上下文协议(MCP)构建,让Python开发者和DevOps团队能够在开发工作流程中直接利用AI洞察实现代码审查自动化。

✨ 主要特性
- 🔍 代码审查:具备系统的工作流程,包含OWASP Top 10安全检查和性能分析。
- 💬 聊天交互:提供具有仓库上下文感知能力的交互式开发辅助。
- 🔄 对比分析:支持并行多模型分析,助力架构决策。
- 🎭 多智能体辩论:实现多智能体共识工作流程(独立回答 + 相互批判)。
- 🤖 多模型支持:兼容OpenAI GPT、Anthropic Claude、Google Gemini和OpenRouter等多种模型。
- 🖥️ CLI与API模型结合:可混合使用基于CLI的模型(如Gemini CLI、Codex CLI)和API模型。
- 🏷️ 模型别名:支持使用简短名称,如
mini、sonnet、gemini。
- 🧵 上下文管理:在多步骤审查中保持上下文连贯。
🚀 快速开始
前提条件
- Python 3.11及以上版本
- 至少一个AI模型提供商(OpenAI、Anthropic、Google或OpenRouter)的API密钥
📦 安装指南
选项1:从源代码安装
git clone https://github.com/religa/multi_mcp.git
cd multi_mcp
make install
选项2:手动配置
如果你不想运行make install,可以手动安装:
uv sync
cp .env.example .env
将以下内容添加到Claude Code配置文件(~/.claude.json)中,将/path/to/multi_mcp替换为实际的克隆路径:
{
"mcpServers": {
"multi": {
"type": "stdio",
"command": "/path/to/multi_mcp/.venv/bin/python",
"args": ["-m", "multi_mcp.server"]
}
}
}
配置
环境配置(API密钥和设置)
Multi-MCP按以下顺序从.env文件加载设置(优先级从高到低):
- 环境变量(已在shell中设置)
- 项目
.env文件(当前目录或项目根目录)
- 用户
.env文件(~/.multi_mcp/.env) - 适用于pip安装的回退配置
编辑.env文件,添加你的API密钥:
OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-...
GEMINI_API_KEY=...
OPENROUTER_API_KEY=sk-or-...
AZURE_API_KEY=...
AZURE_API_BASE=https://your-resource.openai.azure.com/
AWS_ACCESS_KEY_ID=...
AWS_SECRET_ACCESS_KEY=...
AWS_REGION_NAME=us-east-1
DEFAULT_MODEL=gpt-5-mini
DEFAULT_MODEL_LIST=gpt-5-mini,gemini-3-flash
模型配置(添加自定义模型)
模型在YAML配置文件中定义(用户配置优先):
- 包默认配置:
multi_mcp/config/config.yaml(随包提供)
- 用户覆盖配置:
~/.multi_mcp/config.yaml(可选,优先级更高)
要添加自定义模型,创建~/.multi_mcp/config.yaml文件(参考和示例):
version: "1.0"
models:
my-custom-gpt:
litellm_model: openai/gpt-4o
aliases:
- custom
notes: "My custom GPT-4o configuration"
my-local-llm:
provider: cli
cli_command: ollama
cli_args:
- "run"
- "llama3.2"
cli_parser: text
aliases:
- local
notes: "Local LLaMA via Ollama"
gpt-5-mini:
constraints:
temperature: 0.5
合并规则:
- 新模型将与包默认模型一起添加。
- 现有模型将进行合并(用户设置覆盖包默认设置)。
- 别名可以从包模型转移到自定义模型。
💻 使用示例
基础用法
安装到Claude Code后,你可以使用以下命令:
💬 聊天交互:交互式开发辅助
Can you ask Multi chat what's the answer to life, universe and everything?
🔍 代码审查:使用特定模型分析代码
Can you multi codereview this module for code quality and maintainability using gemini-3 and codex?
🔄 对比分析:获取多个视角(使用默认模型)
Can you multi compare the best state management approach for this React app?
🎭 多智能体辩论:深入分析并进行批判
Can you multi debate the best project code name for this project?
高级用法
启用白名单
编辑~/.claude/settings.json文件,在permissions.allow中添加以下行,使Claude Code可以无阻碍地使用Multi MCP:
{
"permissions": {
"allow": [
...
"mcp__multi__chat",
"mcp__multi__codereview",
"mcp__multi__compare",
"mcp__multi__debate",
"mcp__multi__models"
]
},
"env": {
"MCP_TIMEOUT": "300000",
"MCP_TOOL_TIMEOUT": "300000"
}
}
模型别名
使用简短别名代替完整模型名称:
| 别名 |
模型 |
提供商 |
mini |
gpt-5-mini |
OpenAI |
nano |
gpt-5-nano |
OpenAI |
gpt |
gpt-5.2 |
OpenAI |
codex |
gpt-5.1-codex |
OpenAI |
sonnet |
claude-sonnet-4.5 |
Anthropic |
haiku |
claude-haiku-4.5 |
Anthropic |
opus |
claude-opus-4.5 |
Anthropic |
gemini |
gemini-3-pro-preview |
Google |
flash |
gemini-3-flash |
Google |
azure-mini |
azure-gpt-5-mini |
Azure |
bedrock-sonnet |
bedrock-claude-4-5-sonnet |
AWS |
运行multi:models命令查看所有可用模型和别名。
CLI模型
Multi-MCP支持与API模型一起执行基于CLI的AI模型(如Gemini CLI、Codex CLI或Claude CLI)。CLI模型作为子进程运行,可与现有工具无缝协作。
优点:
- 可以使用具有完整工具访问权限的模型(文件操作、shell命令)。
- 在
compare和debate工作流程中混合使用API和CLI模型。
- 无需API开销,直接利用本地CLI。
内置CLI模型:
gemini-cli(别名:gem-cli) - 支持自动编辑模式的Gemini CLI。
codex-cli(别名:cx-cli) - 支持全自动化模式的Codex CLI。
claude-cli(别名:cl-cli) - 支持acceptEdits模式的Claude CLI。
添加自定义CLI模型:
在~/.multi_mcp/config.yaml文件中添加以下内容(参考模型配置):
version: "1.0"
models:
my-ollama:
provider: cli
cli_command: ollama
cli_args:
- "run"
- "codellama"
cli_parser: text
aliases:
- ollama
notes: "Local CodeLlama via Ollama"
前提条件:
CLI模型需要安装相应的CLI工具:
npm install -g @anthropic-ai/gemini-cli
npm install -g @openai/codex
npm install -g @anthropic-ai/claude-code
CLI使用(实验性)
Multi-MCP包含一个独立的CLI,可在无需MCP客户端的情况下进行代码审查。
⚠️ 重要提示
CLI处于实验阶段,正在积极开发中。
multi src/
multi src/server.py src/config.py
multi --model mini src/
multi --json src/ > results.json
multi -v src/
multi --base-path /path/to/project src/
🔧 技术细节
工作原理
Multi-MCP作为一个MCP服务器,Claude Code与之连接,提供AI驱动的代码分析工具:
- 安装MCP服务器并配置AI模型API密钥。
- 通过
make install自动与Claude Code CLI集成。
- 使用自然语言调用工具(例如,"multi codereview this file")。
- 并行编排多个AI模型,获取分析结果。
性能
快速多模型分析:
- ⚡ 并行执行:3个模型约10秒完成分析(顺序执行约30秒)。
- 🔄 异步架构:采用非阻塞的Python asyncio。
- 💾 对话上下文管理:在多步骤审查中保持上下文连贯。
- 📊 低延迟:响应时间取决于最慢的模型,而非所有模型响应时间之和。
为什么选择Multi-MCP?
| 特性 |
Multi-MCP |
单模型工具 |
| 并行模型执行 |
✅ |
❌ |
| 多模型共识 |
✅ |
因工具而异 |
| 模型辩论 |
✅ |
❌ |
| 支持CLI + API模型 |
✅ |
❌ |
| OWASP安全分析 |
✅ |
因工具而异 |
故障排除
“未找到API密钥”
- 在
.env文件中至少添加一个API密钥。
- 验证密钥是否已加载:
uv run python -c "from multi_mcp.settings import settings; print(settings.openai_api_key)"
集成测试失败
- 设置
RUN_E2E=1环境变量。
- 验证API密钥是否有效且有足够的额度。
调试模式:
export LOG_LEVEL=DEBUG
uv run python -m multi_mcp.server
查看logs/server.log日志文件获取详细信息。
📚 详细文档
常见问题解答
问:是否需要所有三个AI提供商的API密钥?
答:不需要,只需一个API密钥(OpenAI、Anthropic或Google)即可开始使用。
问:它真的能并行运行吗?
答:是的!当使用codereview、compare或debate工具时,所有模型使用Python的asyncio.gather()并发执行。这意味着你可以在最慢模型的响应时间内获得多个模型的响应,而不是所有模型响应时间之和。
问:可以同时运行多少个模型?
答:没有严格限制!你可以并行运行任意数量的模型。实际上,2 - 5个模型适用于大多数用例。所有工具默认使用配置的模型(通常2 - 3个),但你可以指定任意数量的模型。
贡献代码
我们欢迎贡献!请参考CONTRIBUTING.md了解:
快速开始:
git clone https://github.com/YOUR_USERNAME/multi_mcp.git
cd multi_mcp
uv sync --extra dev
make check && make test
📄 许可证
本项目采用MIT许可证,详情请参阅LICENSE文件。
链接