什么是Zen MCP服务器?
Zen MCP 服务器是一个基于Model Context Protocol (MCP) 的开发工具,它将多个AI模型(如Claude、Gemini、OpenAI等)集成到一个统一的开发环境中。用户可以通过简单的指令让这些AI协同工作,完成代码审查、调试、文档生成等任务。如何使用Zen MCP服务器?
通过在命令行或IDE中输入特定指令(例如`/zen:chat`或`/zen:codereview`),您可以调用Zen MCP服务器中的不同功能模块。服务器会根据您的需求选择合适的AI模型,并提供详细的反馈和建议。适用场景
适用于需要多模型协作进行代码分析、调试、测试和文档生成的开发场景。特别适合复杂项目中的团队协作和自动化开发流程。主要功能
优势与局限性
如何使用
使用案例
常见问题
相关资源
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
🚀 Zen MCP:多工作流,一上下文
Zen MCP是您喜爱的编码代理(Claude 或 Gemini CLI)的终极开发伙伴,它是一个模型上下文协议服务器,可让您访问多个AI模型,以增强代码分析、解决问题和协同开发的能力。
具备真正的AI编排能力,对话可跨工作流延续 —— 给Claude一个复杂的工作流,让它自动在各个模型之间进行编排。Claude掌控全局,执行实际工作,但会从最适合每个子任务的AI获取观点。借助诸如planner
(用于分解复杂项目)、analyze
(用于理解代码库)、codereview
(用于代码审核)、refactor
(用于改进代码结构)、debug
(用于解决复杂问题)和precommit
(用于验证更改)等工具,Claude可以在一次对话中切换不同的工具和模型,并且上下文能够无缝延续。
示例工作流 - Claude Code:
使用Gemini Pro和O3进行代码审查,并使用planner生成详细计划,实施修复,最后继续之前的代码审查进行预提交检查
- 这将触发一个
codereview
工作流,Claude会遍历代码,查找各种问题 - 经过多次检查后,收集相关代码并记录沿途发现的问题
- 保持一个
置信度
级别,包括探索中
、低
、中
、高
和确定
,以跟踪它发现和识别问题的置信程度 - 生成一份从关键到次要问题的详细列表
- 与Gemini Pro共享相关文件、发现等内容,以进行第二次
codereview
的深入研究 - 收到回复后,对O3进行同样的操作,如果有新发现则添加到提示中
- 完成后,Claude收集所有反馈并合并成一份从关键到次要问题的单一列表,包括代码中的良好模式。如果Claude误解或遗漏了关键内容,而其他模型指出了这一点,最终列表将包含新发现或修订内容
- 如果需要进行重大重构,它将使用
planner
工作流将工作分解为更简单的步骤 - 然后Claude执行修复突出问题的实际工作
- 完成后,Claude返回Gemini Pro进行
precommit
审查
所有这些都在一个对话线程中完成!第11步中的Gemini Pro知道
第7步中O3的建议!它会考虑该上下文和审查结果,以协助进行最终的预提交审查。
可以将其视为Claude Code的增强版。这个MCP并非魔法,它只是一种强大的粘合剂。
请记住: Claude始终完全掌控,但您才是决策者。 Zen的设计初衷是让Claude仅在需要时调用其他模型,并进行有意义的来回交互。 您是那个精心设计强大提示的人,让Claude引入Gemini、Flash、O3 —— 或者独自完成任务。 您是引导者、提示者、操控者。
您才是真正智能的AI。
因为这些AI模型 在闲聊时显然并非如此 →
🚀 快速开始
快速导航
-
入门指南
-
工具参考
-
高级用法
-
设置与支持
为什么选择这个服务器?
Claude非常出色,但有时您需要:
- 引导式工作流 - 以开发者为中心的流程,强制进行系统调查,确保Claude在每个阶段都彻底检查代码,防止仓促分析(
debug
、precommit
、refactor
、analyze
、codereview
) - 多个AI视角 - 让Claude在不同模型之间进行编排,以获得最佳分析结果
- 自动模型选择 - Claude为每个任务选择合适的模型(或者您可以指定)
- 资深开发者伙伴 来验证和拓展想法(
chat
) - 复杂架构决策的第二意见 - 借助Gemini Pro、O3或通过自定义端点使用数十种其他模型的视角来增强Claude的思考能力(
thinkdeep
) - 获取多个专家意见 - 让不同的AI模型对您的想法进行辩论(有些支持,有些批判),以帮助您做出更好的决策(
consensus
) - 专业代码审查 并提供可操作的反馈,覆盖整个代码库(
codereview
) - 预提交验证 利用最适合的模型进行深入分析(
precommit
) - 专家调试 - O3用于解决逻辑问题,Gemini用于解决架构问题(
debug
) - 超越Claude限制的扩展上下文窗口 - 将整个代码库、大型数据集或全面文档的分析委托给Gemini(100万个令牌)或O3(20万个令牌)
- 模型特定优势 - Gemini Pro用于深度思考,Flash用于快速迭代,O3用于强大推理,Ollama用于本地隐私保护
- 本地模型支持 - 通过Ollama、vLLM或LM Studio在本地运行Llama 3.2等模型,以保护隐私并控制成本
- 动态协作 - 模型可以在分析过程中向Claude请求额外的上下文和后续回复
- 智能文件处理 - 自动扩展目录,根据模型容量管理令牌限制
- 视觉支持 - 使用支持视觉的模型分析图像、图表、截图和视觉内容
- 绕过MCP的令牌限制 - 自动解决MCP的25K限制问题
- 跨会话上下文恢复 - 即使Claude的上下文重置,也能继续对话,其他模型会保留完整历史记录
专业提示:上下文恢复
这是一个极其强大的功能,怎么强调都不为过:
这个
对话延续
系统最惊人的副作用是,即使Claude的上下文重置或压缩,由于延续信息保存在MCP的内存中,您可以要求它继续
与o3
讨论计划,它会立即恢复Claude的上下文,因为O3知道之前讨论的内容,并会以一种重新激发Claude理解的方式将其传达回来。所有这些都无需浪费上下文让Claude再次摄入冗长的文档或代码,并重新提示它与另一个模型进行通信。Zen在内部管理这些。模型的响应比自动摘要更能以更好的上下文恢复Claude对讨论的理解。
这个服务器将多个AI模型编排成您的开发团队,Claude会自动为每个任务选择最佳模型,或者允许您根据不同的优势选择特定的模型。
使用的提示:
仔细研究代码,深入思考其功能,然后查看是否有性能优化的空间,与Gemini就此事进行头脑风暴以获取反馈,然后通过首先使用`measure`添加单元测试并测量当前代码,然后实施优化并再次测量以确保性能得到改善,最后分享结果。在进行调整时,中途与Gemini进行核对。
最终实现使所选库的JSON解析性能提高了26%,通过Gemini的分析和Claude的优化指导,有针对性地进行协作优化,减少了处理时间。
快速上手(5分钟)
前提条件
- Python 3.10+(推荐3.12)
- Git
- Windows用户:Claude Code CLI需要WSL2
1. 获取API密钥(至少需要一个)
选项A:OpenRouter(通过一个API访问多个模型)
- OpenRouter:访问 OpenRouter 以通过一个API访问多个模型。设置指南
- 直接在OpenRouter仪表板中控制模型访问和支出限制
- 在
conf/custom_models.json
中配置模型别名
选项B:原生API
- Gemini:访问 Google AI Studio 并生成API密钥。为了在使用Gemini 2.5 Pro时获得最佳效果,请使用付费API密钥,因为免费层对最新模型的访问有限。
- OpenAI:访问 OpenAI平台 获取O3模型的API密钥。
- X.AI:访问 X.AI控制台 获取GROK模型的API密钥。
- DIAL:访问 DIAL平台 获取通过其统一API访问多个模型的API密钥。DIAL是一个开源的AI编排平台,提供对主要供应商、开源社区和自托管部署的模型的供应商无关访问。API文档
选项C:自定义API端点(本地模型,如Ollama、vLLM) 请参阅设置指南。使用自定义API,您可以:
- Ollama:在本地免费运行Llama 3.2等模型进行推理
- vLLM:自托管推理服务器,用于高吞吐量推理
- LM Studio:具有OpenAI兼容API接口的本地模型托管
- Text Generation WebUI:流行的本地模型运行界面
- 任何OpenAI兼容API:用于您自己基础设施的自定义端点
注意: 如果使用多个提供商选项,当模型名称重叠时,可能会产生关于使用哪个提供商或模型的歧义。 如果所有API都已配置,当模型名称冲突时,如
gemini
和o3
,原生API将优先使用。 在conf/custom_models.json
中配置您的模型别名并为它们指定唯一的名称
2. 选择安装方法
选项A:使用uvx快速安装
前提条件:首先安装 uv(uvx需要)
Claude桌面配置
将以下内容添加到您的claude_desktop_config.json
中:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
Claude Code CLI配置
在项目根目录下创建一个.mcp.json
文件,用于项目范围配置:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
Gemini CLI配置
编辑~/.gemini/settings.json
并添加:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
注意:虽然Zen MCP Server可以成功连接到Gemini CLI,但工具调用目前还不能正常工作。请参阅Gemini CLI设置以获取更新信息。
此方法的优点:
- 零设置 - uvx会自动处理一切
- 始终保持最新 - 每次运行时都会拉取最新版本
- 无需本地依赖 - 无需设置Python环境即可工作
- 即时可用 - 立即可以使用
选项B:传统克隆和设置方法
# 克隆到您喜欢的位置
git clone https://github.com/BeehiveInnovations/zen-mcp-server.git
cd zen-mcp-server
# 一键设置,将Zen安装到Claude中
./run-server.sh
# 或者对于使用PowerShell的Windows用户:
./run-server.ps1
# 查看Claude的MCP配置
./run-server.sh -c
# PowerShell:
./run-server.ps1 -Config
# 查看更多帮助信息
./run-server.sh --help
# PowerShell:
./run-server.ps1 -Help
此方法的优点:
- 自动设置一切 - Python环境、依赖项、配置
- 配置Claude集成 - 添加到Claude Code CLI并指导桌面设置
- 即时可用 - 无需手动配置
- 也适用于Gemini CLI - 请参阅Gemini CLI设置进行配置
更新后:每次git pull
后,始终再次运行./run-server.sh
以确保一切保持最新。
Windows用户:如果使用WSL,请参阅WSL设置指南以获取详细说明。
3. 添加API密钥
# 编辑.env文件以添加您的API密钥(如果尚未在环境中设置)
nano .env
# 文件将包含以下内容,至少应设置一个:
# GEMINI_API_KEY=your-gemini-api-key-here # 用于Gemini模型
# OPENAI_API_KEY=your-openai-api-key-here # 用于O3模型
# OPENROUTER_API_KEY=your-openrouter-key # 用于OpenRouter(请参阅docs/custom_models.md)
# DIAL_API_KEY=your-dial-api-key-here # 用于DIAL平台
# 对于DIAL(可选配置):
# DIAL_API_HOST=https://core.dialx.ai # 默认DIAL主机(可选)
# DIAL_API_VERSION=2024-12-01-preview # API版本(可选)
# DIAL_ALLOWED_MODELS=o3,gemini-2.5-pro # 限制使用特定模型(可选)
# 对于本地模型(Ollama、vLLM等):
# CUSTOM_API_URL=http://localhost:11434/v1 # Ollama示例
# CUSTOM_API_KEY= # Ollama留空
# CUSTOM_MODEL_NAME=llama3.2 # 默认模型
# 注意:至少需要一个API密钥或自定义URL
无需重启:服务器每次Claude调用工具时都会读取.env文件,因此更改会立即生效。
下一步:现在从项目文件夹的终端运行claude
,使其连接到新添加的mcp服务器。
如果您已经在运行claude
代码会话,请退出并启动新会话。
如果为Claude桌面进行设置
需要确切的配置? 运行./run-server.sh -c
以显示具有正确路径的特定平台设置说明。
- 打开Claude桌面配置:设置 → 开发者 → 编辑配置
- 复制
./run-server.sh -c
显示的配置 到您的claude_desktop_config.json
中 - 重启Claude桌面 以使更改生效
4. 开始使用!
只需自然地向Claude提问:
- "使用zen深入思考这个架构设计" → Claude选择最佳模型 +
thinkdeep
- "使用zen对这段代码进行安全问题的代码审查" → Claude可能选择Gemini Pro +
codereview
- "使用zen调试为什么这个测试失败,问题可能出在my_class.swift中" → Claude可能选择O3 +
debug
- "使用zen分析这些文件以了解数据流" → Claude选择合适的模型 +
analyze
- "使用flash根据policy.md中提到的规范建议如何格式化这段代码" → 专门使用Gemini Flash
- "深入思考这个问题,并让o3调试我在checkOrders()函数中发现的逻辑错误" → 专门使用O3
- "与pro头脑风暴扩展策略。研究代码,选择您喜欢的策略,并与pro辩论以确定两个最佳方法" → 专门使用Gemini Pro
- "使用local-llama对这个项目进行本地化并添加缺失的翻译" → 通过自定义URL使用本地Llama 3.2
- "首先使用local-llama进行快速本地分析,然后使用opus进行全面的安全审查" → 按顺序使用两个提供商
✨ 主要特性
可用工具
这些不仅仅是工具,它们是让Claude像真正的开发者一样思考的方式。与匆忙回复表面观点或浅显见解不同,这些工作流让Claude停下来,深入研究您的代码,并逐步推理解决问题。
这就像匆忙猜测和真正理解您代码的专注的第二双眼睛之间的区别。试试这些工具,感受其中的不同。
快速工具选择指南:
- 需要思考伙伴? →
chat
(头脑风暴想法、获取第二意见、验证方法) - 需要深度思考? →
thinkdeep
(扩展分析、发现边缘情况) - 想避免“您绝对正确!”的回复? →
challenge
(挑战假设、鼓励深思熟虑的重新评估) - 需要分解复杂项目? →
planner
(分步规划、项目结构、分解复杂想法) - 需要多个视角? →
consensus
(从多个AI模型获取关于提案和决策的不同专家意见) - 代码需要审查? →
codereview
(查找漏洞、安全和性能问题) - 预提交验证? →
precommit
(在提交前验证git更改) - 有东西坏了? →
debug
(系统调查、逐步分析根本原因) - 想理解代码? →
analyze
(理解架构、模式、依赖关系) - 代码需要重构? →
refactor
(以分解为重点的智能代码重构) - 需要调用流分析? →
tracer
(生成用于执行跟踪和依赖映射的提示) - 需要全面测试? →
testgen
(生成包含边缘情况的测试套件) - 有安全顾虑? →
secaudit
(进行OWASP分析、合规性评估、漏洞评估) - 代码需要文档? →
docgen
(生成包含复杂度分析的全面文档) - 想知道有哪些可用模型? →
listmodels
(显示所有配置的提供商和模型) - 想了解服务器信息? →
version
(显示版本和配置详细信息)
自动模式:当DEFAULT_MODEL=auto
时,Claude会自动为每个任务选择最佳模型。您可以通过以下方式覆盖:"使用flash进行快速分析" 或 "使用o3调试这个问题"。
模型选择示例:
- 复杂架构审查 → Claude选择Gemini Pro
- 快速格式检查 → Claude选择Flash
- 逻辑调试 → Claude选择O3
- 一般解释 → Claude选择Flash以提高速度
- 本地分析 → Claude选择您的Ollama模型
专业提示:(针对Gemini模型的)思考模式控制深度与令牌成本的平衡。对于快速任务,使用 "minimal" 或 "low";对于复杂问题,使用 "high" 或 "max"。了解更多
工具概述:
chat
- 协作思考和开发对话thinkdeep
- 扩展推理和问题解决challenge
- 批判性挑战提示,防止 您绝对正确!planner
- 用于复杂项目的交互式顺序规划consensus
- 具有立场引导的多模型共识分析codereview
- 具有严重程度级别的专业代码审查precommit
- 在提交前验证git更改debug
- 系统调查和调试analyze
- 通用文件和代码分析refactor
- 以分解为重点的代码重构tracer
- 用于调用流映射的静态代码分析提示生成器testgen
- 包含边缘情况覆盖的全面测试生成secaudit
- 包含OWASP Top 10分析的全面安全审计docgen
- 包含复杂度分析的全面文档生成listmodels
- 按提供商组织显示所有可用AI模型version
- 获取服务器版本和配置
1. chat
- 通用开发聊天与协作思考
它是您进行头脑风暴、获取第二意见和验证方法的思考伙伴。非常适合技术比较、架构讨论和协作解决问题。
与zen讨论我React应用中用户认证的最佳方法
📖 阅读更多 - 详细特性、示例和最佳实践
2. thinkdeep
- 扩展推理伙伴
获取第二意见以增强Claude自身的深度思考能力。使用专门的思考模型挑战假设、识别边缘情况并提供替代视角。
按钮点击时不会动画,似乎有其他东西拦截了点击。收集相关代码并将文件交给Gemini Pro后,使用thinkdeep找出根本原因
📖 阅读更多 - 增强的分析能力和批判性评估过程
3. challenge
- 批判性挑战提示
鼓励对陈述进行深思熟虑的重新评估,而不是自动同意,特别是当您犯错时。 它会在您的输入周围添加批判性思考和诚实分析的指令。
challenge 不将这个函数添加到基类中是不是个坏主意?
通常,您喜欢的编码代理会热情地回复 “您绝对正确!” —— 然后完全颠倒 正确 的策略,却从不解释您为什么错了。
示例:无Zen与有Zen对比
无Zen时:
有Zen时:
📖 阅读更多 - 自信地挑战方法或验证想法
4. planner
- 交互式分步规划
通过逐步思考将复杂项目或想法分解为可管理的结构化计划。非常适合向现有系统添加新功能、扩展系统设计、迁移策略和具有分支和修订功能的架构规划。
专业提示
Claude支持子任务
,它会生成并运行单独的后台任务。您可以要求Claude使用Zen的planner处理两个不同的想法。完成后,使用Zen的consensus
工具传递整个计划,并从两个强大的AI模型获取专家意见,以确定首先处理哪个想法!就像一次性进行 AB 测试而无需等待!
创建两个单独的子任务:一个使用planner工具展示如何为我的烹饪应用添加自然语言支持;另一个子任务使用planner规划如何为我的烹饪应用添加语音笔记支持。完成后,通过与o3和flash共享两个计划启动共识,以确定我首先实施哪个。
📖 阅读更多 - 分步规划方法和多会话延续
5. consensus
- 多模型视角收集
从多个AI模型获取关于技术提案和决策的不同专家意见。支持立场引导(支持/反对/中立)和结构化决策制定。
使用flash支持和Gemini Pro反对的立场进行共识评估,以确定为项目添加功能X是否是个好主意。向它们传递其功能摘要。
📖 阅读更多 - 多模型编排和决策分析
6. codereview
- 专业代码审查
进行全面的代码分析,提供优先反馈和严重程度级别。这个工作流工具引导Claude进行系统调查步骤,在每个步骤之间强制暂停,以确保彻底检查代码、识别问题并在提供专家分析之前进行质量评估。
使用Gemini Pro进行代码审查,特别是auth.py,因为我觉得有些代码绕过了安全检查,可能存在更多潜在漏洞。查找并共享相关代码。
提示:
- 为避免额外的API成本,添加
do not use another model
以在本地运行整个代码审查工作流。 - 如果您想 始终 咨询外部模型(建议用于代码审查),无论Claude对识别问题的置信度如何,使用
must codereview using <model name>
。这确保即使Claude对识别的问题 确定,也会咨询该模型。
📖 阅读更多 - 具有分步分析的专业审查工作流
7. precommit
- 预提交验证
对多个代码库中暂存/未暂存的git更改进行全面审查。这个工作流工具引导Claude对git更改、代码库状态和文件修改进行系统调查,在多个步骤后提供专家验证,以确保更改满足要求并防止回归。
使用o3进行全面的预提交检查,我们只想突出关键问题,没有阻碍因素,没有回归。我需要100%确信这涵盖了FIX_ISSUE_ABC.md中列出的所有边缘情况。
实际示例:
- 我要求Claude(sonnet-4)重构一些代码以修复已知的bug;给了它确切的指令
- 修复看起来正确 —— 乍一看,更改也是如此。
- 更重要的是,所有现有的单元测试(540多个单元测试)都顺利通过。没有回归。Claude似乎很自信并急于提交。一切看起来都很完美。
然后我运行了:
运行预提交检查,使用o3确认我们的更改是合理的,差异是有效的。确认这不会导致破损、回归,并且没有代码异味。
这将跟踪和未跟踪的更改/差异以及相关代码通过Zen的precommit
工具传递给o3进行全面审查。
输出:
⏺ 预提交分析结果 - 发现关键问题
O3模型在我们的重构中识别出一个高严重级别的回归和几个中/低级别问题。以下是总结:
🚨 高严重级别 - 提交前必须修复
...
报告的问题实际上是一个非常微妙的bug,在快速检查中被忽略了 —— 显然缺少针对这个确切情况的单元测试(在现有的540多个单元测试中!) - 这解释了为什么没有报告回归。最终修复很简单,但Claude(以及延伸来说,我)忽略了这个问题,这是一个鲜明的提醒:再多的眼睛也不够。修复问题后,再次使用o3运行precommit
,得到:
建议:继续提交
不错!这只是一个例子 - 查看这里的另一个例子。
提示:
- 为避免额外的API成本,添加
do not use another model
以在本地运行整个预提交工作流。在大多数情况下,建议这样做,因为Claude通常在最后能以高置信度识别根本原因。 - 如果您想 始终 咨询外部模型,无论Claude的置信度如何,使用
must precommit using <model name>
。这确保即使Claude对问题 确定,也会咨询该模型。
当有疑问时,您始终可以跟进一个新提示,要求Claude与另一个模型分享其发现:
使用延续功能与thinkdeep一起,与o4-mini分享详细信息,找出这个问题的最佳修复方法。
📖 阅读更多 - 多代码库验证和更改分析
8. debug
- 专家调试助手
进行系统调查引导的调试,引导Claude逐步分析根本原因。这个工作流工具强制执行结构化调查过程,Claude在多个步骤中进行有条理的代码检查、证据收集和假设形成,然后从选定的AI模型获取专家分析。当Claude在调查工作流中达到 100%确定 时,将跳过通过另一个模型进行的专家分析,以节省令牌和成本,Claude将直接进行问题修复。
查看/Users/me/project/diagnostics.log下的日志以及sync文件夹下的相关代码。日志显示同步工作正常,但有时会卡住,并且没有向用户显示错误。使用zen的debug工具与Gemini Pro找出原因和根本原因以及修复方法。
提示:
- 为避免额外的API成本,添加
do not use another model
以在本地运行整个调试工作流。在大多数情况下,建议这样做,因为Claude通常在最后能以高置信度识别根本原因。 - 如果您想 始终 咨询外部模型,无论Claude的置信度如何,使用
must debug using <model name>
。这确保即使Claude对问题 确定,也会咨询该模型。
当有疑问时,您始终可以跟进一个新提示,要求Claude与另一个模型分享其发现:
使用延续功能与thinkdeep一起,与o4-mini分享详细信息,找出这个问题的最佳修复方法。
📖 阅读更多 - 具有工作流强制执行的分步调查方法
9. analyze
- 智能文件分析
进行通用代码理解和探索。这个工作流工具引导Claude对代码结构、模式和架构决策进行系统调查,在多个步骤中收集全面见解,然后提供专家分析,用于架构评估、模式检测和战略改进建议。
使用Gemini分析main.py以了解其工作原理
📖 阅读更多 - 具有分步调查的全面分析工作流
10. refactor
- 智能代码重构
进行全面的重构分析,采用自上而下的分解策略。这个工作流工具对代码异味、分解机会和现代化可能性进行系统调查,在多个步骤中确保彻底分析,然后提供专家重构建议和精确的实施指导。
使用Gemini Pro将my_crazy_big_class.m分解为更小的扩展
📖 阅读更多 - 由工作流驱动的重构与渐进式分析
11. tracer
- 静态代码分析提示生成器
创建用于调用流映射和依赖跟踪的详细分析提示。生成结构化分析请求,用于精确执行流或依赖映射。
使用zen tracer分析UserAuthManager.authenticate的使用方式和原因
📖 阅读更多 - 提示生成和分析模式
12. testgen
- 全面测试生成
根据现有代码和测试框架生成包含边缘情况覆盖的全面测试套件。这个工作流工具引导Claude对代码功能、关键路径、边缘情况和集成点进行系统调查,在多个步骤后生成包含现实失败模式分析的全面测试。
使用zen为User.login()方法生成测试
📖 阅读更多 - 基于工作流的测试生成,具有全面覆盖
13. secaudit
- 全面安全审计
进行基于OWASP的系统安全评估和合规性评估。这个工作流工具引导Claude进行有条不紊的安全调查步骤,在每个步骤之间强制暂停,以确保彻底的漏洞评估、安全模式分析和合规性验证,然后提供专家分析。
使用o3对这个电子商务Web应用进行安全审计,重点关注支付处理安全和PCI DSS合规性
📖 阅读更多 - 包含合规框架支持的OWASP Top 10分析
14. docgen
- 全面文档生成
生成包含复杂度分析和注意事项识别的全面文档。这个工作流工具引导Claude对代码结构、函数复杂度和文档需求进行系统调查,在多个步骤后生成全面文档,包括算法复杂度、调用流信息和开发者应该了解的意外行为。
# 包括复杂度大O表示法,记录依赖关系/代码流,修复现有陈旧文档
使用docgen为UserManager类生成全面文档
# 包括复杂度大O表示法,记录依赖关系/代码流
使用docgen为我添加的所有新Swift函数添加复杂度分析,但不更新现有代码
📖 阅读更多 - 基于工作流的文档生成,带有注意事项检测
15. listmodels
- 列出可用模型
按提供商组织显示所有可用的AI模型,显示其功能、上下文窗口和配置状态。
使用zen列出可用模型
📖 阅读更多 - 模型功能和配置详细信息
16. version
- 服务器信息
获取服务器版本、配置详细信息和系统状态,用于调试和故障排除。
我使用的zen版本是多少
📖 阅读更多 - 服务器诊断和配置验证
有关详细的工具参数和配置选项,请参阅高级用法指南。
提示支持
Zen支持在Claude Code中使用强大的结构化提示,以便快速访问工具和模型:
工具提示
/zen:chat ask local-llama what 2 + 2 is
- 使用聊天工具和自动选择的模型/zen:thinkdeep use o3 and tell me why the code isn't working in sorting.swift
- 使用深度思考工具和自动选择的模型/zen:planner break down the microservices migration project into manageable steps
- 使用规划工具和自动选择的模型/zen:consensus use o3:for and flash:against and tell me if adding feature X is a good idea for the project. Pass them a summary of what it does.
- 使用共识工具和默认配置/zen:codereview review for security module ABC
- 使用代码审查工具和自动选择的模型/zen:debug table view is not scrolling properly, very jittery, I suspect the code is in my_controller.m
- 使用调试工具和自动选择的模型/zen:analyze examine these files and tell me what if I'm using the CoreAudio framework properly
- 使用分析工具和自动选择的模型/zen:docgen generate comprehensive documentation for the UserManager class with complexity analysis
- 使用文档生成工具和自动选择的模型
延续提示
/zen:chat continue and ask gemini pro if framework B is better
- 继续上一次对话,使用聊天工具
高级示例
/zen:thinkdeeper check if the algorithm in @sort.py is performant and if there are alternatives we could explore
/zen:planner create a step-by-step plan for migrating our authentication system to OAuth2, including dependencies and rollback strategies
/zen:consensus debate whether we should migrate to GraphQL for our API
/zen:precommit confirm these changes match our requirements in COOL_FEATURE.md
/zen:testgen write me tests for class ABC
/zen:docgen document the payment processing module with gotchas and complexity analysis
/zen:refactor propose a decomposition strategy, make a plan and save it in FIXES.md
语法格式
提示格式为:/zen:[tool] [your_message]
[tool]
- 任何可用的工具名称(chat、thinkdeep、planner、consensus、codereview、debug、analyze、docgen等)[your_message]
- 您的请求、问题或工具指令
注意:所有提示在Claude Code中都会显示为 "(MCP) [tool]",以表明它们由MCP服务器提供。
高级特性
AI间对话线程
这个服务器实现了Claude和多个AI模型之间的 真正AI协作,它们可以跨工具和对话进行协调和基于彼此的见解进行构建。
📖 阅读更多 - 多模型协调、对话线程和协作工作流
配置
通过.env
文件中的环境变量配置Zen MCP Server。支持多个AI提供商、模型限制、对话设置和高级选项。
# 快速开始 - 自动模式(推荐)
DEFAULT_MODEL=auto
GEMINI_API_KEY=your-gemini-key
OPENAI_API_KEY=your-openai-key
DIAL_API_KEY=your-dial-key # 可选:通过DIAL访问多个模型
关键配置选项:
- API密钥:原生API(Gemini、OpenAI、X.AI)、OpenRouter、DIAL或自定义端点(Ollama、vLLM)
- 模型选择:自动模式或特定模型默认值
- 使用限制:控制可使用的模型以控制成本
- 对话设置:超时、轮次限制、内存配置
- 思考模式:用于扩展推理的令牌分配
- 日志记录:调试级别和操作可见性
📖 阅读更多 - 完整配置参考和示例
测试
有关运行测试的信息,请参阅测试指南。
贡献
我们欢迎贡献!请参阅我们的全面指南:
📄 许可证
本项目采用Apache 2.0许可证 - 详情请参阅LICENSE文件。
致谢
借助 多模型AI 协作的力量构建 🤝
- 真正人类的 实际智能
- MCP(模型上下文协议),由Anthropic提供
- Claude Code - 您的AI编码助手和编排器
- Gemini 2.5 Pro & 2.0 Flash - 深度思考和快速分析
- OpenAI O3 - 强大推理和通用智能
星标历史













