什麼是Zen MCP服務器?
Zen MCP 服務器是一個基於Model Context Protocol (MCP) 的開發工具,它將多個AI模型(如Claude、Gemini、OpenAI等)集成到一個統一的開發環境中。用戶可以通過簡單的指令讓這些AI協同工作,完成代碼審查、調試、文檔生成等任務。如何使用Zen MCP服務器?
通過在命令行或IDE中輸入特定指令(例如`/zen:chat`或`/zen:codereview`),您可以調用Zen MCP服務器中的不同功能模塊。服務器會根據您的需求選擇合適的AI模型,並提供詳細的反饋和建議。適用場景
適用於需要多模型協作進行代碼分析、調試、測試和文檔生成的開發場景。特別適合複雜項目中的團隊協作和自動化開發流程。主要功能
優勢與侷限性
如何使用
使用案例
常見問題
相關資源
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
🚀 Zen MCP:多工作流,一上下文
Zen MCP是您喜愛的編碼代理(Claude 或 Gemini CLI)的終極開發夥伴,它是一個模型上下文協議服務器,可讓您訪問多個AI模型,以增強代碼分析、解決問題和協同開發的能力。
具備真正的AI編排能力,對話可跨工作流延續 —— 給Claude一個複雜的工作流,讓它自動在各個模型之間進行編排。Claude掌控全局,執行實際工作,但會從最適合每個子任務的AI獲取觀點。藉助諸如planner
(用於分解複雜項目)、analyze
(用於理解代碼庫)、codereview
(用於代碼審核)、refactor
(用於改進代碼結構)、debug
(用於解決複雜問題)和precommit
(用於驗證更改)等工具,Claude可以在一次對話中切換不同的工具和模型,並且上下文能夠無縫延續。
示例工作流 - Claude Code:
使用Gemini Pro和O3進行代碼審查,並使用planner生成詳細計劃,實施修復,最後繼續之前的代碼審查進行預提交檢查
- 這將觸發一個
codereview
工作流,Claude會遍歷代碼,查找各種問題 - 經過多次檢查後,收集相關代碼並記錄沿途發現的問題
- 保持一個
置信度
級別,包括探索中
、低
、中
、高
和確定
,以跟蹤它發現和識別問題的置信程度 - 生成一份從關鍵到次要問題的詳細列表
- 與Gemini Pro共享相關文件、發現等內容,以進行第二次
codereview
的深入研究 - 收到回覆後,對O3進行同樣的操作,如果有新發現則添加到提示中
- 完成後,Claude收集所有反饋並合併成一份從關鍵到次要問題的單一列表,包括代碼中的良好模式。如果Claude誤解或遺漏了關鍵內容,而其他模型指出了這一點,最終列表將包含新發現或修訂內容
- 如果需要進行重大重構,它將使用
planner
工作流將工作分解為更簡單的步驟 - 然後Claude執行修復突出問題的實際工作
- 完成後,Claude返回Gemini Pro進行
precommit
審查
所有這些都在一個對話線程中完成!第11步中的Gemini Pro知道
第7步中O3的建議!它會考慮該上下文和審查結果,以協助進行最終的預提交審查。
可以將其視為Claude Code的增強版。這個MCP並非魔法,它只是一種強大的粘合劑。
請記住: Claude始終完全掌控,但您才是決策者。 Zen的設計初衷是讓Claude僅在需要時調用其他模型,並進行有意義的來回交互。 您是那個精心設計強大提示的人,讓Claude引入Gemini、Flash、O3 —— 或者獨自完成任務。 您是引導者、提示者、操控者。
您才是真正智能的AI。
因為這些AI模型 在閒聊時顯然並非如此 →
🚀 快速開始
快速導航
-
入門指南
-
工具參考
-
高級用法
-
設置與支持
為什麼選擇這個服務器?
Claude非常出色,但有時您需要:
- 引導式工作流 - 以開發者為中心的流程,強制進行系統調查,確保Claude在每個階段都徹底檢查代碼,防止倉促分析(
debug
、precommit
、refactor
、analyze
、codereview
) - 多個AI視角 - 讓Claude在不同模型之間進行編排,以獲得最佳分析結果
- 自動模型選擇 - Claude為每個任務選擇合適的模型(或者您可以指定)
- 資深開發者夥伴 來驗證和拓展想法(
chat
) - 複雜架構決策的第二意見 - 藉助Gemini Pro、O3或通過自定義端點使用數十種其他模型的視角來增強Claude的思考能力(
thinkdeep
) - 獲取多個專家意見 - 讓不同的AI模型對您的想法進行辯論(有些支持,有些批判),以幫助您做出更好的決策(
consensus
) - 專業代碼審查 並提供可操作的反饋,覆蓋整個代碼庫(
codereview
) - 預提交驗證 利用最適合的模型進行深入分析(
precommit
) - 專家調試 - O3用於解決邏輯問題,Gemini用於解決架構問題(
debug
) - 超越Claude限制的擴展上下文窗口 - 將整個代碼庫、大型數據集或全面文檔的分析委託給Gemini(100萬個令牌)或O3(20萬個令牌)
- 模型特定優勢 - Gemini Pro用於深度思考,Flash用於快速迭代,O3用於強大推理,Ollama用於本地隱私保護
- 本地模型支持 - 通過Ollama、vLLM或LM Studio在本地運行Llama 3.2等模型,以保護隱私並控制成本
- 動態協作 - 模型可以在分析過程中向Claude請求額外的上下文和後續回覆
- 智能文件處理 - 自動擴展目錄,根據模型容量管理令牌限制
- 視覺支持 - 使用支持視覺的模型分析圖像、圖表、截圖和視覺內容
- 繞過MCP的令牌限制 - 自動解決MCP的25K限制問題
- 跨會話上下文恢復 - 即使Claude的上下文重置,也能繼續對話,其他模型會保留完整歷史記錄
專業提示:上下文恢復
這是一個極其強大的功能,怎麼強調都不為過:
這個
對話延續
系統最驚人的副作用是,即使Claude的上下文重置或壓縮,由於延續信息保存在MCP的內存中,您可以要求它繼續
與o3
討論計劃,它會立即恢復Claude的上下文,因為O3知道之前討論的內容,並會以一種重新激發Claude理解的方式將其傳達回來。所有這些都無需浪費上下文讓Claude再次攝入冗長的文檔或代碼,並重新提示它與另一個模型進行通信。Zen在內部管理這些。模型的響應比自動摘要更能以更好的上下文恢復Claude對討論的理解。
這個服務器將多個AI模型編排成您的開發團隊,Claude會自動為每個任務選擇最佳模型,或者允許您根據不同的優勢選擇特定的模型。
使用的提示:
仔細研究代碼,深入思考其功能,然後查看是否有性能優化的空間,與Gemini就此事進行頭腦風暴以獲取反饋,然後通過首先使用`measure`添加單元測試並測量當前代碼,然後實施優化並再次測量以確保性能得到改善,最後分享結果。在進行調整時,中途與Gemini進行核對。
最終實現使所選庫的JSON解析性能提高了26%,通過Gemini的分析和Claude的優化指導,有針對性地進行協作優化,減少了處理時間。
快速上手(5分鐘)
前提條件
- Python 3.10+(推薦3.12)
- Git
- Windows用戶:Claude Code CLI需要WSL2
1. 獲取API密鑰(至少需要一個)
選項A:OpenRouter(通過一個API訪問多個模型)
- OpenRouter:訪問 OpenRouter 以通過一個API訪問多個模型。設置指南
- 直接在OpenRouter儀表板中控制模型訪問和支出限制
- 在
conf/custom_models.json
中配置模型別名
選項B:原生API
- Gemini:訪問 Google AI Studio 並生成API密鑰。為了在使用Gemini 2.5 Pro時獲得最佳效果,請使用付費API密鑰,因為免費層對最新模型的訪問有限。
- OpenAI:訪問 OpenAI平臺 獲取O3模型的API密鑰。
- X.AI:訪問 X.AI控制檯 獲取GROK模型的API密鑰。
- DIAL:訪問 DIAL平臺 獲取通過其統一API訪問多個模型的API密鑰。DIAL是一個開源的AI編排平臺,提供對主要供應商、開源社區和自託管部署的模型的供應商無關訪問。API文檔
選項C:自定義API端點(本地模型,如Ollama、vLLM) 請參閱設置指南。使用自定義API,您可以:
- Ollama:在本地免費運行Llama 3.2等模型進行推理
- vLLM:自託管推理服務器,用於高吞吐量推理
- LM Studio:具有OpenAI兼容API接口的本地模型託管
- Text Generation WebUI:流行的本地模型運行界面
- 任何OpenAI兼容API:用於您自己基礎設施的自定義端點
注意: 如果使用多個提供商選項,當模型名稱重疊時,可能會產生關於使用哪個提供商或模型的歧義。 如果所有API都已配置,當模型名稱衝突時,如
gemini
和o3
,原生API將優先使用。 在conf/custom_models.json
中配置您的模型別名併為它們指定唯一的名稱
2. 選擇安裝方法
選項A:使用uvx快速安裝
前提條件:首先安裝 uv(uvx需要)
Claude桌面配置
將以下內容添加到您的claude_desktop_config.json
中:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
Claude Code CLI配置
在項目根目錄下創建一個.mcp.json
文件,用於項目範圍配置:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
Gemini CLI配置
編輯~/.gemini/settings.json
並添加:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
注意:雖然Zen MCP Server可以成功連接到Gemini CLI,但工具調用目前還不能正常工作。請參閱Gemini CLI設置以獲取更新信息。
此方法的優點:
- 零設置 - uvx會自動處理一切
- 始終保持最新 - 每次運行時都會拉取最新版本
- 無需本地依賴 - 無需設置Python環境即可工作
- 即時可用 - 立即可以使用
選項B:傳統克隆和設置方法
# 克隆到您喜歡的位置
git clone https://github.com/BeehiveInnovations/zen-mcp-server.git
cd zen-mcp-server
# 一鍵設置,將Zen安裝到Claude中
./run-server.sh
# 或者對於使用PowerShell的Windows用戶:
./run-server.ps1
# 查看Claude的MCP配置
./run-server.sh -c
# PowerShell:
./run-server.ps1 -Config
# 查看更多幫助信息
./run-server.sh --help
# PowerShell:
./run-server.ps1 -Help
此方法的優點:
- 自動設置一切 - Python環境、依賴項、配置
- 配置Claude集成 - 添加到Claude Code CLI並指導桌面設置
- 即時可用 - 無需手動配置
- 也適用於Gemini CLI - 請參閱Gemini CLI設置進行配置
更新後:每次git pull
後,始終再次運行./run-server.sh
以確保一切保持最新。
Windows用戶:如果使用WSL,請參閱WSL設置指南以獲取詳細說明。
3. 添加API密鑰
# 編輯.env文件以添加您的API密鑰(如果尚未在環境中設置)
nano .env
# 文件將包含以下內容,至少應設置一個:
# GEMINI_API_KEY=your-gemini-api-key-here # 用於Gemini模型
# OPENAI_API_KEY=your-openai-api-key-here # 用於O3模型
# OPENROUTER_API_KEY=your-openrouter-key # 用於OpenRouter(請參閱docs/custom_models.md)
# DIAL_API_KEY=your-dial-api-key-here # 用於DIAL平臺
# 對於DIAL(可選配置):
# DIAL_API_HOST=https://core.dialx.ai # 默認DIAL主機(可選)
# DIAL_API_VERSION=2024-12-01-preview # API版本(可選)
# DIAL_ALLOWED_MODELS=o3,gemini-2.5-pro # 限制使用特定模型(可選)
# 對於本地模型(Ollama、vLLM等):
# CUSTOM_API_URL=http://localhost:11434/v1 # Ollama示例
# CUSTOM_API_KEY= # Ollama留空
# CUSTOM_MODEL_NAME=llama3.2 # 默認模型
# 注意:至少需要一個API密鑰或自定義URL
無需重啟:服務器每次Claude調用工具時都會讀取.env文件,因此更改會立即生效。
下一步:現在從項目文件夾的終端運行claude
,使其連接到新添加的mcp服務器。
如果您已經在運行claude
代碼會話,請退出並啟動新會話。
如果為Claude桌面進行設置
需要確切的配置? 運行./run-server.sh -c
以顯示具有正確路徑的特定平臺設置說明。
- 打開Claude桌面配置:設置 → 開發者 → 編輯配置
- 複製
./run-server.sh -c
顯示的配置 到您的claude_desktop_config.json
中 - 重啟Claude桌面 以使更改生效
4. 開始使用!
只需自然地向Claude提問:
- "使用zen深入思考這個架構設計" → Claude選擇最佳模型 +
thinkdeep
- "使用zen對這段代碼進行安全問題的代碼審查" → Claude可能選擇Gemini Pro +
codereview
- "使用zen調試為什麼這個測試失敗,問題可能出在my_class.swift中" → Claude可能選擇O3 +
debug
- "使用zen分析這些文件以瞭解數據流" → Claude選擇合適的模型 +
analyze
- "使用flash根據policy.md中提到的規範建議如何格式化這段代碼" → 專門使用Gemini Flash
- "深入思考這個問題,並讓o3調試我在checkOrders()函數中發現的邏輯錯誤" → 專門使用O3
- "與pro頭腦風暴擴展策略。研究代碼,選擇您喜歡的策略,並與pro辯論以確定兩個最佳方法" → 專門使用Gemini Pro
- "使用local-llama對這個項目進行本地化並添加缺失的翻譯" → 通過自定義URL使用本地Llama 3.2
- "首先使用local-llama進行快速本地分析,然後使用opus進行全面的安全審查" → 按順序使用兩個提供商
✨ 主要特性
可用工具
這些不僅僅是工具,它們是讓Claude像真正的開發者一樣思考的方式。與匆忙回覆表面觀點或淺顯見解不同,這些工作流讓Claude停下來,深入研究您的代碼,並逐步推理解決問題。
這就像匆忙猜測和真正理解您代碼的專注的第二雙眼睛之間的區別。試試這些工具,感受其中的不同。
快速工具選擇指南:
- 需要思考夥伴? →
chat
(頭腦風暴想法、獲取第二意見、驗證方法) - 需要深度思考? →
thinkdeep
(擴展分析、發現邊緣情況) - 想避免“您絕對正確!”的回覆? →
challenge
(挑戰假設、鼓勵深思熟慮的重新評估) - 需要分解複雜項目? →
planner
(分步規劃、項目結構、分解複雜想法) - 需要多個視角? →
consensus
(從多個AI模型獲取關於提案和決策的不同專家意見) - 代碼需要審查? →
codereview
(查找漏洞、安全和性能問題) - 預提交驗證? →
precommit
(在提交前驗證git更改) - 有東西壞了? →
debug
(系統調查、逐步分析根本原因) - 想理解代碼? →
analyze
(理解架構、模式、依賴關係) - 代碼需要重構? →
refactor
(以分解為重點的智能代碼重構) - 需要調用流分析? →
tracer
(生成用於執行跟蹤和依賴映射的提示) - 需要全面測試? →
testgen
(生成包含邊緣情況的測試套件) - 有安全顧慮? →
secaudit
(進行OWASP分析、合規性評估、漏洞評估) - 代碼需要文檔? →
docgen
(生成包含複雜度分析的全面文檔) - 想知道有哪些可用模型? →
listmodels
(顯示所有配置的提供商和模型) - 想了解服務器信息? →
version
(顯示版本和配置詳細信息)
自動模式:當DEFAULT_MODEL=auto
時,Claude會自動為每個任務選擇最佳模型。您可以通過以下方式覆蓋:"使用flash進行快速分析" 或 "使用o3調試這個問題"。
模型選擇示例:
- 複雜架構審查 → Claude選擇Gemini Pro
- 快速格式檢查 → Claude選擇Flash
- 邏輯調試 → Claude選擇O3
- 一般解釋 → Claude選擇Flash以提高速度
- 本地分析 → Claude選擇您的Ollama模型
專業提示:(針對Gemini模型的)思考模式控制深度與令牌成本的平衡。對於快速任務,使用 "minimal" 或 "low";對於複雜問題,使用 "high" 或 "max"。瞭解更多
工具概述:
chat
- 協作思考和開發對話thinkdeep
- 擴展推理和問題解決challenge
- 批判性挑戰提示,防止 您絕對正確!planner
- 用於複雜項目的交互式順序規劃consensus
- 具有立場引導的多模型共識分析codereview
- 具有嚴重程度級別的專業代碼審查precommit
- 在提交前驗證git更改debug
- 系統調查和調試analyze
- 通用文件和代碼分析refactor
- 以分解為重點的代碼重構tracer
- 用於調用流映射的靜態代碼分析提示生成器testgen
- 包含邊緣情況覆蓋的全面測試生成secaudit
- 包含OWASP Top 10分析的全面安全審計docgen
- 包含複雜度分析的全面文檔生成listmodels
- 按提供商組織顯示所有可用AI模型version
- 獲取服務器版本和配置
1. chat
- 通用開發聊天與協作思考
它是您進行頭腦風暴、獲取第二意見和驗證方法的思考夥伴。非常適合技術比較、架構討論和協作解決問題。
與zen討論我React應用中用戶認證的最佳方法
📖 閱讀更多 - 詳細特性、示例和最佳實踐
2. thinkdeep
- 擴展推理夥伴
獲取第二意見以增強Claude自身的深度思考能力。使用專門的思考模型挑戰假設、識別邊緣情況並提供替代視角。
按鈕點擊時不會動畫,似乎有其他東西攔截了點擊。收集相關代碼並將文件交給Gemini Pro後,使用thinkdeep找出根本原因
📖 閱讀更多 - 增強的分析能力和批判性評估過程
3. challenge
- 批判性挑戰提示
鼓勵對陳述進行深思熟慮的重新評估,而不是自動同意,特別是當您犯錯時。 它會在您的輸入周圍添加批判性思考和誠實分析的指令。
challenge 不將這個函數添加到基類中是不是個壞主意?
通常,您喜歡的編碼代理會熱情地回覆 “您絕對正確!” —— 然後完全顛倒 正確 的策略,卻從不解釋您為什麼錯了。
示例:無Zen與有Zen對比
無Zen時:
有Zen時:
📖 閱讀更多 - 自信地挑戰方法或驗證想法
4. planner
- 交互式分步規劃
通過逐步思考將複雜項目或想法分解為可管理的結構化計劃。非常適合向現有系統添加新功能、擴展系統設計、遷移策略和具有分支和修訂功能的架構規劃。
專業提示
Claude支持子任務
,它會生成並運行單獨的後臺任務。您可以要求Claude使用Zen的planner處理兩個不同的想法。完成後,使用Zen的consensus
工具傳遞整個計劃,並從兩個強大的AI模型獲取專家意見,以確定首先處理哪個想法!就像一次性進行 AB 測試而無需等待!
創建兩個單獨的子任務:一個使用planner工具展示如何為我的烹飪應用添加自然語言支持;另一個子任務使用planner規劃如何為我的烹飪應用添加語音筆記支持。完成後,通過與o3和flash共享兩個計劃啟動共識,以確定我首先實施哪個。
📖 閱讀更多 - 分步規劃方法和多會話延續
5. consensus
- 多模型視角收集
從多個AI模型獲取關於技術提案和決策的不同專家意見。支持立場引導(支持/反對/中立)和結構化決策制定。
使用flash支持和Gemini Pro反對的立場進行共識評估,以確定為項目添加功能X是否是個好主意。向它們傳遞其功能摘要。
📖 閱讀更多 - 多模型編排和決策分析
6. codereview
- 專業代碼審查
進行全面的代碼分析,提供優先反饋和嚴重程度級別。這個工作流工具引導Claude進行系統調查步驟,在每個步驟之間強制暫停,以確保徹底檢查代碼、識別問題並在提供專家分析之前進行質量評估。
使用Gemini Pro進行代碼審查,特別是auth.py,因為我覺得有些代碼繞過了安全檢查,可能存在更多潛在漏洞。查找並共享相關代碼。
提示:
- 為避免額外的API成本,添加
do not use another model
以在本地運行整個代碼審查工作流。 - 如果您想 始終 諮詢外部模型(建議用於代碼審查),無論Claude對識別問題的置信度如何,使用
must codereview using <model name>
。這確保即使Claude對識別的問題 確定,也會諮詢該模型。
📖 閱讀更多 - 具有分步分析的專業審查工作流
7. precommit
- 預提交驗證
對多個代碼庫中暫存/未暫存的git更改進行全面審查。這個工作流工具引導Claude對git更改、代碼庫狀態和文件修改進行系統調查,在多個步驟後提供專家驗證,以確保更改滿足要求並防止迴歸。
使用o3進行全面的預提交檢查,我們只想突出關鍵問題,沒有阻礙因素,沒有迴歸。我需要100%確信這涵蓋了FIX_ISSUE_ABC.md中列出的所有邊緣情況。
實際示例:
- 我要求Claude(sonnet-4)重構一些代碼以修復已知的bug;給了它確切的指令
- 修復看起來正確 —— 乍一看,更改也是如此。
- 更重要的是,所有現有的單元測試(540多個單元測試)都順利通過。沒有迴歸。Claude似乎很自信並急於提交。一切看起來都很完美。
然後我運行了:
運行預提交檢查,使用o3確認我們的更改是合理的,差異是有效的。確認這不會導致破損、迴歸,並且沒有代碼異味。
這將跟蹤和未跟蹤的更改/差異以及相關代碼通過Zen的precommit
工具傳遞給o3進行全面審查。
輸出:
⏺ 預提交分析結果 - 發現關鍵問題
O3模型在我們的重構中識別出一個高嚴重級別的迴歸和幾個中/低級別問題。以下是總結:
🚨 高嚴重級別 - 提交前必須修復
...
報告的問題實際上是一個非常微妙的bug,在快速檢查中被忽略了 —— 顯然缺少針對這個確切情況的單元測試(在現有的540多個單元測試中!) - 這解釋了為什麼沒有報告迴歸。最終修復很簡單,但Claude(以及延伸來說,我)忽略了這個問題,這是一個鮮明的提醒:再多的眼睛也不夠。修復問題後,再次使用o3運行precommit
,得到:
建議:繼續提交
不錯!這只是一個例子 - 查看這裡的另一個例子。
提示:
- 為避免額外的API成本,添加
do not use another model
以在本地運行整個預提交工作流。在大多數情況下,建議這樣做,因為Claude通常在最後能以高置信度識別根本原因。 - 如果您想 始終 諮詢外部模型,無論Claude的置信度如何,使用
must precommit using <model name>
。這確保即使Claude對問題 確定,也會諮詢該模型。
當有疑問時,您始終可以跟進一個新提示,要求Claude與另一個模型分享其發現:
使用延續功能與thinkdeep一起,與o4-mini分享詳細信息,找出這個問題的最佳修復方法。
📖 閱讀更多 - 多代碼庫驗證和更改分析
8. debug
- 專家調試助手
進行系統調查引導的調試,引導Claude逐步分析根本原因。這個工作流工具強制執行結構化調查過程,Claude在多個步驟中進行有條理的代碼檢查、證據收集和假設形成,然後從選定的AI模型獲取專家分析。當Claude在調查工作流中達到 100%確定 時,將跳過通過另一個模型進行的專家分析,以節省令牌和成本,Claude將直接進行問題修復。
查看/Users/me/project/diagnostics.log下的日誌以及sync文件夾下的相關代碼。日誌顯示同步工作正常,但有時會卡住,並且沒有向用戶顯示錯誤。使用zen的debug工具與Gemini Pro找出原因和根本原因以及修復方法。
提示:
- 為避免額外的API成本,添加
do not use another model
以在本地運行整個調試工作流。在大多數情況下,建議這樣做,因為Claude通常在最後能以高置信度識別根本原因。 - 如果您想 始終 諮詢外部模型,無論Claude的置信度如何,使用
must debug using <model name>
。這確保即使Claude對問題 確定,也會諮詢該模型。
當有疑問時,您始終可以跟進一個新提示,要求Claude與另一個模型分享其發現:
使用延續功能與thinkdeep一起,與o4-mini分享詳細信息,找出這個問題的最佳修復方法。
📖 閱讀更多 - 具有工作流強制執行的分步調查方法
9. analyze
- 智能文件分析
進行通用代碼理解和探索。這個工作流工具引導Claude對代碼結構、模式和架構決策進行系統調查,在多個步驟中收集全面見解,然後提供專家分析,用於架構評估、模式檢測和戰略改進建議。
使用Gemini分析main.py以瞭解其工作原理
📖 閱讀更多 - 具有分步調查的全面分析工作流
10. refactor
- 智能代碼重構
進行全面的重構分析,採用自上而下的分解策略。這個工作流工具對代碼異味、分解機會和現代化可能性進行系統調查,在多個步驟中確保徹底分析,然後提供專家重構建議和精確的實施指導。
使用Gemini Pro將my_crazy_big_class.m分解為更小的擴展
📖 閱讀更多 - 由工作流驅動的重構與漸進式分析
11. tracer
- 靜態代碼分析提示生成器
創建用於調用流映射和依賴跟蹤的詳細分析提示。生成結構化分析請求,用於精確執行流或依賴映射。
使用zen tracer分析UserAuthManager.authenticate的使用方式和原因
📖 閱讀更多 - 提示生成和分析模式
12. testgen
- 全面測試生成
根據現有代碼和測試框架生成包含邊緣情況覆蓋的全面測試套件。這個工作流工具引導Claude對代碼功能、關鍵路徑、邊緣情況和集成點進行系統調查,在多個步驟後生成包含現實失敗模式分析的全面測試。
使用zen為User.login()方法生成測試
📖 閱讀更多 - 基於工作流的測試生成,具有全面覆蓋
13. secaudit
- 全面安全審計
進行基於OWASP的系統安全評估和合規性評估。這個工作流工具引導Claude進行有條不紊的安全調查步驟,在每個步驟之間強制暫停,以確保徹底的漏洞評估、安全模式分析和合規性驗證,然後提供專家分析。
使用o3對這個電子商務Web應用進行安全審計,重點關注支付處理安全和PCI DSS合規性
📖 閱讀更多 - 包含合規框架支持的OWASP Top 10分析
14. docgen
- 全面文檔生成
生成包含複雜度分析和注意事項識別的全面文檔。這個工作流工具引導Claude對代碼結構、函數複雜度和文檔需求進行系統調查,在多個步驟後生成全面文檔,包括算法複雜度、調用流信息和開發者應該瞭解的意外行為。
# 包括複雜度大O表示法,記錄依賴關係/代碼流,修復現有陳舊文檔
使用docgen為UserManager類生成全面文檔
# 包括複雜度大O表示法,記錄依賴關係/代碼流
使用docgen為我添加的所有新Swift函數添加複雜度分析,但不更新現有代碼
📖 閱讀更多 - 基於工作流的文檔生成,帶有注意事項檢測
15. listmodels
- 列出可用模型
按提供商組織顯示所有可用的AI模型,顯示其功能、上下文窗口和配置狀態。
使用zen列出可用模型
📖 閱讀更多 - 模型功能和配置詳細信息
16. version
- 服務器信息
獲取服務器版本、配置詳細信息和系統狀態,用於調試和故障排除。
我使用的zen版本是多少
📖 閱讀更多 - 服務器診斷和配置驗證
有關詳細的工具參數和配置選項,請參閱高級用法指南。
提示支持
Zen支持在Claude Code中使用強大的結構化提示,以便快速訪問工具和模型:
工具提示
/zen:chat ask local-llama what 2 + 2 is
- 使用聊天工具和自動選擇的模型/zen:thinkdeep use o3 and tell me why the code isn't working in sorting.swift
- 使用深度思考工具和自動選擇的模型/zen:planner break down the microservices migration project into manageable steps
- 使用規劃工具和自動選擇的模型/zen:consensus use o3:for and flash:against and tell me if adding feature X is a good idea for the project. Pass them a summary of what it does.
- 使用共識工具和默認配置/zen:codereview review for security module ABC
- 使用代碼審查工具和自動選擇的模型/zen:debug table view is not scrolling properly, very jittery, I suspect the code is in my_controller.m
- 使用調試工具和自動選擇的模型/zen:analyze examine these files and tell me what if I'm using the CoreAudio framework properly
- 使用分析工具和自動選擇的模型/zen:docgen generate comprehensive documentation for the UserManager class with complexity analysis
- 使用文檔生成工具和自動選擇的模型
延續提示
/zen:chat continue and ask gemini pro if framework B is better
- 繼續上一次對話,使用聊天工具
高級示例
/zen:thinkdeeper check if the algorithm in @sort.py is performant and if there are alternatives we could explore
/zen:planner create a step-by-step plan for migrating our authentication system to OAuth2, including dependencies and rollback strategies
/zen:consensus debate whether we should migrate to GraphQL for our API
/zen:precommit confirm these changes match our requirements in COOL_FEATURE.md
/zen:testgen write me tests for class ABC
/zen:docgen document the payment processing module with gotchas and complexity analysis
/zen:refactor propose a decomposition strategy, make a plan and save it in FIXES.md
語法格式
提示格式為:/zen:[tool] [your_message]
[tool]
- 任何可用的工具名稱(chat、thinkdeep、planner、consensus、codereview、debug、analyze、docgen等)[your_message]
- 您的請求、問題或工具指令
注意:所有提示在Claude Code中都會顯示為 "(MCP) [tool]",以表明它們由MCP服務器提供。
高級特性
AI間對話線程
這個服務器實現了Claude和多個AI模型之間的 真正AI協作,它們可以跨工具和對話進行協調和基於彼此的見解進行構建。
📖 閱讀更多 - 多模型協調、對話線程和協作工作流
配置
通過.env
文件中的環境變量配置Zen MCP Server。支持多個AI提供商、模型限制、對話設置和高級選項。
# 快速開始 - 自動模式(推薦)
DEFAULT_MODEL=auto
GEMINI_API_KEY=your-gemini-key
OPENAI_API_KEY=your-openai-key
DIAL_API_KEY=your-dial-key # 可選:通過DIAL訪問多個模型
關鍵配置選項:
- API密鑰:原生API(Gemini、OpenAI、X.AI)、OpenRouter、DIAL或自定義端點(Ollama、vLLM)
- 模型選擇:自動模式或特定模型默認值
- 使用限制:控制可使用的模型以控制成本
- 對話設置:超時、輪次限制、內存配置
- 思考模式:用於擴展推理的令牌分配
- 日誌記錄:調試級別和操作可見性
📖 閱讀更多 - 完整配置參考和示例
測試
有關運行測試的信息,請參閱測試指南。
貢獻
我們歡迎貢獻!請參閱我們的全面指南:
📄 許可證
本項目採用Apache 2.0許可證 - 詳情請參閱LICENSE文件。
致謝
藉助 多模型AI 協作的力量構建 🤝
- 真正人類的 實際智能
- MCP(模型上下文協議),由Anthropic提供
- Claude Code - 您的AI編碼助手和編排器
- Gemini 2.5 Pro & 2.0 Flash - 深度思考和快速分析
- OpenAI O3 - 強大推理和通用智能
星標歷史












