Zen MCPサーバーとは?
Zen MCPサーバーは、Model Context Protocol (MCP) に基づく開発ツールです。これは、Claude、Gemini、OpenAIなどの複数のAIモデルを統一された開発環境に統合します。ユーザーは簡単な指令でこれらのAIを協調させ、コードレビュー、デバッグ、ドキュメント生成などのタスクを完了させることができます。Zen MCPサーバーの使い方は?
コマンドラインまたはIDEで特定の指令(例:`/zen:chat`または`/zen:codereview`)を入力することで、Zen MCPサーバーのさまざまな機能モジュールを呼び出すことができます。サーバーはあなたの要求に応じて適切なAIモデルを選択し、詳細なフィードバックと提案を提供します。適用シーン
コード分析、デバッグ、テスト、ドキュメント生成のために多モデル協調が必要な開発シーンに適しています。特に複雑なプロジェクトでのチーム協調と自動化開発フローに最適です。主な機能
利点と制限
使い方
使用例
よくある質問
関連リソース
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "your_api_key_here"
}
}
}
}
## 🚀 Zen MCP: 多数のワークフロー、1つのコンテキスト
[zen_web.webm](https://github.com/user-attachments/assets/851e3911-7f06-47c0-a4ab-a2601236697c)
<div align="center">
<b>🤖 <a href="https://www.anthropic.com/claude-code">Claude</a> または <a href="https://github.com/google-gemini/gemini-cli">Gemini CLI</a> + [Gemini / OpenAI / Grok / OpenRouter / DIAL / Ollama / 任意のモデル] = 究極のAI開発チーム</b>
</div>
<br/>
このサーバーは、あなたのお気に入りのコーディングエージェント([Claude](https://www.anthropic.com/claude-code) または [Gemini CLI](https://github.com/google-gemini/gemini-cli))に最適な開発パートナーです。Model Context Protocolサーバーを介して、複数のAIモデルにアクセスでき、コード分析、問題解決、共同開発を強化することができます。
**ワークフローをまたいで継続する会話による真のAIオーケストレーション** - Claudeに複雑なワークフローを与えると、自動的にモデル間をオーケストレーションします。Claudeが制御を維持し、実際の作業を行いますが、各サブタスクに最適なAIからの視点を得ます。[`planner`](#3-planner---インタラクティブなステップバイステップの計画) で複雑なプロジェクトを分解し、[`analyze`](#8-analyze---スマートなファイル分析) でコードベースを理解し、[`codereview`](#5-codereview---プロフェッショナルなコードレビュー) で監査を行い、[`refactor`](#9-refactor---インテリジェントなコードリファクタリング) でコード構造を改善し、[`debug`](#7-debug---エキスパートなデバッグアシスタント) で複雑な問題を解決し、[`precommit`](#6-precommit---コミット前の検証) で変更を検証することができます。Claudeは会話の途中で異なるツールとモデルを切り替えることができ、コンテキストはシームレスに引き継がれます。
**例のワークフロー - Claude Code:**
1. `gemini proとo3を使用してコードレビューを行い、plannerを使用して詳細な計画を作成し、修正を実装し、最後に前回のコードレビューから続けてコミット前のチェックを行う`
2. これにより、[`codereview`](#5-codereview---プロフェッショナルなコードレビュー) ワークフローがトリガーされ、Claudeがコードを調べ、あらゆる種類の問題を探します
3. 複数回のパスの後、関連するコードを収集し、途中で問題をメモします
4. `探索中`、`低`、`中`、`高`、`確実` の間で `信頼度` レベルを維持し、問題を見つけて識別できる確信度を追跡します
5. 重大な問題から軽微な問題までの詳細なリストを生成します
6. 関連するファイル、調査結果などを **Gemini Pro** と共有し、2回目の [`codereview`](#5-codereview---プロフェッショナルなコードレビュー) を行います
7. 応答を返し、次にo3で同じことを行い、新しい発見があればプロンプトに追加します
8. 完了すると、Claudeはすべてのフィードバックを取り込み、重大な問題から軽微な問題までの単一のリストを結合します。最終的なリストには、Claudeが誤解したり見落としたりした場合の新しい発見や修正が含まれ、他のモデルの1つがこれを指摘した場合も含まれます
9. 次に、必要に応じて大規模なリファクタリングが必要な場合は、[`planner`](#3-planner---インタラクティブなステップバイステップの計画) ワークフローを使用して作業をより簡単なステップに分解します
10. その後、Claudeが強調表示された問題を修正する実際の作業を行います
11. 完了すると、ClaudeはGemini Proに戻り、[`precommit`](#6-precommit---コミット前の検証) レビューを行います
すべてが1つの会話スレッド内で行われます!ステップ11のGemini Proは、ステップ7のO3によって推奨されたことを「知っています」。そのコンテキストとレビューを考慮して、最終的なコミット前のレビューを支援します。
**これをClaude CodeのためのClaude Codeと考えてください。** このMCPは魔法ではありません。ただの **スーパーグルー** です。
> **覚えておいてください:** Claudeが完全な制御を維持しますが、**あなた** が判断を下します。
> Zenは、必要なときにのみClaudeに他のモデルを関与させ、意味のあるやり取りを続けるように設計されています。
> **あなた** が、Gemini、Flash、O3をClaudeに呼び寄せるか、単独で行動させるかを決める強力なプロンプトを作成する人です。
> あなたはガイド、プロンプター、操り人形の人形遣いです。
> ### あなたこそがAI - **本当に賢い** 存在です。
これらのAIモデルは [おしゃべりになると明らかに賢くない →](docs/ai_banter.md)
## 🚀 クイックスタート
### 前提条件
- Python 3.10以上 (3.12推奨)
- Git
- **Windowsユーザー**: Claude Code CLIを使用するにはWSL2が必要です
### 1. APIキーを取得する (少なくとも1つ必要)
**オプションA: OpenRouter (1つのAPIで複数のモデルにアクセス)**
- **OpenRouter**: [OpenRouter](https://openrouter.ai/) にアクセスし、1つのAPIで複数のモデルにアクセスします。[セットアップガイド](docs/custom_models.md)
- OpenRouterダッシュボードで直接モデルアクセスと支出制限を管理できます
- [`conf/custom_models.json`](conf/custom_models.json) でモデルエイリアスを設定します
**オプションB: ネイティブAPI**
- **Gemini**: [Google AI Studio](https://makersuite.google.com/app/apikey) にアクセスし、APIキーを生成します。Gemini 2.5 Proで最適な結果を得るには、無料枠では最新のモデルへのアクセスが制限されているため、有料のAPIキーを使用してください。
- **OpenAI**: [OpenAI Platform](https://platform.openai.com/api-keys) にアクセスし、O3モデルにアクセスするためのAPIキーを取得します。
- **X.AI**: [X.AI Console](https://console.x.ai/) にアクセスし、GROKモデルにアクセスするためのAPIキーを取得します。
- **DIAL**: [DIAL Platform](https://dialx.ai/) にアクセスし、統一APIを介して複数のモデルにアクセスするためのAPIキーを取得します。DIALは、主要なプロバイダー、オープンソースコミュニティ、および自己ホスト型デプロイメントからのモデルにベンダーに依存しないアクセスを提供するオープンソースのAIオーケストレーションプラットフォームです。[APIドキュメント](https://dialx.ai/dial_api)
**オプションC: カスタムAPIエンドポイント (Ollama、vLLMなどのローカルモデル)**
[セットアップガイドを参照してください](docs/custom_models.md#option-2-custom-api-setup-ollama-vllm-etc)。カスタムAPIを使用すると、以下のことができます。
- **Ollama**: Llama 3.2などのモデルをローカルで無料で推論できます
- **vLLM**: 高スループットの推論用の自己ホスト型推論サーバー
- **LM Studio**: OpenAI互換のAPIインターフェースを持つローカルモデルホスティング
- **Text Generation WebUI**: モデルを実行するための人気のあるローカルインターフェース
- **任意のOpenAI互換API**: 独自のインフラストラクチャ用のカスタムエンドポイント
> **注意:** 複数のプロバイダーオプションを使用すると、モデル名が重複する場合に、どのプロバイダー/モデルを使用するかが不明確になる可能性があります。
> すべてのAPIが構成されている場合、`gemini` や `o3` などのモデル名が衝突するときは、ネイティブAPIが優先されます。
> [`conf/custom_models.json`](conf/custom_models.json) でモデルエイリアスを構成し、一意の名前を付けてください
### 2. インストール方法を選択する
**オプションA: uvxを使用したクイックインストール**
**前提条件**: まず [uv](https://docs.astral.sh/uv/getting-started/installation/) をインストールします (uvxに必要)
<details>
<summary>Claudeデスクトップの設定</summary>
`claude_desktop_config.json` に以下を追加します:
```json
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "あなたのAPIキーをここに入力"
}
}
}
}
Claude Code CLIの設定
プロジェクトルートに .mcp.json
ファイルを作成し、プロジェクトスコープの設定 を行います:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "あなたのAPIキーをここに入力"
}
}
}
}
Gemini CLIの設定
~/.gemini/settings.json
を編集し、以下を追加します:
{
"mcpServers": {
"zen": {
"command": "sh",
"args": [
"-c",
"exec $(which uvx || echo uvx) --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server"
],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENAI_API_KEY": "あなたのAPIキーをここに入力"
}
}
}
}
注意: Zen MCPサーバーはGemini CLIに正常に接続できますが、ツールの呼び出しはまだ正しく動作しません。設定については Gemini CLIセットアップ を参照してください。
これによって行われること:
- ゼロセットアップ - uvxがすべてを自動的に処理します
- 常に最新版 - 実行するたびに最新バージョンを取得します
- ローカル依存関係不要 - Python環境のセットアップなしで動作します
- 即座に使用可能 - すぐに使用できます
オプションB: 従来のクローンとセットアップ
# 好きな場所にクローンします
git clone https://github.com/BeehiveInnovations/zen-mcp-server.git
cd zen-mcp-server
# 1コマンドでセットアップし、ClaudeにZenをインストールします
./run-server.sh
# または、WindowsユーザーがPowerShellを使用する場合:
./run-server.ps1
# ClaudeのMCP構成を表示するには
./run-server.sh -c
# PowerShell:
./run-server.ps1 -Config
# 詳細はヘルプを参照してください
./run-server.sh --help
# PowerShell:
./run-server.ps1 -Help
これによって行われること:
- すべてを自動的にセットアップ - Python環境、依存関係、構成
- Claudeの統合を構成 - Claude Code CLIに追加し、デスクトップのセットアップをガイドします
- 即座に使用可能 - 手動での構成は必要ありません
- Gemini CLIでも動作 - 設定については Gemini CLIセットアップ を参照してください
更新後: git pull
の後は常に ./run-server.sh
を再度実行し、すべてが最新の状態に保たれるようにしてください。
Windowsユーザー: WSLを使用している場合は、詳細な手順について WSLセットアップガイド を参照してください。
3. APIキーを追加する
# .envを編集してAPIキーを追加します (環境変数に設定されていない場合)
nano .env
# ファイルには、少なくとも1つが設定されている必要があります:
# GEMINI_API_KEY=あなたのGemini APIキー # Geminiモデル用
# OPENAI_API_KEY=あなたのOpenAI APIキー # O3モデル用
# OPENROUTER_API_KEY=あなたのOpenRouterキー # OpenRouter用 (docs/custom_models.mdを参照)
# DIAL_API_KEY=あなたのDIAL APIキー # DIALプラットフォーム用
# DIALの場合 (オプションの構成):
# DIAL_API_HOST=https://core.dialx.ai # デフォルトのDIALホスト (オプション)
# DIAL_API_VERSION=2024-12-01-preview # APIバージョン (オプション)
# DIAL_ALLOWED_MODELS=o3,gemini-2.5-pro # 特定のモデルに制限する (オプション)
# ローカルモデル (Ollama、vLLMなど) の場合:
# CUSTOM_API_URL=http://localhost:11434/v1 # Ollamaの例
# CUSTOM_API_KEY= # Ollamaの場合は空
# CUSTOM_MODEL_NAME=llama3.2 # デフォルトのモデル
# 注意: 少なくとも1つのAPIキーまたはカスタムURLが必要です
再起動不要: Claudeがツールを呼び出すたびにサーバーが.envファイルを読み取るため、変更はすぐに反映されます。
次のステップ: プロジェクトフォルダからターミナルで claude
を実行し、新しく追加されたmcpサーバーに接続します。
すでに claude
コードセッションを実行している場合は、一度終了してから新しいセッションを開始してください。
Claudeデスクトップ用に設定する場合
正確な構成が必要ですか? ./run-server.sh -c
を実行し、正しいパスを含むプラットフォーム固有のセットアップ手順を表示します。
- Claudeデスクトップの設定を開きます: 設定 → 開発者 → 構成を編集
./run-server.sh -c
で表示された構成をclaude_desktop_config.json
にコピーします- Claudeデスクトップを再起動し、変更を反映させます
4. 使用を開始しましょう!
Claudeに自然に尋ねるだけです:
- "zenでこのアーキテクチャ設計について深く考えて" → Claudeが最適なモデル +
thinkdeep
を選択します - "zenを使用してこのコードのセキュリティ問題についてコードレビューを行って" → ClaudeがGemini Pro +
codereview
を選択するかもしれません - "zenを使ってこのテストが失敗する原因をデバッグして、バグはmy_class.swiftにあるかもしれない" → ClaudeがO3 +
debug
を選択するかもしれません - "zenでこれらのファイルを分析して、データフローを理解して" → Claudeが適切なモデル +
analyze
を選択します - "flashを使ってpolicy.mdに記載された仕様に基づいてこのコードをどのようにフォーマットするか提案して" → 具体的にGemini Flashを使用します
- "これについて深く考え、o3にcheckOrders()関数で見つけたこの論理エラーをデバッグさせて" → 具体的にO3を使用します
- "proとスケーリング戦略についてブレインストーミングして。コードを調べ、好みの戦略を選び、proと議論して2つの最適なアプローチを決定して" → 具体的にGemini Proを使用します
- "local-llamaを使ってこのプロジェクトに欠けている翻訳を追加してローカライズして" → カスタムURLを介してローカルのLlama 3.2を使用します
- "まずlocal-llamaを使って迅速なローカル分析を行い、次にopusを使って徹底的なセキュリティレビューを行って" → 両方のプロバイダーを順番に使用します
✨ 主な機能
ガイド付きワークフロー
開発者中心のプロセスで、系統的な調査を強制し、Claudeが各フェーズでコードを十分に調べることを保証することで、急ぎの分析を防ぎます (debug
, precommit
, refactor
, analyze
, codereview
)。
複数のAI視点
Claudeが異なるモデル間をオーケストレーションし、最適な分析を得ることができます。
自動モデル選択
Claudeが各タスクに最適なモデルを選択するか、あなたが指定することもできます。
シニア開発者パートナー
アイデアを検証し、拡張するためのパートナー (chat
)。
複雑なアーキテクチャ決定に関する第二の意見
Gemini Pro、O3、または カスタムエンドポイントを介した数十の他のモデル の視点をClaudeの思考に加えることができます (thinkdeep
)。
複数の専門家の意見を得る
異なるAIモデルにあなたのアイデアについて議論させることができます (支持するものもあれば、批判するものもあり)、より良い決定を下すのに役立ちます (consensus
)。
プロフェッショナルなコードレビュー
アクション可能なフィードバックと重要度レベルを含む包括的なコード分析 (codereview
)。
コミット前の検証
最適なモデルを使用した深い分析によるコミット前の検証 (precommit
)。
エキスパートなデバッグ
論理的な問題にはO3、アーキテクチャの問題にはGeminiを使用することができます (debug
)。
Claudeの制限を超える拡張コンテキストウィンドウ
Gemini (100万トークン) またはO3 (20万トークン) に分析を委任して、コードベース全体、大規模なデータセット、または包括的なドキュメントを処理することができます。
モデル固有の強み
Gemini Proでの拡張思考、Flashでの高速反復、O3での強力な推論、Ollamaでのローカルプライバシー。
ローカルモデルサポート
Ollama、vLLM、またはLM Studioを介してLlama 3.2などのモデルをローカルで実行し、プライバシーとコストを管理することができます。
動的な協力
モデルは分析の途中でClaudeに追加のコンテキストとフォローアップの返信を要求することができます。
スマートなファイル処理
ディレクトリを自動的に展開し、モデルの容量に基づいてトークン制限を管理します。
ビジョンサポート
画像、図、スクリーンショット、およびビジュアルコンテンツをビジョン対応モデルで分析できます。
MCPのトークン制限を回避する
MCPの25,000トークンの制限を自動的に回避することができます。
セッション間でのコンテキスト復活
Claudeのコンテキストがリセットされた後でも会話を続けることができ、他のモデルが完全な履歴を保持します。
💡 コンテキスト復活のプロヒント
これは非常に強力な機能で、強調しきれません:
この 会話の継続 システムの最も素晴らしい副作用は、Claudeのコンテキストがリセットまたは圧縮された後でも、継続情報がMCPのメモリ内に保持されているため、
o3
との計画について 続けて 議論するように要求することができ、突然Claudeが復活します。なぜなら、O3は何について話していたかを知っており、それをClaudeの理解を再点火するような方法で伝えるからです。これにより、Claudeに長い文書やコードを再取り込みさせたり、別のモデルとの通信を再プロンプトするためにコンテキストを浪費することなく、モデルの応答が議論の周りのより良いコンテキストでClaudeを復活させます。Zenが内部的に管理します。モデルの応答は、自動要約よりもはるかに良いコンテキストでClaudeを復活させます。
📖 この革命的なシステムがどのように機能するかについての完全な技術的な深掘りを読む
このサーバーは、複数のAIモデルをあなたの開発チームとしてオーケストレーションし、Claudeが各タスクに最適なモデルを自動的に選択するか、あなたが異なる強みのために特定のモデルを選択することができます。
使用されたプロンプト:
コードを適切に調べ、これが何をするかを深く考えてから、パフォーマンス最適化の観点から改善の余地があるかどうかを確認し、これについてgeminiとブレインストーミングしてフィードバックを得て、次に`measure`でユニットテストを追加して現在のコードを測定し、最適化を実装して再度測定して改善が見られることを確認し、その後結果を共有してください。調整を行う間は、途中でgeminiに確認してください。
最終的な実装により、選択されたライブラリのJSONパースパフォーマンスが26%向上し、Geminiの分析とClaudeの改良によるターゲット指向の協調的な最適化によって処理時間が短縮されました。
📦 利用可能なツール
これらは単なるツールではありません。Claudeに本物の開発者のように考えさせる方法です。素早く返信するのではなく、これらのワークフローにより、Claudeは一時停止し、コードを掘り下げ、問題を段階的に解決します。
これは、急いで推測するのと、実際にコードを理解する真の第二の目との違いです。試してみて、その違いを感じてください。
ツール選択のクイックガイド
- 思考パートナーが必要な場合 →
chat
(アイデアのブレインストーミング、第二の意見の取得、アプローチの検証) - より深い思考が必要な場合 →
thinkdeep
(拡張された推論、エッジケースの発見) - 「あなたは完全に正しい!」という応答を防ぎたい場合 →
challenge
(仮定に異議を唱え、慎重な再評価を促す) - 複雑なプロジェクトを分解する必要がある場合 →
planner
(段階的な計画、プロジェクト構造、複雑なアイデアの分解) - 複数の視点が必要な場合 →
consensus
(提案や決定に関する多様な専門家の意見を得る) - コードのレビューが必要な場合 →
codereview
(バグ、セキュリティ、パフォーマンスの問題) - コミット前の検証が必要な場合 →
precommit
(コミット前にgitの変更を検証する) - 何かが壊れている場合 →
debug
(系統的な調査、段階的な根本原因分析) - コードを理解したい場合 →
analyze
(アーキテクチャ、パターン、依存関係) - コードのリファクタリングが必要な場合 →
refactor
(分解を重視したインテリジェントなリファクタリング) - 呼び出しフロー分析が必要な場合 →
tracer
(呼び出しフローマッピングと依存関係トレーシングのための分析プロンプトを生成する) - 包括的なテストが必要な場合 →
testgen
(エッジケースをカバーしたテストスイートを生成する) - セキュリティに関する懸念がある場合 →
secaudit
(OWASP分析、コンプライアンス評価、脆弱性評価) - コードのドキュメントが必要な場合 →
docgen
(複雑性分析を含む包括的なドキュメントを生成する) - 利用可能なモデルを確認したい場合 →
listmodels
(プロバイダーごとに整理されたすべての利用可能なAIモデルを表示する) - サーバー情報が必要な場合 →
version
(サーバーのバージョン、構成詳細、システムステータスを取得する)
自動モード
DEFAULT_MODEL=auto
の場合、Claudeは各タスクに最適なモデルを自動的に選択します。以下のように上書きすることもできます。
- "Use flash for quick analysis" (迅速な分析にはFlashを使用する)
- "Use o3 to debug this" (このデバッグにはO3を使用する)
モデル選択の例
- 複雑なアーキテクチャレビュー → ClaudeがGemini Proを選択する
- 迅速なフォーマットチェック → ClaudeがFlashを選択する
- 論理的なデバッグ → ClaudeがO3を選択する
- 一般的な説明 → Claudeが速度のためにFlashを選択する
- ローカル分析 → ClaudeがあなたのOllamaモデルを選択する
プロヒント
Geminiモデルの思考モードにより、深さとトークンコストを制御できます。迅速なタスクには "minimal" または "low" を、複雑な問題には "high" または "max" を使用します。詳細を学ぶ
ツールの概要
chat
- 協調的な思考と開発会話thinkdeep
- 拡張された推論と問題解決challenge
- 批判的なチャレンジプロンプト、「あなたは完全に正しい!」を防ぐplanner
- 複雑なプロジェクトのインタラクティブな逐次計画consensus
- スタンス制御によるマルチモデルのコンセンサス分析codereview
- 重要度レベル付きのプロフェッショナルなコードレビューprecommit
- コミット前にgitの変更を検証するdebug
- 系統的な調査とデバッグanalyze
- 汎用的なファイルとコード分析refactor
- 分解を重視したコードリファクタリングtracer
- 呼び出しフローマッピングのための静的コード分析プロンプト生成器testgen
- エッジケースをカバーした包括的なテスト生成secaudit
- OWASP Top 10分析を含む包括的なセキュリティ監査docgen
- 複雑性分析を含む包括的なドキュメント生成listmodels
- プロバイダーごとに整理されたすべての利用可能なAIモデルを表示するversion
- サーバーのバージョン、構成詳細、システムステータスを取得する
1. chat
- 一般的な開発チャットと協調的な思考
アイデアのブレインストーミング、第二の意見の取得、アプローチの検証のための思考パートナーです。テクノロジーの比較、アーキテクチャの議論、協調的な問題解決に最適です。
zenとチャットして、私のReactアプリでのユーザー認証の最適なアプローチについて話しましょう
📖 詳細を読む - 詳細な機能、例、およびベストプラクティス
2. thinkdeep
- 拡張された推論パートナー
Claude自身の拡張された思考を補完するための第二の意見を得ます。特殊な思考モデルを使用して、仮定に異議を唱え、エッジケースを特定し、代替の視点を提供します。
ボタンをクリックしてもアニメーションが起こらないようで、何か他のものがクリックを妨げているようです。関連するコードを収集してファイルを渡した後、gemini proでthinkdeepを使用して根本原因を見つけてください
📖 詳細を読む - 強化された分析機能と批判的な評価プロセス
3. challenge
- 批判的なチャレンジプロンプト
自動的な同意ではなく、特にあなたが間違っているときに、声明の慎重な再評価を促します。 入力を批判的な思考と誠実な分析の指示でラップします。
challenge この関数を基底クラスに追加するのは悪い考えではないですか?
通常、あなたの好きなコーディングエージェントは熱心に 「あなたは完全に正しい!」 と返信し、その後 正しい 戦略を完全に逆転させ、あなたが間違っている理由を説明することなく進みます。
例: ZenなしとZenあり
Zenなし:
Zenあり:
📖 詳細を読む - アプローチに異議を唱えるか、アイデアを自信を持って検証する
4. planner
- インタラクティブなステップバイステップの計画
複雑なプロジェクトやアイデアを段階的な思考によって管理可能な構造化された計画に分解します。既存のシステムに新しい機能を追加する、システム設計を拡張する、移行戦略、および分岐と修正機能を持つアーキテクチャ計画に最適です。
プロヒント
Claudeは サブタスク
をサポートしており、別のバックグラウンドタスクを生成して実行します。ClaudeにZenのplannerを2つの別々のアイデアで実行するように依頼することができます。その後、完了したら、Zenの consensus
ツールを使用して、全体の計画を渡し、2つの強力なAIモデルからの専門家の視点を得て、最初に取り組むべきものを決定することができます。まるで一度に AB テストを行うかのように、待つことなくできます。
2つの別々のサブタスクを作成してください。1つは、plannerツールを使用して私の料理アプリに自然言語サポートを追加する方法を示してください。もう1つのサブタスクでは、plannerを使用して料理アプリに音声ノートのサポートを追加する計画を立ててください。完了したら、両方の計画をo3とflashに共有してコンセンサスを開始し、私が最初に実装すべきものを最終的な判断を下してください。
📖 詳細を読む - 段階的な計画方法論とマルチセッションの継続
5. consensus
- マルチモデルの視点収集
技術的な提案や決定に関する多様な専門家の意見を複数のAIモデルから得ます。スタンス制御 (支持/反対/中立) と構造化された意思決定をサポートします。
flashが支持的なスタンスをとり、gemini proが批判的なスタンスをとるコンセンサスを取得して、プロジェクトに機能Xを追加することが良いアイデアかどうかを評価してください。それが何をするかの概要を渡してください。
📖 詳細を読む - マルチモデルのオーケストレーションと意思決定分析
6. codereview
- プロフェッショナルなコードレビュー
優先順位付けされたフィードバックと重要度レベルを含む包括的なコード分析です。このワークフローツールは、Claudeが系統的な調査手順を踏むようにガイドし、各ステップの間に強制的な一時停止を行い、コードの十分な検査、問題の特定、および品質評価を行ってから、専門家の分析を提供します。
gemini proでコードレビューを行って、特にauth.pyについて、一部のコードがセキュリティチェックを回避していると感じるので、潜在的な脆弱性があるかもしれません。関連するコードを見つけて共有してください。
ヒント:
- 余分なAPIコストを避けるために、
do not use another model
を追加して、コードレビューワークフロー全体をローカルで実行することができます。 - Claudeが問題を特定する自信レベルに関係なく、常に外部モデルに相談したい場合 (コードレビューにおすすめ)、
must codereview using <model name>
を使用してください。これにより、Claudeが特定した問題について 確信 している場合でも、モデルに相談されます。
📖 詳細を読む - 段階的な分析を含むプロフェッショナルなレビューワークフロー
7. precommit
- コミット前の検証
複数のリポジトリにまたがるステージング/非ステージングされたgitの変更の包括的なレビューです。このワークフローツールは、Claudeがgitの変更、リポジトリの状態、およびファイルの変更を系統的に調査するようにガイドし、複数のステップを踏んでから、専門家の検証を提供して、変更が要件を満たし、回帰を防ぐことを保証します。
o3で徹底的なコミット前の検証を行って、重大な問題のみを強調表示し、ブロッカーや回帰はないようにします。FIX_ISSUE_ABC.mdに記載されたすべてのエッジケースをカバーしていることを100%確信してください。
実際の例:
- 私はclaude (sonnet-4) に既知のバグを修正するためにコードをリファクタリングするように依頼し、正確な指示を与えました。
- 修正は正しく見えました — 一見すると、変更も正しく見えました。
- さらに重要なことに、すべての既存のユニットテスト (540以上のユニットテスト) が問題なく通過しました。回帰はゼロです。Claudeは自信を持ってコミットしようとしていました。すべてが完璧に見えました。
その後、私は次のコマンドを実行しました。
o3でコミット前の検証を実行して、私たちの変更が健全で、差分が有効であることを確認してください。これが破損や回帰を引き起こさないこと、およびコードの臭いがないことを確認してください。
これにより、追跡された変更と追跡されていない変更/差分および関連するコードが、Zenの precommit
ツールを介してo3に渡され、徹底的なレビューが行われました。
出力:
⏺ コミット前の分析結果 - 重大な問題が見つかりました
O3モデルが、私たちのリファクタリングにおいて1つの高レベルの回帰といくつかの中/低レベルの問題を特定しました。以下は概要です。
🚨 高レベル - コミット前に修正する必要があります
...
報告された問題は、実際には非常に微妙なバグであり、一見しては見逃されていました — そして、この正確なケースのユニットテストが欠けていたようです (既存の540のテストの中には) — これが回帰が報告されなかった理由を説明しています。最終的に修正は簡単でしたが、Claude (そして結果的に私) がこれを見落としたことは、目の数が多くても十分ではないことを痛感させるものでした。問題を修正し、再度o3で precommit
を実行したところ、次のような結果が得られました。
推奨事項: コミットを続行してください
素晴らしい!これはただの一例です。こちらに別の例があります を見てみてください。
ヒント:
- 余分なAPIコストを避けるために、
do not use another model
を追加して、コミット前の検証ワークフロー全体をローカルで実行することができます。これはほとんどの場合推奨されます。Claudeは通常、最後まで高い確信度で根本原因を特定します。 - Claudeの自信レベルに関係なく、常に外部モデルに相談したい場合、
must precommit using <model name>
を使用してください。これにより、Claudeが問題について 確信 している場合でも、モデルに相談されます。
迷った場合は、常に新しいプロンプトでフォローアップし、Claudeに別のモデルとその調査結果を共有するように依頼することができます。
thinkdeepで続きを行い、詳細をo4-miniに共有して、これに対する最適な修正方法を見つけてください。
📖 詳細を読む - ワークフローを強制する段階的な調査方法論
8. debug
- エキスパートなデバッグアシスタント
系統的な調査によるデバッグで、Claudeを段階的な根本原因分析に導きます。このワークフローツールは、Claudeがコードを系統的に調査し、証拠を収集し、仮説を形成する構造化された調査プロセスを強制し、選択されたAIモデルからの専門家の分析を受ける前に複数のステップを踏みます。Claudeの自信が調査ワークフロー中に 100%確信 に達すると、トークンとコストを節約するために、別のモデルによる専門家の分析はスキップされ、Claudeは直接問題を修正します。
/Users/me/project/diagnostics.logのログとsyncフォルダ内の関連するコードを確認してください。ログによると、同期は機能しているが、時々停止し、ユーザーにエラーが表示されないようです。zenのdebugツールをgemini proと共に使用して、これが起こる原因と根本原因を見つけ、その修正方法を教えてください。
ヒント:
- 余分なAPIコストを避けるために、
do not use another model
を追加して、デバッグワークフロー全体をローカルで実行することができます。これはほとんどの場合推奨されます。Claudeは通常、最後まで高い確信度で根本原因を特定します。 - Claudeの自信レベルに関係なく、常に外部モデルに相談したい場合、
must debug using <model name>
を使用してください。これにより、Claudeが問題について 確信 している場合でも、モデルに相談されます。
迷った場合は、常に新しいプロンプトでフォローアップし、Claudeに別のモデルとその調査結果を共有するように依頼することができます。
thinkdeepで続きを行い、詳細をo4-miniに共有して、これに対する最適な修正方法を見つけてください。
📖 詳細を読む - ワークフローを強制する段階的な調査方法論
9. analyze
- スマートなファイル分析
汎用的なコード理解と探索です。このワークフローツールは、Claudeがコードの構造、パターン、およびアーキテクチャの決定を系統的に調査するようにガイドし、複数のステップを踏んで包括的な洞察を収集してから、アーキテクチャ評価、パターン検出、および戦略的な改善提案のための専門家の分析を提供します。
geminiを使用してmain.pyを分析し、その動作を理解してください。
📖 詳細を読む - 段階的な調査を含む包括的な分析ワークフロー
10. refactor
- インテリジェントなコードリファクタリング
トップダウンの分解戦略による包括的なリファクタリング分析です。このワークフローツールは、コードの臭い、分解の機会、および近代化の可能性を系統的に調査するようにClaudeをガイドし、複数のステップを踏んで十分な分析を行ってから、正確な実装ガイダンスを含む専門家のリファクタリング提案を提供します。
gemini proを使用してmy_crazy_big_class.mをより小さい拡張に分解してください。
📖 詳細を読む - 段階的な分析を含むワークフロー駆動型のリファクタリング
11. tracer
- 静的コード分析プロンプト生成器
呼び出しフローマッピングと依存関係トレーシングのための詳細な分析プロンプトを作成します。精密な実行フローまたは依存関係マッピングのための構造化された分析要求を生成します。
zen tracerを使用して、UserAuthManager.authenticateがどのように使用され、なぜ使用されるのかを分析してください。
📖 詳細を読む - プロンプト生成と分析モード
12. testgen
- 包括的なテスト生成
既存のコードとテストフレームワークに基づいて、エッジケースをカバーした徹底的なテストスイートを生成します。このワークフローツールは、Claudeがコードの機能、重要なパス、エッジケース、および統合ポイントを系統的に調査するようにガイドし、複数のステップを踏んでから、現実的な失敗モード分析を含む包括的なテストを生成します。
zenを使用して、User.login()メソッドのテストを生成してください。
📖 詳細を読む - 包括的なカバレッジを持つワークフローベースのテスト生成
13. secaudit
- 包括的なセキュリティ監査
OWASPベースの系統的なセキュリティ評価とコンプライアンス評価です。このワークフローツールは、Claudeがセキュリティを系統的に調査するようにガイドし、各ステップの間に強制的な一時停止を行い、十分な脆弱性評価、セキュリティパターン分析、およびコンプライアンス検証を行ってから、専門家












