🚀 W&B MCP 服務器
通過模型上下文協議,使用自然語言查詢和分析你的 Weights & Biases 數據。
🚀 快速開始
我們推薦使用我們託管在 https://mcp.withwandb.com 的服務器,無需安裝!
🔑 從 wandb.ai/authorize 獲取你的 API 密鑰。
Cursor
一鍵安裝
- 打開 Cursor 設置(
⌘, 或 Ctrl,)
- 導航到 功能 → 模型上下文協議
- 點擊 “從註冊表安裝” 或 “添加 MCP 服務器”
- 搜索 “wandb” 或輸入:
- 名稱:
wandb
- URL:
https://mcp.withwandb.com/mcp
- API 密鑰:你的 W&B API 密鑰
如需本地安裝,請參閱下面的 選項 2。
Claude Desktop
配置設置
添加到你的 Claude 配置文件:
open ~/Library/Application\ Support/Claude/claude_desktop_config.json
notepad %APPDATA%\Claude\claude_desktop_config.json
{
"mcpServers": {
"wandb": {
"url": "https://mcp.withwandb.com/mcp",
"apiKey": "YOUR_WANDB_API_KEY"
}
}
}
重啟 Claude Desktop 以激活。
如需本地安裝,請參閱下面的 選項 2。
OpenAI Response API
Python 客戶端設置
from openai import OpenAI
import os
client = OpenAI()
resp = client.responses.create(
model="gpt-4o",
tools=[{
"type": "mcp",
"server_url": "https://mcp.withwandb.com/mcp",
"authorization": os.getenv('WANDB_API_KEY'),
}],
input="How many traces are in my project?"
)
print(resp.output_text)
注意:OpenAI 的 MCP 是服務器端的,因此本地主機 URL 不起作用。對於本地服務器,請結合 ngrok 參閱 選項 2。
Gemini CLI
一鍵命令安裝
export WANDB_API_KEY="your-api-key-here"
gemini extensions install https://github.com/wandb/wandb-mcp-server
該擴展將使用指向託管服務器的 gemini-extension.json 中的配置。
如需本地安裝,請參閱下面的 選項 2。
Mistral LeChat
配置設置
在 LeChat 設置中,添加一個 MCP 服務器:
- URL:
https://mcp.withwandb.com/mcp
- API 密鑰:你的 W&B API 密鑰
如需本地安裝,請參閱下面的 選項 2。
VSCode
設置配置
code ~/.config/Code/User/settings.json
{
"mcp.servers": {
"wandb": {
"url": "https://mcp.withwandb.com/mcp",
"headers": {
"Authorization": "Bearer YOUR_WANDB_API_KEY"
}
}
}
}
如需本地安裝,請參閱下面的 選項 2。
✨ 主要特性
示例用例
示例用例(點擊命令複製)
| 分析實驗 |
調試跟蹤 |
創建報告 |
獲取幫助 |
| 顯示 wandb-smle/hiring-agent-demo-public 中按 eval/accuracy 排名前 5 的運行? |
我的招聘代理預測跟蹤的延遲在過去幾個月裡是如何變化的? |
生成一份比較招聘代理上個月決策的 wandb 報告 |
我如何在 Weave 中創建排行榜 - 詢問支持機器人? |
新的自動聚類工具即將推出:
“查看 grpo-cuda/axolotl-grpo 中我最後一次訓練運行的最後 100 條跟蹤記錄,並告訴我為什麼我的強化學習實驗的滾動跟蹤有時會很差?”
可用工具
可用工具(6 個強大工具)
| 工具 |
描述 |
示例查詢 |
| query_wandb_tool |
查詢 W&B 運行、指標和實驗 |
"顯示損失 < 0.1 的運行" |
| query_weave_traces_tool |
分析大語言模型跟蹤和評估 |
"平均延遲是多少?" |
| count_weave_traces_tool |
統計跟蹤記錄並獲取存儲指標 |
"有多少條跟蹤記錄失敗了?" |
| create_wandb_report_tool |
以編程方式創建 W&B 報告 |
"創建一份性能報告" |
| query_wandb_entity_projects |
列出實體的項目 |
"存在哪些項目?" |
| query_wandb_support_bot |
從 W&B 文檔中獲取幫助 |
"我如何使用掃描?" |
使用提示
使用提示(最佳實踐)
⚠️ 重要提示
確保向大語言模型指定你的 W&B 實體和 W&B 項目名稱,因為大語言模型無法讀取你的想法。
💡 使用建議
- 避免提出過於寬泛的問題,例如 “我的最佳評估是什麼?” 這樣的問題可能過於寬泛,將問題細化為更具體的問題,例如 “哪個評估的 F1 分數最高?” 可以更快地得到答案。
- 當提出寬泛、一般性的問題,如 “我的表現最佳的運行/評估有哪些?” 時,最好要求大語言模型檢查它是否檢索到了所有可用的運行。MCP 工具旨在獲取正確數量的數據,但有時大語言模型可能只檢索最新的運行或最後 N 個運行。
📦 安裝指南
選項 1:託管服務器(推薦)
選項 1:託管服務器(推薦)
託管服務器提供零配置體驗,具有企業級可靠性。該服務器由 W&B 團隊維護,會自動更新新功能,並可擴展以處理任何工作負載。非常適合團隊和生產用例,讓你可以專注於機器學習工作,而不是基礎設施。
使用公共服務器
最簡單的方法是使用我們託管在 https://mcp.withwandb.com 的服務器。
優點:
- ✅ 無需安裝
- ✅ 始終保持最新
- ✅ 自動擴展
- ✅ 無需維護
只需使用 快速開始 中顯示的配置即可。
選項 2:本地開發(STDIO)
選項 2:本地開發(STDIO)
在本地運行 MCP 服務器進行開發、測試,或者當你需要完全控制數據時使用。本地服務器直接在你的機器上運行,桌面客戶端使用 STDIO 傳輸,基於 Web 的客戶端使用 HTTP 傳輸。非常適合想要自定義服務器或在隔離環境中工作的開發人員。
手動配置
添加到你的 MCP 客戶端配置:
{
"mcpServers": {
"wandb": {
"command": "uvx",
"args": [
"--from",
"git+https://github.com/wandb/wandb-mcp-server",
"wandb_mcp_server"
],
"env": {
"WANDB_API_KEY": "YOUR_API_KEY"
}
}
}
}
先決條件
curl -LsSf https://astral.sh/uv/install.sh | sh
安裝
uv pip install wandb-mcp-server
pip install git+https://github.com/wandb/wandb-mcp-server
特定客戶端安裝命令
Cursor(僅項目)
為特定項目啟用服務器:
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path .cursor/mcp.json && uvx wandb login
Cursor(全局)
為所有 Cursor 項目啟用服務器:
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path ~/.cursor/mcp.json && uvx wandb login
Windsurf
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path ~/.codeium/windsurf/mcp_config.json && uvx wandb login
Claude Code
claude mcp add wandb -- uvx --from git+https://github.com/wandb/wandb-mcp-server wandb_mcp_server && uvx wandb login
使用 API 密鑰:
claude mcp add wandb -e WANDB_API_KEY=your-api-key -- uvx --from git+https://github.com/wandb/wandb-mcp-server wandb_mcp_server
Claude Desktop
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path "~/Library/Application Support/Claude/claude_desktop_config.json" && uvx wandb login
使用 ngrok 進行測試(適用於服務器端客戶端)
對於像 OpenAI 和 LeChat 這樣需要公共 URL 的客戶端:
uvx wandb-mcp-server --transport http --port 8080
ngrok http 8080
注意:這些實用工具受 OpenMCP 服務器註冊表 添加到客戶端模式 的啟發。
選項 3:自託管 HTTP 服務器(高級)
選項 3:自託管 HTTP 服務器(高級)
這個公共倉庫專注於 STDIO 傳輸。如果你需要完全託管的 HTTP 部署(Docker、Cloud Run、Hugging Face 等),可以從這個代碼庫開始,並在單獨的倉庫中添加你自己的 HTTP 入口點。W&B 維護的生產級託管服務器現在位於一個基於此倉庫的私有倉庫中。
對於輕量級實驗,你仍然可以直接運行 FastMCP HTTP 傳輸:
uvx wandb_mcp_server --transport http --host 0.0.0.0 --port 8080
客戶端必須繼續按照 MCP 規範通過 Bearer 令牌提供自己的 W&B API 密鑰。
📚 詳細文檔
關鍵資源
示例代碼
完整的 OpenAI 示例
from openai import OpenAI
from dotenv import load_dotenv
import os
load_dotenv()
client = OpenAI()
resp = client.responses.create(
model="gpt-4o",
tools=[
{
"type": "mcp",
"server_label": "wandb",
"server_description": "Query W&B data",
"server_url": "https://mcp.withwandb.com/mcp",
"authorization": os.getenv('WANDB_API_KEY'),
"require_approval": "never",
},
],
input="How many traces are in wandb-smle/hiring-agent-demo-public?",
)
print(resp.output_text)
支持