🚀 W&B MCP 服务器
通过模型上下文协议,使用自然语言查询和分析你的 Weights & Biases 数据。
🚀 快速开始
我们推荐使用我们托管在 https://mcp.withwandb.com 的服务器,无需安装!
🔑 从 wandb.ai/authorize 获取你的 API 密钥。
Cursor
一键安装
- 打开 Cursor 设置(
⌘, 或 Ctrl,)
- 导航到 功能 → 模型上下文协议
- 点击 “从注册表安装” 或 “添加 MCP 服务器”
- 搜索 “wandb” 或输入:
- 名称:
wandb
- URL:
https://mcp.withwandb.com/mcp
- API 密钥:你的 W&B API 密钥
如需本地安装,请参阅下面的 选项 2。
Claude Desktop
配置设置
添加到你的 Claude 配置文件:
open ~/Library/Application\ Support/Claude/claude_desktop_config.json
notepad %APPDATA%\Claude\claude_desktop_config.json
{
"mcpServers": {
"wandb": {
"url": "https://mcp.withwandb.com/mcp",
"apiKey": "YOUR_WANDB_API_KEY"
}
}
}
重启 Claude Desktop 以激活。
如需本地安装,请参阅下面的 选项 2。
OpenAI Response API
Python 客户端设置
from openai import OpenAI
import os
client = OpenAI()
resp = client.responses.create(
model="gpt-4o",
tools=[{
"type": "mcp",
"server_url": "https://mcp.withwandb.com/mcp",
"authorization": os.getenv('WANDB_API_KEY'),
}],
input="How many traces are in my project?"
)
print(resp.output_text)
注意:OpenAI 的 MCP 是服务器端的,因此本地主机 URL 不起作用。对于本地服务器,请结合 ngrok 参阅 选项 2。
Gemini CLI
一键命令安装
export WANDB_API_KEY="your-api-key-here"
gemini extensions install https://github.com/wandb/wandb-mcp-server
该扩展将使用指向托管服务器的 gemini-extension.json 中的配置。
如需本地安装,请参阅下面的 选项 2。
Mistral LeChat
配置设置
在 LeChat 设置中,添加一个 MCP 服务器:
- URL:
https://mcp.withwandb.com/mcp
- API 密钥:你的 W&B API 密钥
如需本地安装,请参阅下面的 选项 2。
VSCode
设置配置
code ~/.config/Code/User/settings.json
{
"mcp.servers": {
"wandb": {
"url": "https://mcp.withwandb.com/mcp",
"headers": {
"Authorization": "Bearer YOUR_WANDB_API_KEY"
}
}
}
}
如需本地安装,请参阅下面的 选项 2。
✨ 主要特性
示例用例
示例用例(点击命令复制)
| 分析实验 |
调试跟踪 |
创建报告 |
获取帮助 |
| 显示 wandb-smle/hiring-agent-demo-public 中按 eval/accuracy 排名前 5 的运行? |
我的招聘代理预测跟踪的延迟在过去几个月里是如何变化的? |
生成一份比较招聘代理上个月决策的 wandb 报告 |
我如何在 Weave 中创建排行榜 - 询问支持机器人? |
新的自动聚类工具即将推出:
“查看 grpo-cuda/axolotl-grpo 中我最后一次训练运行的最后 100 条跟踪记录,并告诉我为什么我的强化学习实验的滚动跟踪有时会很差?”
可用工具
可用工具(6 个强大工具)
| 工具 |
描述 |
示例查询 |
| query_wandb_tool |
查询 W&B 运行、指标和实验 |
"显示损失 < 0.1 的运行" |
| query_weave_traces_tool |
分析大语言模型跟踪和评估 |
"平均延迟是多少?" |
| count_weave_traces_tool |
统计跟踪记录并获取存储指标 |
"有多少条跟踪记录失败了?" |
| create_wandb_report_tool |
以编程方式创建 W&B 报告 |
"创建一份性能报告" |
| query_wandb_entity_projects |
列出实体的项目 |
"存在哪些项目?" |
| query_wandb_support_bot |
从 W&B 文档中获取帮助 |
"我如何使用扫描?" |
使用提示
使用提示(最佳实践)
⚠️ 重要提示
确保向大语言模型指定你的 W&B 实体和 W&B 项目名称,因为大语言模型无法读取你的想法。
💡 使用建议
- 避免提出过于宽泛的问题,例如 “我的最佳评估是什么?” 这样的问题可能过于宽泛,将问题细化为更具体的问题,例如 “哪个评估的 F1 分数最高?” 可以更快地得到答案。
- 当提出宽泛、一般性的问题,如 “我的表现最佳的运行/评估有哪些?” 时,最好要求大语言模型检查它是否检索到了所有可用的运行。MCP 工具旨在获取正确数量的数据,但有时大语言模型可能只检索最新的运行或最后 N 个运行。
📦 安装指南
选项 1:托管服务器(推荐)
选项 1:托管服务器(推荐)
托管服务器提供零配置体验,具有企业级可靠性。该服务器由 W&B 团队维护,会自动更新新功能,并可扩展以处理任何工作负载。非常适合团队和生产用例,让你可以专注于机器学习工作,而不是基础设施。
使用公共服务器
最简单的方法是使用我们托管在 https://mcp.withwandb.com 的服务器。
优点:
- ✅ 无需安装
- ✅ 始终保持最新
- ✅ 自动扩展
- ✅ 无需维护
只需使用 快速开始 中显示的配置即可。
选项 2:本地开发(STDIO)
选项 2:本地开发(STDIO)
在本地运行 MCP 服务器进行开发、测试,或者当你需要完全控制数据时使用。本地服务器直接在你的机器上运行,桌面客户端使用 STDIO 传输,基于 Web 的客户端使用 HTTP 传输。非常适合想要自定义服务器或在隔离环境中工作的开发人员。
手动配置
添加到你的 MCP 客户端配置:
{
"mcpServers": {
"wandb": {
"command": "uvx",
"args": [
"--from",
"git+https://github.com/wandb/wandb-mcp-server",
"wandb_mcp_server"
],
"env": {
"WANDB_API_KEY": "YOUR_API_KEY"
}
}
}
}
先决条件
curl -LsSf https://astral.sh/uv/install.sh | sh
安装
uv pip install wandb-mcp-server
pip install git+https://github.com/wandb/wandb-mcp-server
特定客户端安装命令
Cursor(仅项目)
为特定项目启用服务器:
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path .cursor/mcp.json && uvx wandb login
Cursor(全局)
为所有 Cursor 项目启用服务器:
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path ~/.cursor/mcp.json && uvx wandb login
Windsurf
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path ~/.codeium/windsurf/mcp_config.json && uvx wandb login
Claude Code
claude mcp add wandb -- uvx --from git+https://github.com/wandb/wandb-mcp-server wandb_mcp_server && uvx wandb login
使用 API 密钥:
claude mcp add wandb -e WANDB_API_KEY=your-api-key -- uvx --from git+https://github.com/wandb/wandb-mcp-server wandb_mcp_server
Claude Desktop
uvx --from git+https://github.com/wandb/wandb-mcp-server add_to_client --config_path "~/Library/Application Support/Claude/claude_desktop_config.json" && uvx wandb login
使用 ngrok 进行测试(适用于服务器端客户端)
对于像 OpenAI 和 LeChat 这样需要公共 URL 的客户端:
uvx wandb-mcp-server --transport http --port 8080
ngrok http 8080
注意:这些实用工具受 OpenMCP 服务器注册表 添加到客户端模式 的启发。
选项 3:自托管 HTTP 服务器(高级)
选项 3:自托管 HTTP 服务器(高级)
这个公共仓库专注于 STDIO 传输。如果你需要完全托管的 HTTP 部署(Docker、Cloud Run、Hugging Face 等),可以从这个代码库开始,并在单独的仓库中添加你自己的 HTTP 入口点。W&B 维护的生产级托管服务器现在位于一个基于此仓库的私有仓库中。
对于轻量级实验,你仍然可以直接运行 FastMCP HTTP 传输:
uvx wandb_mcp_server --transport http --host 0.0.0.0 --port 8080
客户端必须继续按照 MCP 规范通过 Bearer 令牌提供自己的 W&B API 密钥。
📚 详细文档
关键资源
示例代码
完整的 OpenAI 示例
from openai import OpenAI
from dotenv import load_dotenv
import os
load_dotenv()
client = OpenAI()
resp = client.responses.create(
model="gpt-4o",
tools=[
{
"type": "mcp",
"server_label": "wandb",
"server_description": "Query W&B data",
"server_url": "https://mcp.withwandb.com/mcp",
"authorization": os.getenv('WANDB_API_KEY'),
"require_approval": "never",
},
],
input="How many traces are in wandb-smle/hiring-agent-demo-public?",
)
print(resp.output_text)
支持