O

Ollama MCP Bridge

一个TypeScript实现的本地LLM与MCP服务器连接的桥梁项目,使开源模型能使用Claude的工具能力
0分
690
安装
复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。

🚀 MCP-LLM 桥接器

本项目使用 TypeScript 开发,旨在将本地大语言模型(借助 Ollama)与模型上下文协议(MCP)服务器连接起来。通过此桥接器,开源模型能像 Claude 一样运用相同的工具和功能,进而打造强大的本地 AI 助手。

🚀 快速开始

该项目可将本地大型语言模型与 MCP 服务器相连,MCP 服务器具备多种实用功能,如文件系统操作、勇敢的网络搜索、GitHub 交互、Google Drive 和 Gmail 集成、内存/存储管理以及使用 Flux 进行图像生成。桥接器会在 LLM 的输出和 MCP 的 JSON - RPC 协议间进行转换,让任何 Ollama 兼容模型都能像 Claude 一样使用这些工具。

✨ 主要特性

  • 多 MCP 支持和动态工具路由:可支持多个 MCP 服务器,并能根据工具类型动态路由请求。
  • 工具调用的结构化输出验证:确保工具调用输出的结构符合要求。
  • 用户提示中的自动工具检测:能自动识别用户提示中的工具调用需求。
  • 强大的 Ollama 进程管理:有效管理 Ollama 相关进程。
  • 详细的日志记录和错误处理:便于排查和解决问题。

📦 安装指南

安装 Ollama 和所需模型

ollama pull qwen2.5-coder:7b-instruct

安装 MCP 服务器

npm install -g @modelcontextprotocol/server-filesystem
npm install -g @modelcontextprotocol/server-brave-search
npm install -g @modelcontextprotocol/server-github
npm install -g @modelcontextprotocol/server-memory
npm install -g @patruff/server-flux
npm install -g @patruff/server-gmail-drive

配置凭证

  • 设置 BRAVE_API_KEY 用于勇敢搜索。
  • 设置 GITHUB_PERSONAL_ACCESS_TOKEN 用于 GitHub。
  • 设置 REPLICATE_API_TOKEN 用于 Flux。
  • 使用以下命令配置 Gmail 凭证:cp $HOME/.config/Google/credentials.json ~/.config/gmail-credential

配置文件

创建或编辑位于 $HOME/.config/mcp-llm/config.json 的配置文件,示例内容如下:

{
  "ollama": {
    "host": "http://localhost:11434"
  },
  "gmail": {
    "enable": false,
    "credential_path": "~/.config/gmail-credential"
  }
}

💻 使用示例

基础用法

启动桥接器

npm run start

发送简单消息

curl -X POST http://localhost:3000/api/v1/message -H "Content-Type: application/json" -d '{"message": "你好,世界!"}'

发送带有工具调用的消息

curl -X POST http://localhost:3000/api/v1/message -H "Content-Type: application/json" -d '{"message": "给我讲个笑话,请使用 joke-teller 工具。"}'

🔧 技术细节

  • 桥接器支持多线程处理,最大连接数为 100。
  • 请求超时时间为 30 秒,重试次数为 3 次。
  • 支持文件附件上传和下载。

📚 详细文档

当前配置

属性 详情
模型类型 使用 Qwen 2.5 7B(qwen2.5-coder:7b-instruct)通过 Ollama
MCP 服务 文件系统操作 (@modelcontextprotocol/server-filesystem)、勇敢搜索 (@modelcontextprotocol/server-brave-search)、GitHub (@modelcontextprotocol/server-github)、记忆 (@modelcontextprotocol/server-memory)、Flux 图像生成 (@patruff/server-flux)、Gmail 和 Google Drive (@patruff/server-gmail-drive)

架构

  • 桥接器:作为核心组件,负责工具注册和执行管理。
  • LLM 客户端:处理 Ollama 交互并格式化工具调用。
  • MCP 客户端:管理 MCP 服务器连接和 JSON - RPC 通信。
  • 工具路由器:根据工具类型将请求路由到适当的 MCP。

未来改进计划

  • 实现更多 MCP 服务器支持。
  • 添加并行工具执行功能。
  • 支持流式响应输出。
  • 提升错误恢复能力。
  • 添加对话记忆功能。
  • 扩展对更多 Ollama 模型的支持。

相关项目

该项目与更广泛的 Claude 生态系统集成,涉及模型上下文协议(MCP)、Claude 桌面配置、Ollama 项目以及各种 MCP 服务器实现,最终可打造一个功能强大的本地 AI 助手,在本地硬件上实现类似于 Claude 的诸多功能。

精选MCP服务推荐
F
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
7.0K
4.5分
D
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
1.2K
4.3分
F
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
4.4K
5分
E
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
429
4.8分
M
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
1.1K
4.8分
C
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
5.6K
4.7分
E
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
2.1K
5分
B
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
1.0K
4.5分
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase