Local Ai With Ollama Open Webui MCP On Windows
什么是MCP服务器?
MCP(Model Context Protocol)是一种用于与AI模型交互的开放协议,允许开发者通过统一接口与不同模型进行通信。本项目使用MCP协议构建了一个员工请假管理系统,能够实现请假申请、余额查询等功能。如何使用MCP服务器?
通过Docker Compose部署服务后,MCP服务器会提供API接口,用户可通过Open WebUI等工具调用这些接口,执行请假相关的操作。适用场景
适用于企业内部员工请假管理,无需依赖云端服务,确保数据隐私和安全性。主要功能
请假余额查询
可以查询特定员工的剩余假期天数。
请假申请
允许员工在指定日期申请休假。
请假历史查看
可以查看员工过去的请假记录。
个性化问候
根据输入的姓名生成个性化的欢迎信息。
优势
完全本地化部署,保障数据隐私。
支持多种AI模型,便于扩展。
提供直观的Web界面,方便非技术人员使用。
局限性
需要一定的技术基础来部署和维护。
初期配置较为复杂。
不适用于没有网络连接的环境。
如何使用
安装Ollama
下载并安装Ollama,启动服务以运行AI模型。
拉取模型
从Ollama中拉取所需的AI模型,如deepseek-r1。
克隆项目
将项目代码克隆到本地计算机。
启动服务
使用Docker Compose启动MCP服务器和Open WebUI。
添加MCP工具
在Open WebUI中添加MCP工具,以便调用API接口。
使用案例
查询员工E001的假期余额
通过MCP服务器查询员工E001的剩余假期天数。
为员工E001申请请假
提交一次为期3天的请假申请。
查看员工E001的请假历史
获取员工E001过去的所有请假记录。
个性化问候
根据输入的姓名生成个性化的问候语。
常见问题
MCP服务器是什么?
如何访问MCP服务器?
MCP服务器需要哪些依赖?
如果Ollama无法运行怎么办?
相关资源
Ollama官网
Ollama官方网站,提供AI模型的下载和管理工具。
Open WebUI文档
Open WebUI官方文档,介绍如何使用该工具与AI模型交互。
Docker Desktop文档
Docker Desktop的官方文档,帮助用户了解如何使用Docker进行容器化部署。
MCP协议文档
MCP协议的官方文档,详细说明了其工作原理和使用方式。
GitHub项目仓库
本项目的GitHub仓库,包含所有源代码和配置文件。

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
56.8K
4.5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
58.0K
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
96.2K
5分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
39.1K
5分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
37.8K
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
45.5K
4.8分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
24.5K
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
72.6K
4.7分