Memgpt
什么是MemGPT MCP服务器?
MemGPT MCP服务器是一个工具集,允许您与不同的大型语言模型(LLMs)进行交互,例如OpenAI、Anthropic、OpenRouter和Ollama。它还维护您的对话历史记录,使您可以轻松回顾之前的对话。如何使用MemGPT MCP服务器?
安装后,您可以通过命令行与服务器交互,并根据需要选择不同的LLM提供商和模型。适用场景
适合需要频繁与LLMs交互的用户,尤其是那些希望跨多个提供商管理对话历史的应用场景。主要功能
聊天向当前选定的LLM发送消息。支持多个提供商,如OpenAI、Anthropic、OpenRouter和Ollama。
获取记忆检索对话历史记录。可以限制返回的记忆数量,或者通过设置`limit: null`来获取全部记忆。
清除记忆清空所有存储的记忆记录。
切换提供商在不同LLM提供商之间切换,例如OpenAI、Anthropic、OpenRouter和Ollama。此设置会持久化。
切换模型在当前提供商下切换到不同的模型。例如,Anthropic的Claude系列模型支持多种速度和性能选项。
支持Claude 3和3.5系列新增对最新Claude模型的支持,包括Claude 3和Claude 3.5系列。
优势与局限性
优势
支持多种LLM提供商,方便灵活切换。
维护对话历史记录,便于回顾和分析。
提供了详细的模型选择功能,满足不同任务需求。
支持无限量记忆检索,满足复杂场景需求。
局限性
需要配置API密钥才能正常工作。
某些高级功能可能依赖于特定的网络环境。
如何使用
安装依赖
运行以下命令安装所需依赖:`npm install`。
构建服务器
运行以下命令构建服务器:`npm run build`。
启动服务器
运行以下命令启动服务器:`node index.js`。
使用案例
发送消息并获取回复向当前LLM发送一条消息,并接收其响应。
获取对话历史记录查看最近的对话历史记录。
常见问题
如何添加API密钥?
如何切换到Claude 3.5系列模型?
是否支持无限量记忆检索?
相关资源
官方文档
MemGPT MCP服务器的完整官方文档。
GitHub仓库
MemGPT MCP服务器的开源代码仓库。
调试工具
用于调试MCP服务器的Inspector工具。
精选MCP服务推荐

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6.9K
4.5分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
4.3K
5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
1.2K
4.3分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
1.1K
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
965
4.5分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
2.0K
5分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
5.6K
4.7分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
403
4.8分