Engram
什么是Engram?
Engram是一个创新的AI记忆系统,专门为AI助手和智能体设计。与传统的记忆系统不同,Engram将记忆存储和语义搜索解耦,确保写入操作始终可靠,即使在没有网络连接或外部API不可用的情况下也能正常工作。 Engram的核心思想是:先可靠地存储记忆片段(称为“事件”),然后再进行语义搜索。这种设计避免了在写入路径中依赖可能不稳定的外部服务,确保您的AI助手始终能够记住重要信息。如何使用Engram?
使用Engram非常简单: 1. 安装Engram二进制文件或通过Docker运行 2. 配置连接到本地Ollama服务(用于生成文本向量) 3. 通过MCP协议与Claude Desktop、Claude Code或Cursor集成 4. 您的AI助手就可以开始存储和检索记忆了 Engram会自动处理所有技术细节,您只需要专注于与AI助手的对话。适用场景
Engram特别适合以下场景: - **长期对话**:让AI助手记住跨多个会话的重要信息 - **项目协作**:存储项目需求、决策和进展 - **个人助理**:记住您的偏好、日程和重要事项 - **研究助手**:整理研究资料、参考文献和笔记 - **代码开发**:记住代码结构、API文档和开发决策主要功能
语义搜索
使用向量相似度进行智能搜索,而不是简单的关键词匹配。这意味着Engram能够理解查询的语义含义,找到最相关的内容,即使没有完全匹配的关键词。
优雅降级
即使向量生成服务不可用,Engram也能正常工作。它会先存储文本内容,等服务恢复后再生成向量,确保写入操作永远不会失败。
快速查询
使用DuckDB的HNSW索引技术,实现毫秒级的向量搜索响应。即使存储了大量记忆,搜索速度依然很快。
本地向量生成
所有文本向量都在本地通过Ollama生成,无需调用外部API,保护您的隐私并减少延迟。
单文件部署
Engram是一个独立的可执行文件,无需安装复杂的依赖。只需下载一个文件,配置几个环境变量即可运行。
MCP原生支持
直接集成到Claude Desktop、Claude Code和Cursor中,无需额外配置。您的AI助手可以像使用内置功能一样使用Engram。
优势
写入操作100%可靠:不依赖外部LLM API,只要数据库正常就能写入
隐私保护:所有数据都在本地处理,不会发送到云端
快速响应:本地向量生成和搜索,延迟极低
简单易用:单文件部署,配置简单
成本效益:无需支付API调用费用
离线工作:即使没有网络连接也能存储记忆
局限性
需要本地资源:需要运行Ollama服务,占用本地计算资源
初始设置:需要手动配置环境变量和集成
功能相对基础:专注于可靠存储和搜索,没有复杂的记忆整理功能
依赖Ollama:如果Ollama服务停止,新的记忆将无法生成向量(但仍可存储)
如何使用
安装Engram
从GitHub Releases页面下载适合您操作系统的预编译二进制文件,或者从源代码构建。
安装和配置Ollama
安装Ollama并下载向量生成模型。Ollama是一个本地运行的大型语言模型服务。
配置环境变量
设置Engram运行所需的环境变量,包括数据库路径和Ollama连接信息。
集成到AI助手
将Engram添加到Claude Desktop、Claude Code或Cursor的MCP配置中。
开始使用
重启您的AI助手,现在它就可以使用Engram来存储和检索记忆了。
使用案例
记住项目需求
在与AI助手讨论项目需求时,让助手记住重要的功能要求和设计决策。
跨会话记忆
让AI助手记住您在多个会话中提到的个人偏好和工作习惯。
研究资料整理
在研究某个主题时,让AI助手整理和记住重要的参考资料和关键观点。
会议记录
在会议讨论中,让AI助手记录重要的决策、待办事项和责任人。
常见问题
Engram和普通的笔记应用有什么区别?
我需要一直运行Ollama吗?
Engram会存储我的私人对话吗?
我可以从其他设备访问我的记忆吗?
Engram支持哪些AI助手?
如果我的记忆太多了,搜索会变慢吗?
我可以导出或备份我的记忆吗?
Engram是免费的吗?
相关资源
官方文档
完整的Engram技术文档和使用指南
GitHub仓库
源代码、问题跟踪和发布版本
MCP集成指南
详细的MCP客户端集成说明
部署指南
Docker、Kubernetes和生产环境部署指南
Ollama官网
本地运行大型语言模型的工具
Model Context Protocol
MCP协议官方规范

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
149.8K
5分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
74.2K
4.5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
84.1K
4.3分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
33.0K
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
105.7K
4.7分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
57.0K
5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
63.5K
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
50.1K
4.5分



