🚀 MiniMe - MCP v0.2.0
这是一款用于创建开发者数字分身的集成开发环境(IDE)代理升级工具,可应用于所有项目。当下,大家都在借助人工智能助手进行“氛围编程”,那种神奇的体验就像你大声思考,AI 能心领神会,代码自然就生成了。但问题是,你的 AI 有“失忆症”,每次对话都得从头开始,每个项目都像是在向陌生人解释自己。
要是你的 AI 真能“记住”东西,会怎样呢?
🧠 MiniMe - MCP:AI 的持久记忆大脑
智能时代的上下文工程
这可不只是普通的 MCP 服务器,它是你 AI 助手的“数字海马体”,能存储、关联信息,并在每次交互中不断进化。当别人还在堆砌功能时,你已经在输出智能了。
当下“氛围编程”的问题:
- 🔄 无尽重复 — “我们是这样处理认证的……”(第 50 次说了)
- 🤷 上下文失忆 — AI 会忘记你的代码模式、偏好和决策
- 🏝️ 项目孤岛 — 从一个项目学到的东西无法惠及其他项目
- 📚 知识流失 — 每次会话间的见解都会消失
MiniMe - MCP 的解决方案:
"嘿,AI,记得我们用的是 PostgreSQL 并且……"
"哦,还有我们更喜欢函数式组件……"
"另外,我们决定不用 Redis 是因为……"
AI:"根据你在项目 A 中的认证模式和项目 B 中的可扩展性经验,我会这样处理这个问题……"
🔮 以智能为先的开发模式如何运作
1. 真正有价值的记忆
你的 AI 不仅能记住信息,还能理解上下文:
- 决策与理由:你为何选择 React 而非 Vue(以及何时改变选择)
- 代码模式:你团队的代码规范,让代码审查更高效
- 架构演变:你的系统设计思维是如何成熟的
- Bug 解决方案:6 个月前那个棘手的 CORS 问题的修复方法
2. 跨项目模式识别
当你的 AI 能够关联不同项目间的信息时,真正的魔法就出现了:
💡 "我注意到你又在实现 JWT 认证了。在前 3 个项目中,你在第 3 天左右总会遇到同样的刷新令牌边缘情况。这次要我提前处理吗?"
💡 "你在项目 A 中的数据库连接模式可以解决这里的性能问题。要我采用那种方法吗?"
💡 "根据你的部署历史,这看起来和阻塞项目 C 的 nginx 配置问题一样。这是之前有效的修复方法……"
3. 上下文工程的实际应用
看着你的 AI 助手从通用工具逐步进化为项目专属智能助手:
第 1 次会话:提供基本帮助
第 10 次会话:了解你的偏好
第 100 次会话:预测你的需求
第 1000 次会话:像你的团队一样思考
🎯 立竿见影的实际收益
对于独立开发者:
- 即时上下文切换 — 在不同项目间切换时不会失去动力
- 个人文档 — 你的 AI 成为你的外部大脑
- 模式进化 — 随着时间提升你的架构设计思维
对于团队:
- 共享智能 — 新团队成员可以继承集体智慧
- 一致的模式 — AI 会自动执行团队规范
- 决策历史 — 再也不用疑惑“我们为什么要这样构建它?”
对于组织:
- 跨团队学习 — 最佳实践自然传播
- 知识保留 — 即使团队人员变动,见解依然留存
- 智能入职培训 — 新员工能获得上下文感知的帮助
🛠️ 通用 IDE 智能工具
它能在整个开发生态系统中无缝运行:
🎨 VS Code → 具有持久记忆的增强版 Copilot
🚀 Cursor → 真正能记住信息的 AI 结对编程
⚡ Claude Desktop → 能连贯对话的交互体验
🌊 Windsurf → 具有共享上下文的协作式编码
🔗 任何 MCP 客户端 → 面向未来的智能层
⚡ 智能优势对比
你:"我该如何构建这个 API?"
AI:"这里有一些通用模式……"
结果:通用建议,重复研究
你:"我该如何构建这个 API?"
AI:"根据你之前的 3 个 API、在服务 X 中遇到的扩展问题以及你在项目 Y 中喜欢的简洁架构,这里有一种适合你模式的方法……"
结果:个性化、经过实践检验的指导
🚀 准备好升级你的编程体验了吗?
别再向你的 AI 反复解释了,开始与真正懂你的助手一起构建项目吧。
MiniMe - MCP 能将每次 IDE 会话从:
- ❌ “让我再解释一下我们的设置……”
- ✅ “你懂我要做什么,咱们开始干吧。”
开发的未来不只是 AI 辅助,而是智能增强。你的代码、模式和决策,都将被记住、关联并不断进化。
欢迎开启有“大脑”的氛围编程之旅。🧠
为模型上下文协议构建,兼容 VS Code、Cursor、Claude Desktop、Windsurf 以及不断扩展的 AI 开发工具世界。
✨ 主要特性
- 持久上下文:你的 AI 助手能记住一切,包括决策、代码模式和项目知识。
- 智能分析:由 AI 驱动的见解,可识别模式和学习机会。
- 通用 IDE 支持:能与 VS Code、Claude Desktop、Cursor、Windsurf 无缝协作。
- 隐私至上:使用你自己的 Ollama 模型在本地运行,你的数据不会离开你的设备。
- 多架构支持:原生支持 Intel/AMD(x64)和 Apple Silicon(ARM64)。
🚀 快速开始(5 分钟)
前提条件
- 安装 Docker - 获取 Docker
- 安装 Ollama - AI 模型所需
brew install ollama
curl -fsSL https://ollama.ai/install.sh | sh
- 拉取所需模型
ollama pull mxbai - embed - large
ollama pull deepseek - coder:6.7b
运行 MiniMe - MCP
docker run -d \
--name minimemcp \
--restart unless - stopped \
-p 5432:5432 \
-p 8000:8000 \
-p 9090:9090 \
-v minime - mcp - v9:/data \
-e POSTGRES_PASSWORD=minime_password \
-e UI_PORT=9090 \
manujbawa/minimemcp:latest
就这么简单! MiniMe - MCP 现已运行:
- 📍 MCP API:http://localhost:8000
- 📍 Web UI:http://localhost:9090
- 🏥 健康检查:http://localhost:8000/health
🛠️ 适用于 IDE 的 MCP 工具
安装 MCP 客户端
npm install -g @minimemcp/mcp-client
可用的 MCP 工具
store_memory
- 具有自动标签功能的智能内存存储
search_memories
- 混合语义/关键词搜索
get_insights
- 由 AI 驱动的模式分析
start_thinking
- 结构化推理序列
manage_tasks
- 项目任务管理
manage_project
- 文档和项目管理
🎯 IDE 集成
配置你的 IDE 以使用 MiniMe - MCP 工具:
GitHub 组织用户注意:你的管理员必须在 GitHub 组织的 Copilot 设置中启用 MCP。
配置完成后,你的 AI 助手将在 IDE 中直接访问持久内存和智能工具。
🧠 关键特性
以智能为先的框架
- 强制会话启动:自动加载项目上下文
- 积极的内存存储:自动存储所有重要信息
- 模式识别:AI 识别趋势和学习机会
- 结构化思考:针对复杂问题的多步推理
高级功能
- 统一见解 v2:通过大语言模型进行模式检测和分类
- 顺序思考:分支并探索多种解决方案路径
- 项目智能:学习你的代码库结构和规范
- 任务管理:集成任务跟踪和智能优先级排序
🔧 高级配置
使用不同的大语言模型
docker run -d \
--name minimemcp \
-e LLM_MODEL="llama2:13b" \
-e POSTGRES_PASSWORD=minime_password \
-e UI_PORT=9090 \
-p 5432:5432 -p 8000:8000 -p 9090:9090 \
-v minime - mcp - v9:/data \
manujbawa/minimemcp:latest
自定义端口
docker run -d \
--name minimemcp \
-e MCP_PORT="8080" \
-e UI_PORT="9090" \
-e POSTGRES_PASSWORD=minime_password \
-p 5432:5432 -p 8080:8080 -p 9090:9090 \
-v minime - mcp - v9:/data \
manujbawa/minimemcp:latest
📦 从源代码构建
若要进行开发或定制:
git clone https://github.com/yourusername/MiniMe - MCP
cd MiniMe - MCP
make all
make dev - hot
make build - fast - v2
🐛 故障排除
检查状态
docker ps -f name=minimemcp
docker logs minimemcp -f
curl http://localhost:8000/health
常见问题
Ollama 连接问题
- 确保 Ollama 正在运行:
ollama serve
- 验证模型是否已下载:
ollama list
内存处理问题
- 检查嵌入模型:
ollama pull mxbai - embed - large
- 查看日志:
docker logs minimemcp | grep embed
📚 文档
🤝 贡献代码
- Fork 仓库
- 创建功能分支 (
git checkout -b feature/amazing - feature
)
- 提交更改 (
git commit -m '添加惊人的功能'
)
- 推送到分支 (
git push origin feature/amazing - feature
)
- 打开拉取请求
📄 许可证
本项目采用 MIT 许可证 - 详情请参阅 LICENSE 文件。
采用以智能为先的原则构建,实现最高的 AI 生产力 🚀
技术栈
- 数据库:使用 pgvector 进行嵌入的 PostgreSQL
- AI 模型:本地 Ollama(mxbai - embed - large,deepseek - coder:6.7b)
- 前端:使用 Material - UI 的 React
- 后端:使用 Express 的 Node.js
- 容器:支持多架构(AMD64 + ARM64)的单 Docker 容器