Jinni
什么是Jinni?
Jinni是一个智能项目上下文提取工具,专门为AI编程助手设计。它能自动扫描您的代码项目,提取所有相关文件内容,并以结构化方式提供给大型语言模型(LLM),让AI更深入理解您的项目全貌。如何使用Jinni?
只需简单配置您的AI开发环境(如Cursor/Roo/Claude等),Jinni就会在后台工作。当AI需要了解项目时,会自动获取完整的代码上下文。适用场景
特别适合复杂代码库的维护、新成员快速熟悉项目、跨文件代码重构等场景。让AI助手像资深开发者一样理解您的项目。主要功能
智能上下文提取自动识别并提取项目中的源代码文件,排除二进制/日志等无关内容
无缝MCP集成通过Model Context Protocol与主流AI开发工具深度集成
自定义过滤规则支持.gitignore风格规则,精确控制哪些文件应该包含或排除
完整元数据提供文件路径、大小和修改时间等元数据,帮助理解文件关系
WSL无缝支持自动处理Windows/WSL路径转换,跨平台开发无忧
优势与局限性
优势
一键获取完整项目视图,无需手动逐个文件查看
智能过滤机制确保只包含相关代码文件
与主流AI编程工具开箱即用
支持大规模项目,自动处理路径和编码问题
局限性
超大项目可能需要调整包含规则以避免上下文过长
首次配置需要简单的开发环境设置
二进制/非文本文件默认不包含(可通过配置修改)
如何使用
安装Jinni
通过pip或uv安装Jinni包
配置MCP客户端
在您的AI开发工具配置文件中添加Jinni服务器设置
指定项目根目录(可选)
为安全考虑,可以限制Jinni只能访问特定目录
开始使用
重启您的开发环境,现在AI可以请求读取项目上下文了
使用案例
新成员熟悉项目新加入开发者使用AI快速理解项目结构和主要模块
跨文件重构重构影响多个文件的代码时确保一致性
依赖关系分析理清复杂项目中的模块依赖关系
常见问题
为什么AI有时看不到我的某些文件?
如何限制Jinni访问的目录范围?
Windows/WSL路径如何处理?
项目太大导致上下文超限怎么办?
相关资源
官方GitHub仓库
获取最新版本和源代码
MCP协议文档
了解Model Context Protocol技术细节
Cursor集成指南
如何在Cursor中配置Jinni
精选MCP服务推荐

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
1.2K
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
4.3K
5分

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
6.9K
4.5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
1.1K
4.8分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
402
4.8分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
5.6K
4.7分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
962
4.5分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
2.0K
5分