Pyrunner MCP
什么是PyRunner MCP?
PyRunner MCP是一个Model Context Protocol (MCP)服务器,它让AI助手(如Gemini CLI)能够在一个持久化的Python内核中执行代码。这意味着你定义的变量、函数和导入的模块会在多次代码执行之间保留,无需每次重新加载。它特别适合数据分析、机器学习实验和交互式脚本开发。如何使用PyRunner MCP?
首先,你需要安装Python和Gemini CLI。然后,将PyRunner MCP配置为Gemini CLI的MCP服务器。配置完成后,启动Gemini聊天,AI助手就能使用PyRunner提供的工具来执行Python代码、管理脚本和包,所有操作都在一个持久化的环境中进行。适用场景
PyRunner MCP非常适合需要反复交互和状态保留的任务,例如:探索性数据分析(加载一次大数据集,多次分析)、机器学习模型调试(加载一次模型,多次测试)、以及编写和测试独立的实用脚本。对于需要完整项目结构或团队协作的大型开发,使用原生开发工具可能更合适。主要功能
持久化内核 (Persistent Kernel)
核心功能。执行Python代码时,所有变量、函数和导入的模块都会保留在内存中,供后续执行使用。就像拥有一个永远在线的Jupyter Notebook内核,无需重复执行初始化代码。
智能脚本管理
保存的脚本会附带描述和标签(metadata)。你可以通过自然语言描述(如‘PTT爬虫’)来搜索和找到相关脚本,而不仅仅是靠文件名。
快速包管理
极速检查Python包是否已安装(微秒级),并支持一键安装缺失的依赖。所有检查都在MCP服务器进程内完成,无需启动缓慢的子进程。
结构化长期记忆
可以记住用户的偏好、项目上下文或常用命令。记忆以结构化的JSON格式存储,支持按类别(如‘preference’, ‘project’)和关键词进行检索。
安全的Shell命令执行
执行系统命令(如git clone, pip install)时,会自动设置一个净化的环境变量,避免交互式提示导致命令卡住,并统一工作目录。
非阻塞输出处理
执行会产生大量输出或长时间运行的任务(如网络爬虫、SSH命令)时,标准输出和错误会被重定向到临时文件,防止因缓冲区满而导致整个进程卡死。
优势
状态持久化:变量跨执行保留,极大提升交互式开发效率。
执行不卡顿:智能处理长时间任务和大量输出,避免AI对话界面冻结。
搜索友好:用描述和标签管理脚本,比单纯的文件名更容易查找。
启动迅速:包检查等操作在进程内完成,速度远超启动子进程。
记忆结构化:长期记忆有分类,检索更精准,上下文管理更清晰。
局限性
非项目导向:更适合独立脚本和实验,对于具有复杂目录结构(src/, tests/)的完整项目,不如VS Code Copilot的@workspace功能。
单语言专注:主要服务于Python生态,对于多语言混合项目支持有限。
需要配置:需要手动配置MCP服务器到Gemini CLI,有一定上手门槛。
内核状态管理:用户需要主动管理内核状态(如重置),否则可能积累过多变量占用内存。
如何使用
安装前置软件
确保你的电脑上安装了Python 3.8或更高版本,并按照官方指南安装好Gemini CLI。
获取并安装PyRunner MCP
从代码仓库克隆PyRunner MCP项目,并安装其所需的Python依赖包。
配置MCP服务器
编辑Gemini CLI的配置文件,将PyRunner MCP添加为一个MCP服务器。需要指定Python解释器路径和PyRunner主脚本的完整路径。
启动并使用
在PyRunner MCP项目目录下,启动Gemini CLI的聊天界面。如果配置成功,你会看到连接PyRunner MCP服务器的提示。现在你可以通过AI助手使用所有功能了。
使用案例
案例一:交互式数据分析
你想分析一个大型销售数据CSV文件。传统方式下,每次让AI分析不同维度时,它都需要重新加载整个文件,非常耗时。使用PyRunner MCP,你只需加载一次,后续所有分析都在内存中的DataFrame上直接进行。
案例二:管理实用脚本库
你经常编写一些实用的小脚本,比如清理下载文件夹、监控网站状态等。时间久了很难记住每个脚本是干什么的。PyRunner MCP允许你为脚本添加描述和标签。
案例三:执行长时间网络任务
你需要编写一个脚本,持续Ping一个服务器5分钟并记录结果。这种任务会产生大量输出,容易导致普通执行方式卡死。
常见问题
PyRunner MCP和直接在终端里运行Python有什么区别?
它和Jupyter Notebook有什么区别?
内核一直运行会占用很多内存吗?
我写的脚本保存在哪里?
如何让AI助手更好地使用PyRunner?
相关资源
Model Context Protocol (MCP) 官方网站
了解MCP协议的背景、规范和设计理念。
Gemini CLI GitHub 仓库
获取Gemini CLI的安装指南、使用文档和最新动态。
FastMCP 库
PyRunner MCP构建所依赖的Python MCP服务器框架。

Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
75.5K
4.5分

Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
85.5K
4.3分

Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
149.9K
5分

Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
33.0K
4.8分

Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
50.1K
4.5分

Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
105.7K
4.7分

Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
56.1K
5分

Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
64.6K
4.8分





