M

Mcpx Py

mcpx-py是一个用于通过mcp.run工具与LLM交互的Python库,支持多种AI模型并提供结构化输出功能。
2.5分
28

什么是mcpx-py?

mcpx-py是一个Python库,让开发者能方便地通过mcp.run工具与多种大型语言模型(LLM)交互。它支持Claude、OpenAI、Gemini等多种AI提供商模型,也支持本地运行的Ollama模型。

如何使用mcpx-py?

使用前需要获取mcp.run会话ID,然后通过简单的Python API发送消息给LLM模型,可以获取文本回复或结构化数据。

适用场景

适用于需要快速集成多种LLM模型的Python应用开发,特别是需要切换不同模型提供商的场景。

主要功能

多模型支持支持所有PydanticAI兼容的模型,包括Claude、OpenAI、Gemini等主流LLM
结构化输出可以定义Pydantic模型来获取结构化的LLM输出,而不仅仅是文本
本地模型支持通过Ollama支持本地运行的LLM模型

优势与局限性

优势
统一接口访问多种LLM模型
支持结构化数据输出
同时支持云端和本地模型
局限性
需要mcp.run会话ID
依赖多个外部服务
本地模型需要额外配置

如何使用

获取mcp.run会话ID
运行npx命令生成会话ID并保存到配置文件或环境变量
安装mcpx-py
使用uv或pip安装Python库
使用Python API
导入库并创建Chat实例与LLM交互

使用案例

基本文本交互向LLM发送提示词并获取文本回复
结构化数据输出定义Pydantic模型获取结构化LLM输出

常见问题

如何获取mcp.run会话ID?
支持哪些AI提供商?
如何运行本地模型?

相关资源

PydanticAI模型列表
支持的AI模型列表
GitHub仓库
mcpx-py源代码和更多示例
Ollama官网
本地LLM运行环境
安装
复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。
精选MCP服务推荐
F
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
7.0K
4.5分
D
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
1.2K
4.3分
F
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
4.4K
5分
B
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
1.0K
4.5分
E
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
432
4.8分
E
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
2.1K
5分
M
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
1.1K
4.8分
C
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
5.6K
4.7分
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase