Lean Allinone
L

Lean Allinone

QuantConnect Lean算法交易引擎一体化Docker镜像,支持GPU自动选择、现代Web界面、REST API和MCP协议集成
2.5分
5.5K

什么是Lean Engine All-in-One?

Lean Engine All-in-One是一个集成了QuantConnect Lean量化交易引擎的完整解决方案,通过Docker容器提供开箱即用的量化交易开发环境。它将交易引擎、Web界面、API服务和AI集成功能打包在一个容器中,让用户无需复杂配置即可开始量化策略开发和回测。

如何使用Lean Engine All-in-One?

只需运行一个Docker命令,系统就会自动启动所有服务。您可以通过浏览器访问现代化的Web界面管理策略,通过REST API进行程序化操作,或通过MCP协议与AI助手集成。系统还支持GPU自动选择,优化计算性能。

适用场景

适合量化交易开发者、金融科技团队、教育机构和研究人员使用。无论是个人策略开发、团队协作研究,还是教学演示,都能提供完整的解决方案。特别适合需要快速搭建量化交易环境的场景。

主要功能

GPU智能选择
自动检测并选择内存使用率最低的GPU,优化计算资源分配,提升回测性能。
现代化Web界面
响应式设计,支持深色模式和多语言(英文/中文/日文),提供直观的策略管理和结果查看体验。
REST API服务
基于FastAPI的完整API,支持Swagger文档,便于程序化管理和集成。
MCP AI集成
支持Model Context Protocol,可与AI助手(如Claude)无缝集成,通过自然语言操作量化交易系统。
实时监控
通过WebSocket实时推送GPU状态和回测进度,随时掌握系统运行情况。
一体化部署
单个容器包含所有组件:nginx、API服务、MCP服务,简化部署和维护。
优势
开箱即用:无需复杂配置,一条命令即可启动完整系统
性能优化:GPU自动选择和CUDA支持,提升计算效率
多语言支持:界面支持中英日三种语言,适合国际团队
AI友好:MCP协议让AI助手可以直接操作系统
部署简单:Docker容器化,支持各种云环境和本地部署
实时反馈:WebSocket实时监控,及时了解系统状态
局限性
硬件要求:需要支持CUDA的NVIDIA GPU以获得最佳性能
学习曲线:需要基本的Docker知识进行部署和管理
资源占用:完整系统需要一定的内存和存储空间
网络依赖:部分功能需要网络连接下载数据
定制限制:预配置环境可能不满足高度定制化需求

如何使用

安装Docker和NVIDIA驱动
确保系统已安装Docker和NVIDIA Container Toolkit,GPU驱动支持CUDA。
拉取并运行镜像
使用Docker命令启动Lean Engine容器,映射必要的端口。
访问Web界面
在浏览器中打开 http://localhost:8280 访问Web管理界面。
配置数据目录(可选)
挂载本地目录以持久化数据和策略文件。
使用Docker Compose(推荐)
使用docker-compose.yml文件进行更复杂的配置和管理。

使用案例

个人策略开发
个人开发者使用Web界面快速开发和测试交易策略,无需搭建复杂环境。
团队协作研究
研究团队共享同一套环境,通过API自动化执行批量回测和参数优化。
AI辅助量化分析
通过MCP协议让AI助手帮助分析策略、优化参数和解释回测结果。
教学演示环境
教育机构为学生提供统一的量化交易实验环境,避免环境配置问题。

常见问题

需要什么样的硬件配置?
如何导入自己的策略?
支持哪些数据源?
如何备份数据和结果?
可以同时运行多个回测吗?
如何更新到新版本?
支持中文策略名称和注释吗?
如何监控系统资源使用情况?

相关资源

Docker Hub镜像页面
官方Docker镜像仓库,查看最新版本和下载统计
GitHub项目主页
项目源代码和问题追踪
QuantConnect Lean文档
底层Lean引擎的官方文档
FastAPI文档
REST API框架的详细文档
Model Context Protocol规范
MCP协议的官方规范和示例
NVIDIA CUDA工具包
GPU计算所需的CUDA工具包下载
Docker官方文档
Docker使用和管理的完整指南

安装

复制以下命令到你的Client进行配置
注意:您的密钥属于敏感信息,请勿与任何人分享。

替代品

V
Vestige
Vestige是一个基于认知科学的AI记忆引擎,通过实现预测误差门控、FSRS-6间隔重复、记忆梦境等29个神经科学模块,为AI提供长期记忆能力。包含3D可视化仪表板和21个MCP工具,完全本地运行,无需云端。
Rust
5.5K
4.5分
M
Moltbrain
MoltBrain是一个为OpenClaw、MoltBook和Claude Code设计的长期记忆层插件,能够自动学习和回忆项目上下文,提供智能搜索、观察记录、分析统计和持久化存储功能。
TypeScript
5.0K
4.5分
B
Bm.md
一个功能丰富的Markdown排版工具,支持多种样式主题和平台适配,提供实时编辑预览、图片导出和API集成能力
TypeScript
3.4K
5分
S
Security Detections MCP
Security Detections MCP 是一个基于Model Context Protocol的服务器,允许LLM查询统一的安全检测规则数据库,涵盖Sigma、Splunk ESCU、Elastic和KQL格式。最新3.0版本升级为自主检测工程平台,可自动从威胁情报中提取TTPs、分析覆盖差距、生成SIEM原生格式检测规则、运行测试并验证。项目包含71+工具、11个预构建工作流提示和知识图谱系统,支持多SIEM平台。
TypeScript
6.0K
4分
P
Paperbanana
PaperBanana是一个自动化生成学术图表和统计图的智能框架,支持从文本描述生成高质量的论文插图,采用多智能体管道和迭代优化,提供CLI、Python API和MCP服务器等多种使用方式。
Python
7.5K
5分
F
Finlab Ai
FinLab AI是一个金融量化分析平台,通过AI技术帮助用户发现投资策略中的超额收益(alpha)。它提供丰富的数据集、回测框架和策略示例,支持自动化安装与集成到主流AI编程助手。
5.4K
4分
B
Better Icons
一个提供超过20万图标搜索和检索的MCP服务器和CLI工具,支持150多个图标库,帮助AI助手和开发者快速获取和使用图标。
TypeScript
5.6K
4.5分
A
Assistant Ui
assistant-ui是一个开源TypeScript/React库,用于快速构建生产级AI聊天界面,提供可组合的UI组件、流式响应、无障碍访问等功能,支持多种AI后端和模型。
TypeScript
7.2K
5分
D
Duckduckgo MCP Server
已认证
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
Python
84.2K
4.3分
F
Figma Context MCP
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
TypeScript
75.6K
4.5分
F
Firecrawl MCP Server
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
TypeScript
151.1K
5分
E
Edgeone Pages MCP Server
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
TypeScript
33.0K
4.8分
B
Baidu Map
已认证
百度地图MCP Server是国内首个兼容MCP协议的地图服务,提供地理编码、路线规划等10个标准化API接口,支持Python和Typescript快速接入,赋能智能体实现地图相关功能。
Python
50.1K
4.5分
M
Minimax MCP Server
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Python
64.6K
4.8分
E
Exa Web Search
已认证
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
TypeScript
57.2K
5分
C
Context7
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
TypeScript
105.8K
4.7分
AIBase
智启未来,您的人工智能解决方案智库
© 2026AIBase