Locallama MCP
L

Locallama MCP

LocaLLama MCP Server是一個智能路由服務,通過動態決策將編碼任務分配給本地LLM或付費API,以優化成本。包含成本監控、決策引擎、API集成、錯誤處理和性能基準測試等核心模塊,支持與多種工具集成。
2.5分
7.3K

什麼是LocaLLama MCP 服務器?

LocaLLama MCP 服務器是一個旨在減少編碼任務中API使用成本的工具。它通過動態分析任務複雜度和預算限制,決定是否將任務交給本地LLM模型處理或直接調用付費API。

如何使用LocaLLama MCP 服務器?

只需簡單配置環境變量並啟動服務器即可開始使用。它會自動監控成本、性能並分配任務。

適用場景

適合需要頻繁進行代碼生成或優化的開發者,特別是在預算有限的情況下。

主要功能

成本監控模塊
即時跟蹤API費用和本地模型使用情況,確保成本最優。
智能決策引擎
根據任務規模、質量需求及成本閾值自動選擇本地或雲端模型。
本地LLM集成
支持多種主流本地LLM框架如LM Studio和Ollama。
OpenRouter集成
訪問多種付費和免費的LLM服務,無需額外配置。
全面基準測試
評估不同模型的響應時間、質量和成本,生成詳細報告。
優勢
顯著降低API使用成本
提高開發效率
支持多種模型集成
自動化決策減少人工干預
侷限性
初次配置可能較複雜
對高精度任務可能影響模型表現
需要一定的本地硬件支持

如何使用

克隆項目代碼
通過Git克隆LocaLLama MCP服務器代碼到本地。
安裝依賴
運行npm命令安裝所需的依賴項。
配置環境變量
複製.env.example文件並填寫你的API密鑰和本地模型端點。
啟動服務器
執行npm start啟動LocaLLama MCP服務器。

使用案例

示例1:啟動服務器
通過簡單的npm命令啟動服務器,即可開始處理編碼任務。
示例2:獲取免費模型列表
使用命令獲取當前可用的免費LLM模型。

常見問題

如何快速開始使用LocaLLama MCP服務器?
如果遇到免費模型無法加載的問題怎麼辦?
如何知道我的API成本是否超支?

相關資源

GitHub倉庫
項目源代碼和文檔
官方文檔
詳細的技術文檔和教程
基準測試報告
模型性能對比報告

安裝

複製以下命令到你的Client進行配置
{
  "mcpServers": {
    "locallama": {
      "command": "node",
      "args": ["/path/to/locallama-mcp"],
      "env": {
        "LM_STUDIO_ENDPOINT": "http://localhost:1234/v1",
        "OLLAMA_ENDPOINT": "http://localhost:11434/api",
        "DEFAULT_LOCAL_MODEL": "qwen2.5-coder-3b-instruct",
        "TOKEN_THRESHOLD": "1500",
        "COST_THRESHOLD": "0.02",
        "QUALITY_THRESHOLD": "0.07",
        "OPENROUTER_API_KEY": "your_openrouter_api_key_here"
      },
      "disabled": false
    }
  }
}
注意:您的密鑰屬於敏感信息,請勿與任何人分享。

替代品

R
Rsdoctor
Rsdoctor 是一款專為 Rspack 生態系統打造的構建分析工具,全面兼容 webpack,提供可視化構建分析、多維度性能診斷及智能優化建議,幫助開發者提升構建效率與工程質量。
TypeScript
9.0K
5分
N
Next Devtools MCP
Next.js開發工具MCP服務器,為Claude、Cursor等AI編程助手提供Next.js開發工具和實用程序,包括運行時診斷、開發自動化和文檔訪問功能。
TypeScript
9.7K
5分
T
Testkube
Testkube是一個面向雲原生應用的測試編排與執行框架,提供統一平臺來定義、運行和分析測試,支持現有測試工具和Kubernetes基礎設施。
Go
6.4K
5分
M
MCP Windbg
一個MCP服務器,將AI模型與WinDbg/CDB集成,用於分析Windows崩潰轉儲文件和進行遠程調試,支持自然語言交互執行調試命令。
Python
10.0K
5分
R
Runno
Runno是一個JavaScript工具包集合,用於在瀏覽器和Node.js等環境中安全地運行多種編程語言的代碼,通過WebAssembly和WASI實現沙盒化執行,支持Python、Ruby、JavaScript、SQLite、C/C++等語言,並提供Web組件、MCP服務器等集成方式。
TypeScript
7.7K
5分
P
Praisonai
PraisonAI是一個生產就緒的多AI智能體框架,具有自反思功能,旨在創建AI智能體來自動化解決從簡單任務到複雜挑戰的各種問題。它通過將PraisonAI智能體、AG2和CrewAI集成到一個低代碼解決方案中,簡化了多智能體LLM系統的構建和管理,強調簡單性、定製化和有效的人機協作。
Python
6.4K
5分
N
Netdata
Netdata是一個開源即時基礎設施監控平臺,提供每秒級指標收集、可視化、機器學習驅動的異常檢測和自動化告警,無需複雜配置即可實現全棧監控。
Go
9.7K
5分
M
MCP Server
Mapbox MCP服務器是一個Node.js實現的模型上下文協議服務器,為AI應用提供Mapbox地理空間API的訪問能力,包括地理編碼、興趣點搜索、路線規劃、等時線分析和靜態地圖生成等功能。
TypeScript
8.9K
4分
M
Markdownify MCP
Markdownify是一個多功能文件轉換服務,支持將PDF、圖片、音頻等多種格式及網頁內容轉換為Markdown格式。
TypeScript
27.7K
5分
B
Baidu Map
已認證
百度地圖MCP Server是國內首個兼容MCP協議的地圖服務,提供地理編碼、路線規劃等10個標準化API接口,支持Python和Typescript快速接入,賦能智能體實現地圖相關功能。
Python
34.5K
4.5分
F
Firecrawl MCP Server
Firecrawl MCP Server是一個集成Firecrawl網頁抓取能力的模型上下文協議服務器,提供豐富的網頁抓取、搜索和內容提取功能。
TypeScript
104.9K
5分
S
Sequential Thinking MCP Server
一個基於MCP協議的結構化思維服務器,通過定義思考階段幫助分解複雜問題並生成總結
Python
28.0K
4.5分
M
Magic MCP
Magic Component Platform (MCP) 是一個AI驅動的UI組件生成工具,通過自然語言描述幫助開發者快速創建現代化UI組件,支持多種IDE集成。
JavaScript
19.5K
5分
C
Context7
Context7 MCP是一個為AI編程助手提供即時、版本特定文檔和代碼示例的服務,通過Model Context Protocol直接集成到提示中,解決LLM使用過時信息的問題。
TypeScript
69.8K
4.7分
E
Edgeone Pages MCP Server
EdgeOne Pages MCP是一個通過MCP協議快速部署HTML內容到EdgeOne Pages並獲取公開URL的服務
TypeScript
20.6K
4.8分
N
Notion Api MCP
已認證
一個基於Python的MCP服務器,通過Notion API提供高級待辦事項管理和內容組織功能,實現AI模型與Notion的無縫集成。
Python
15.0K
4.5分
AIBase
智啟未來,您的人工智慧解決方案智庫
© 2026AIBase