🚀 JetsonMCP
JetsonMCP 是一個 MCP 服務器,它將 AI 助手與 NVIDIA Jetson Nano 超級系統相連接,可進行全面的邊緣計算管理、AI 工作負載優化和系統管理。
JetsonMCP 使 Claude 等 AI 助手能夠通過 SSH 連接幫助配置和管理 Jetson Nano 系統。從 AI 模型部署到系統優化,用戶可以用自然語言提問,而無需學習複雜的 CUDA 和 Linux 命令。
🚀 快速開始
Jetson Nano 準備
- 全新安裝 JetPack(建議版本 4.6 及以上)
- 啟用 SSH 訪問
- 充足的電源供應(建議使用 5V/4A 以實現最佳性能)
- MicroSD 卡(建議 64GB 及以上)或 NVMe SSD
- 聯網 以便進行軟件包安裝
網絡配置
- 建議使用靜態 IP 以確保穩定訪問
- 配置防火牆以允許 SSH(端口 22)
- 可選:設置 VPN 以實現遠程訪問
具體步驟
1. 準備 Jetson Nano
sudo systemctl enable ssh
sudo systemctl start ssh
sudo visudo
hostname -I
2. 安裝 JetsonMCP
git clone https://github.com/ajeetraina/jetsonMCP.git
cd jetsonMCP
python3 -m venv venv
source venv/bin/activate
pip install -e .
3. 配置連接
cp .env.example .env
nano .env
必需的 .env 設置:
JETSON_HOST=192.168.1.100
JETSON_USERNAME=your_username
JETSON_PASSWORD=your_password
JETSON_POWER_MODE=0
CUDA_VISIBLE_DEVICES=0
DOCKER_REGISTRY=localhost:5000
4. 集成 Claude Desktop
將以下內容添加到你的 Claude Desktop 配置中:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows:
%APPDATA%\Claude\claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
{
"mcpServers": {
"jetsonmcp": {
"command": "python",
"args": ["-m", "jetsonmcp.server"],
"cwd": "/absolute/path/to/jetsonMCP"
}
}
}
重啟 Claude Desktop 以加載服務器。
✨ 主要特性
邊緣 AI 管理
- CUDA 工具包集成 - 自動設置和管理 CUDA 環境
- JetPack 管理 - SDK 更新、組件安裝和版本控制
- AI 框架支持 - 對 TensorFlow、PyTorch、OpenCV、TensorRT 進行優化
- 模型部署 - 自動進行模型轉換、優化和服務
硬件優化
- 電源管理 - 動態切換電源模式(10W/5W/MAXN)
- 熱管理 - 溫度監控並自動降頻
- GPU 監控 - 監控內存使用、利用率和性能指標
- 風扇控制 - 自定義風扇曲線並優化散熱
容器編排
- NVIDIA Docker - 管理支持 GPU 加速的容器運行時
- 邊緣 Kubernetes - 部署 K3s 以處理分佈式 AI 工作負載
- 多架構支持 - 管理和部署 ARM64 容器
- 註冊表管理 - 為邊緣部署設置私有註冊表
系統管理
- 遠程管理 - 通過 SSH 進行安全的系統管理
- 軟件包管理 - 安裝/更新 APT 和 snap 軟件包
- 服務管理 - 控制和監控 Systemd 服務
- 備份與恢復 - 管理和恢復系統狀態
📦 安裝指南
依賴安裝
按照上述“快速開始”部分的步驟進行安裝和配置。
💻 使用示例
基礎用法
以下是一些使用自然語言請求的示例:
-
AI 與機器學習操作:
- "部署 YOLOv5 模型進行目標檢測" - 下載、優化並運行推理
- "檢查 CUDA 內存使用情況" - 監控 GPU 利用率和內存分配
- "切換到 5W 電源模式" - 優化電池供電時的功耗
- "安裝 TensorRT 優化" - 設置高性能推理引擎
-
系統管理:
- "在運行推理時監控 GPU 溫度" - 即時熱監控
- "將 JetPack 更新到最新版本" - 管理 NVIDIA 軟件棧更新
- "為 AI 工作負載優化 Docker" - 配置運行時以實現 GPU 加速
-
邊緣計算:
- "部署輕量級 Kubernetes 集群" - 設置 K3s 進行邊緣編排
- "配置遠程模型服務" - 設置推理端點
- "在 AI 任務期間監控系統資源" - 性能分析和優化
高級用法
電源管理
sudo nvpmodel -m 1
CUDA 環境
nvcc --version
nvidia-smi
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
Docker GPU 支持
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
📚 詳細文檔
可用工具
AI 與機器學習管理
manage_ai_workloads - 模型部署、推理優化、CUDA 管理
manage_jetpack - 安裝、更新 JetPack SDK 並管理組件
manage_frameworks - 安裝 TensorFlow、PyTorch、OpenCV、TensorRT
硬件控制
manage_hardware - 管理電源模式、溫度監控、風扇控制、GPIO
manage_performance - 管理 CPU/GPU 調節器、頻率縮放和熱管理
manage_storage - 優化 SSD、配置交換空間和管理磁盤
容器操作
manage_containers - 管理 Docker、NVIDIA 運行時和 GPU 加速
manage_orchestration - 部署 Kubernetes/K3s 並設置邊緣計算
manage_registry - 設置私有註冊表並管理多架構鏡像
系統管理
manage_system - 管理軟件包、更新、服務控制和網絡
manage_security - 配置防火牆、管理 SSH 密鑰、用戶管理和系統加固
manage_monitoring - 監控系統指標、日誌記錄、警報和遠程監控
高級配置
電源管理
sudo nvpmodel -m 1
CUDA 環境
nvcc --version
nvidia-smi
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
Docker GPU 支持
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
測試與開發
運行測試
make test
make test-ai
make test-hardware
make test-containers
make test-system
python run_tests.py --integration --coverage
開發設置
pip install -e ".[dev]"
pre-commit install
black jetsonmcp/
isort jetsonmcp/
mypy jetsonmcp/
監控與可觀測性
系統指標
- CPU/GPU 利用率 - 即時監控性能
- 內存使用 - 跟蹤 RAM 和 GPU 內存
- 溫度傳感器 - 監控溫度併發出警報
- 功耗 - 顯示當前電源模式和使用指標
AI 工作負載指標
- 推理延遲 - 對模型性能進行基準測試
- 吞吐量 - 計算已部署模型的每秒請求數
- 資源利用率 - 評估 GPU 內存和計算效率
- 模型準確率 - 驗證和監控模型性能
安全特性
SSH 安全
- 主機密鑰驗證和輪換
- 連接超時和重試邏輯
- 管理和清理憑證
- 記錄所有操作的審計日誌
容器安全
- 掃描鏡像漏洞
- 實施運行時安全策略
- 進行網絡隔離和分段
- 管理 AI 模型的機密信息
系統加固
- 管理防火牆配置
- 分離用戶權限
- 自動化系統更新
- 監控安全補丁
使用案例
邊緣 AI 開發
- 快速原型開發 AI 應用程序
- 模型優化和基準測試
- 分佈式推理部署
- 即時計算機視覺應用
IoT 與傳感器網絡
- 處理和分析傳感器數據
- 編排邊緣計算
- 遠程管理設備
- 預測性維護系統
工業應用
- 質量控制和檢查
- 預測分析
- 開發自主系統
- 集成工業 IoT
🔧 技術細節
工作原理
自然語言請求通過 Claude Desktop 經由 MCP 協議轉換為優化後的命令,然後在你的 Jetson Nano 上執行。
關鍵特性實現
- 邊緣 AI 管理:通過自動配置和管理 CUDA 環境、JetPack SDK 以及支持多種 AI 框架,實現高效的邊緣 AI 開發和部署。
- 硬件優化:利用系統工具和驅動程序,實現對電源、溫度、GPU 等硬件資源的即時監控和優化。
- 容器編排:藉助 NVIDIA Docker 和 Kubernetes/K3s,實現對容器的高效管理和分佈式 AI 工作負載的處理。
- 系統管理:通過 SSH 協議和系統管理工具,實現遠程、安全的系統管理和維護。
📄 許可證
文檔中未提及許可證相關信息。
🤝 貢獻說明
我們歡迎貢獻!請參閱 CONTRIBUTING.md 獲取貢獻指南。
開發優先級
- AI 框架集成 - 支持更多的機器學習框架
- 邊緣編排 - 高級 Kubernetes 邊緣部署
- 硬件抽象 - 支持其他 Jetson 平臺(AGX、Xavier)
- 監控增強 - 高級遙測和可觀測性