🚀 Graphiti MCP Pro
English | 中文
Graphitiは、動的環境で動作するAIエージェント向けに特別に設計された、時間的に認識可能な知識グラフを構築およびクエリするためのフレームワークです。従来の検索拡張生成(RAG)方法とは異なり、Graphitiはユーザーの対話、構造化および非構造化の企業データ、外部情報を一貫したクエリ可能なグラフに継続的に統合します。このフレームワークは、データの増分更新、効率的な検索、正確な履歴クエリをサポートし、グラフ全体の再計算を必要としないため、対話型でコンテキストを認識するAIアプリケーションの開発に適しています。
このプロジェクトは、Graphitiに基づく強化されたメモリリポジトリMCPサービスと管理プラットフォームです。元のプロジェクトのMCPサービスと比較して、以下の核心的な利点を提供します:強化された核心機能、より広範なAIモデル互換性、包括的な視覚管理インターフェース。
✨ 主な機能
強化された核心機能
非同期並列処理
メモリの追加はMCPサービスの核心機能です。元の実装に基づいて、非同期並列処理メカニズムを導入しました。同じグループID(異なる開発プロジェクトなど)では、最大5つのメモリ追加タスクを並列で実行でき、処理効率が大幅に向上します。
タスク管理ツール
add_memory
タスクを管理するための4つの新しいMCPツールが追加されました:
list_add_memory_tasks
- すべてのadd_memory
タスクをリストするget_add_memory_task_status
-add_memory
タスクのステータスを取得するwait_for_add_memory_task
-add_memory
タスクの完了を待つcancel_add_memory_task
-add_memory
タスクをキャンセルする
統一された設定管理
コマンドラインパラメータ、環境変数、管理バックエンドデータベース設定間の不一致を解消するために、設定管理を最適化しました。
⚠️ 重要提示
管理バックエンドが有効になっている場合、
.env
環境設定ファイルのMCPサービスパラメータは初回起動時にのみ有効です。その後の設定は、管理バックエンドデータベースのパラメータに基づきます。
より広範なAIモデル互換性と柔軟性
強化されたモデル互換性
インストラクターライブラリとの統合により、モデル互換性が大幅に向上しました。現在、DeepSeek、Qwenなどの様々なモデル、さらにはOllama、vLLMを通じてローカルで実行されるモデルもサポートしています。ただし、OpenAI API互換インターフェースを提供する必要があります。
分離されたモデル設定
元の統一されたLLM設定は、3つの独立した設定に分割され、実際のニーズに基づいて柔軟に組み合わせることができます:
- 大規模モデル(LLM):エンティティと関係の抽出を担当する
- 小規模モデル(Small LLM):エンティティ属性の要約、関係の重複排除、再ランキングなどの軽量タスクを処理する
- 埋め込みモデル(Embedder):テキストベクトル化に専念する
⚠️ 重要提示
埋め込みモデルを設定する際には、そのAPIパスが上記の2つのLLMと異なることに注意してください。LLMはチャット完了パス
{base_url}/chat/completions
を使用し、テキスト埋め込みは{base_url}/embeddings
を使用します。管理バックエンドで「大規模モデルと同じ」を選択した場合、設定した大規模モデルがテキスト埋め込みをサポートしていることを確認してください。また、LLMまたは埋め込みモデルがローカルで実行されている間にdocker composeを介してサービスを実行する場合、
base_url
はhttp://host.docker.internal:{port}
として構成する必要があります。ポートはローカルで実行されているポートに合わせて調整する必要があります。
包括的な管理プラットフォーム
より良いユーザー体験と可観測性を提供するために、完全な管理バックエンドとWeb UIを開発しました。管理インターフェースを通じて、以下のことができます:
- サービス制御:MCPサービスの開始、停止、再起動
- 設定管理:設定のリアルタイム更新と調整
- 使用状況監視:詳細なトークン使用統計を表示する
- ログ閲覧:リアルタイムおよび履歴ログのクエリ
🚀 クイックスタート
Docker Composeでの実行(推奨)
-
プロジェクトをクローンする
git clone http://github.com/itcook/graphiti-mcp-pro # または git clone git@github.com:itcook/graphiti-mcp-pro.git cd graphiti-mcp-pro
-
環境変数を設定する(オプション)
# サンプル設定ファイルをコピーする mv .env.example.en .env # 指示に従って.envファイルを編集する
⚠️ 重要提示
以前のGraphiti MCPデータを引き続き使用する場合は、
.env
ファイルのNEO4J関連パラメータをNeo4jデータベースの接続情報に設定し、他のパラメータはデフォルトのままにしてください。
-
サービスを起動する
docker compose up -d
💡 使用建议
プロジェクトに更新があり、イメージを再構築する必要がある場合は、
docker compose up -d --build
を使用してください。安心してください。データは外部データベースに永続的に保存され、失われることはありません。
- 管理インターフェースにアクセスする デフォルトのアドレス:http://localhost:6062
手動インストール
⚠️ 重要提示 前提条件:
- Python 3.10以上とuvプロジェクトマネージャー
- Node.js 20以上
- アクセス可能なNeo4j 5.26以上のデータベースサービス
- AIモデルサービス
-
プロジェクトをクローンする
git clone http://github.com/itcook/graphiti-mcp-pro # または git clone git@github.com:itcook/graphiti-mcp-pro.git cd graphiti-mcp-pro
-
依存関係をインストールする
uv sync
-
環境変数を設定する
# サンプル設定ファイルをコピーする mv .env.example.en .env # 指示に従って.envファイルを編集する
-
MCPサービスを実行する
# 管理バックエンド付きでサービスを実行する uv run main.py -m # またはMCPサービスのみを実行する # uv run main.py
-
管理フロントエンドをビルドして実行する
フロントエンドディレクトリに入り、依存関係をインストールします:
cd manager/frontend pnpm install # または npm install / yarn
フロントエンドをビルドして実行します:
pnpm run build # または npm run build / yarn build pnpm run preview # または npm run preview / yarn preview
管理インターフェースにアクセスします:http://localhost:6062
重要な注意事項
既知の制限事項
- 🔒 セキュリティ通知:管理バックエンドは認証アクセスメカニズムを実装していません。サービスをパブリックサーバーに公開しないでください。
- 🧪 テストカバレッジ:リソースの制約により、プロジェクトは十分にテストされていません。個人使用のみを推奨します。
- 📡 トランスポートプロトコル:ストリーム可能なHTTPトランスポートプロトコルのみをサポートします。元のプロジェクトからstdioとsseのサポートを削除しました。
- ⚙️ コード最適化:一部のアーキテクチャ設計(依存性注入、例外処理、クライアントの分離など)はまだ最適化の余地があります。
使用上の推奨事項
- 設定指示:
.env.example.en
のセットアップ指示とコメントを注意深く読んでください。 - モデル選択:GPT/Gemini/Claudeなどのネイティブサポートされるモデルを使用し、詳細なランタイム情報が必要ない場合は、元のGraphiti MCPを使用することを検討してください。
- 問題フィードバック:使用上の問題があれば、IssuesまたはPull Requestsを送信してください。
🤖 Augment Codeの支援を受けて開発されました。







