GPUStackとの統合によるローカルモデルのデプロイ
Last updated
Was this helpful?
Last updated
Was this helpful?
は、AIモデルを実行するために設計されたオープンソースのGPUクラスターマネージャーです。
Difyは、大規模言語モデルの推論、埋め込み、再順位付け、音声からテキスト、テキストから音声への機能をローカル環境で展開するために、GPUStackとの統合を実現しています。
GPUStackを展開する際は、公式のを参照するか、以下の手順に従って簡単に統合できます。
GPUStackは、systemdやlaunchdベースのシステムにサービスとしてインストールするためのスクリプトを提供しています。この方法でGPUStackをインストールするには、次のコマンドを実行してください:
管理者としてPowerShellを実行し(PowerShell ISEは使用しないでください)、次のコマンドを実行してGPUStackをインストールします:
その後、表示される指示に従ってGPUStackのUIにアクセスできます。
GPUStackにホストされたLLMを使用する方法の例です:
GPUStack UIで「Models」ページに移動し、「Deploy Model」をクリック、次に「Hugging Face」をドロップダウンメニューから選択します。
左上の検索バーを使って、モデル名「Qwen/Qwen2.5-0.5B-Instruct-GGUF」を検索します。
モデルを展開するために「Save」をクリックします。
「API Keys」ページに移動し、「New API Key」をクリックします。
名前を入力し、「Save」をクリックします。
APIキーをコピーし、後で使用するために保存しておきます。
Settings > Model Providers > GPUStack
に移動し、以下の情報を入力します:
モデルタイプ:LLM
モデル名:qwen2.5-0.5b-instruct
サーバーURL:http://your-gpustack-server-ip
APIキー:コピーしたAPIキーを入力
モデルをアプリケーションで使用するために、「Save」をクリックしてください。
GPUStackに関する詳細情報は、を参照してください。