LiteLLM Proxyを使用してモデルを統合する

LiteLLM Proxyは、以下の機能を提供するプロキシサーバーとなります:

  • OpenAI形式の100以上のLLM(OpenAI、Azure、Vertex、Bedrock)への呼び出し

  • 予算やレート制限の設定、利用状況の追跡には仮想キーを使用します

Difyは、LiteLLM Proxyで利用可能なLLMおよびテキスト埋め込み機能モデルを統合するサポートを提供します。

クイック統合

ステップ1. LiteLLM Proxyサーバーを起動する

LiteLLMには、すべてのモデルが定義された構成が必要です。このファイルを litellm_config.yaml と呼びます。

LiteLLM構成の設定方法のドキュメント - こちら

model_list:
  - model_name: gpt-4
    litellm_params:
      model: azure/chatgpt-v-2
      api_base: https://openai-gpt-4-test-v-1.openai.azure.com/
      api_version: "2023-05-15"
      api_key: 
  - model_name: gpt-4
    litellm_params:
      model: azure/gpt-4
      api_key: 
      api_base: https://openai-gpt-4-test-v-2.openai.azure.com/
  - model_name: gpt-4
    litellm_params:
      model: azure/gpt-4
      api_key: 
      api_base: https://openai-gpt-4-test-v-2.openai.azure.com/

ステップ2. LiteLLM Proxyを起動する

docker run \
    -v $(pwd)/litellm_config.yaml:/app/config.yaml \
    -p 4000:4000 \
    ghcr.io/berriai/litellm:main-latest \
    --config /app/config.yaml --detailed_debug

成功すると、プロキシは http://localhost:4000 で実行されます。

ステップ3. DifyでLiteLLM Proxyを統合する

設定 > モデルプロバイダー > OpenAI-API互換 で、以下を入力してください:

  • モデル名: gpt-4

  • ベースURL: http://localhost:4000

    LiteLLMサービスにアクセス可能なベースURLを入力します。

  • モデルタイプ: Chat

  • モデルコンテキスト長: 4096

    モデルの最大コンテキスト長。不明な場合は、デフォルト値の4096を使用してください。

  • トークンの最大制限: 4096

    モデルによって返されるトークンの最大数。モデルに特定の要件がない場合は、モデルコンテキスト長と一致させることができます。

  • ビジョンのサポート: Yes

    gpt4-oのように画像理解(マルチモーダル)をサポートする場合は、このオプションをチェックしてください。

エラーがないことを確認したら、「保存」をクリックしてアプリケーションでモデルを使用してください。

埋め込みモデルの統合方法はLLMと同様で、モデルタイプをテキスト埋め込みに変更するだけです。

詳細情報

LiteLLMに関する詳細情報は、以下を参照してください:

Last updated