ドキュメント再編の一環として、このページは段階的に廃止されます。
このカードをクリックして、最新情報が含まれる更新版にリダイレクトしてください。
新しいドキュメントに不一致や改善が必要な箇所を見つけた場合は、ページ下部の「問題を報告」ボタンを使用してください。
dify
にリネームし、/usr/local/bin
にコピーした場合は、次のコマンドで新しいプラグインプロジェクトを作成できます。
LLM
タイプのプラグインテンプレートを選択してください。
predefined-model
定義済みモデル
一般的な大規模モデルタイプで、統一されたプロバイダー認証情報を設定するだけで、モデルプロバイダーが提供する定義済みモデルを利用できます。たとえば、OpenAI
モデルプロバイダーは、gpt-3.5-turbo-0125
やgpt-4o-2024-05-13
など、様々な定義済みモデルを提供しています。詳細な開発手順については、定義済みモデルの接続を参照してください。
customizable-model
カスタムモデル
各モデルの認証情報設定を手動で追加する必要があります。たとえば、Xinference
はLLMとText Embeddingの両方をサポートしていますが、各モデルには一意のmodel_uidがあります。両方を同時に接続する場合は、各モデルにmodel_uidを設定する必要があります。詳細な開発手順については、カスタムモデルの接続を参照してください。
predefined-model
とcustomizable-model
の両方、またはpredefined-model
のみをサポートしている場合、プロバイダーの統一認証情報を設定することで、定義済みモデルとリモートから取得したモデルを使用できます。さらに、新しいモデルを追加した場合は、それに基づいてカスタムモデルを使用することも可能です。
/providers
パスに設定ファイルが自動的に生成されます。
以下は、Anthropic
モデルの設定ファイルanthropic.yaml
のサンプルコードです。
OpenAI
がファインチューニングモデルを提供する場合)を提供する場合は、model_credential_schema
フィールドを追加する必要があります。
以下は、OpenAI
ファミリーモデルのサンプルコードです。
/providers
フォルダに、同じ名前のPythonファイル(たとえば、anthropic.py
)を作成し、__base.provider.Provider
基本クラス(たとえば、AnthropicProvider
)を継承するclass
を実装します。
以下は、Anthropic
のサンプルコードです。
__base.model_provider.ModelProvider
基底クラスを継承し、validate_provider_credentials
プロバイダー統一認証情報検証メソッドを実装する必要があります。
validate_provider_credentials
の実装を後回しにして、モデル認証情報検証メソッドの実装後に直接再利用することもできます。
Xinference
のようなカスタムモデルプロバイダーの場合、完全な実装手順を省略できます。XinferenceProvider
という名前の空のクラスを作成し、その中に空のvalidate_provider_credentials
メソッドを実装するだけで済みます。
詳細説明:
XinferenceProvider
は、カスタムモデルプロバイダーを識別するためのプレースホルダーとして機能します。validate_provider_credentials
メソッドは実際には呼び出されませんが、親クラスが抽象クラスであるため、すべてのサブクラスがこのメソッドを実装する必要があります。空の実装を提供することで、抽象メソッドが実装されていないことによるインスタンス化エラーを回避できます。