Hugging Faceのオープンソースモデルを統合
Last updated
Was this helpful?
Last updated
Was this helpful?
Difyはテキスト生成(Text-Generation)と埋め込み(Embeddings)をサポートしており、以下はそれに対応するHugging Faceモデルの種類です:
テキスト生成:,
埋め込み:
具体的な手順は以下の通りです:
Hugging Faceのアカウントが必要です()。
Hugging FaceのAPIキーを設定します()。
にアクセスし、対応するモデルの種類を選択します。
DifyはHugging Face上のモデルを次の2つの方法で接続できます:
Hosted Inference API。この方法はHugging Face公式がデプロイしたモデルを使用します。料金はかかりませんが、サポートされているモデルは少ないです。
Inference Endpoint。この方法は、Hugging Faceが接続しているAWSなどのリソースを使用してモデルをデプロイします。料金が発生します。
モデルの詳細ページの右側にHosted Inference APIのセクションがあるモデルのみがHosted Inference APIをサポートしています。以下の図のように表示されます:
モデルの詳細ページで、モデルの名前を取得できます。
設定 > モデルプロバイダー > Hugging Face > モデルタイプ
のエンドポイントタイプでHosted Inference APIを選択します。以下の図のように設定します:
APIトークンは記事の冒頭で設定したAPIキーです。モデル名は前のステップで取得したモデル名を入力します。
モデルの詳細ページの右側にあるDeploy
ボタンの下にInference EndpointsオプションがあるモデルのみがInference Endpointをサポートしています。以下の図のように表示されます:
モデルのデプロイボタンをクリックし、Inference Endpointオプションを選択します。以前にクレジットカードを登録していない場合は、カードの登録が必要です。手順に従って進めてください。カードを登録した後、以下の画面が表示されます:必要に応じて設定を変更し、左下のCreate EndpointボタンをクリックしてInference Endpointを作成します。
モデルがデプロイされると、エンドポイントURLが表示されます。
設定 > モデルプロバイダー > Hugging Face > モデルタイプ
のエンドポイントタイプでInference Endpointsを選択します。以下の図のように設定します:
APIトークンは記事の冒頭で設定したAPIキーです。テキスト生成モデルの名前は任意に設定可能ですが、埋め込みモデルの名前はHugging Faceの名前と一致する必要があります。
エンドポイントURLは前のステップでデプロイしたモデルのエンドポイントURLを入力します。
注意点:埋め込みの「ユーザー名 / 組織名」は、Hugging Faceののデプロイ方法に基づいて、「」または「」を入力する必要があります。