接入 Hugging Face 上的开源模型
Last updated
Last updated
Dify 支持 Text-Generation 和 Embeddings,以下是与之对应的 Hugging Face 模型类型:
Text-Generation:text-generation,text2text-generation
Embeddings:feature-extraction
具体步骤如下:
你需要有 Hugging Face 账号(注册地址)。
设置 Hugging Face 的 API key(获取地址)。
进入 Hugging Face 模型列表页,选择对应的模型类型。
Dify 支持用两种方式接入 Hugging Face 上的模型:
Hosted Inference API。这种方式是用的 Hugging Face 官方部署的模型。不需要付费。但缺点是,只有少量模型支持这种方式。
Inference Endpoint。这种方式是用 Hugging Face 接入的 AWS 等资源来部署模型,需要付费。
模型详情页右侧有包含 Hosted inference API 的 区域才支持 Hosted inference API 。如下图所:
在模型详情页,可以获得模型的名称。
在 设置 > 模型供应商 > Hugging Face > 模型类型
的 Endpoint Type 选择 Hosted Inference API。如下图所示:
API Token 为文章开头设置的 API Key。模型名字为上一步获得的模型名字。
模型详情页右侧的 Deploy
按钮下有 Inference Endpoints 选项的模型才支持 Inference Endpoint。如下图所示:
点击模型的部署按钮,选择 Inference Endpoint 选项。如果之前没绑过银行卡的,会需要绑卡。按流程走即可。绑过卡后,会出现下面的界面:按需求修改配置,点击左下角的 Create Endpoint 来创建 Inference Endpoint。
模型部署好后,就可以看到 Endpoint URL。
在 设置 > 模型供应商 > Hugging Face > 模型类型
的 Endpoint Type 选择 Inference Endpoints。如下图所示:
API Token 为文章开头设置的 API Key。Text-Generation 模型名字随便起,Embeddings 模型名字需要跟 Hugging Face 的保持一致。
Endpoint URL 为 上一步部署模型成功后获得的 Endpoint URL。
注意:Embeddings 的「用户名 / 组织名称」,需要根据你在 Hugging Face 的 Inference Endpoints 部署方式,来填写「用户名」或者「组织名称」。