前置准备
- Dify 插件脚手架工具
- Python 环境,版本号 ≥ 3.12
创建新项目
在脚手架命令行工具的路径下,创建一个新的 dify 插件项目。dify 并拷贝到了 /usr/local/bin 路径下,可以运行以下命令创建新的插件项目:
选择模型插件模板
脚手架工具内的所有模板均已提供完整的代码项目,选择LLM 类型插件模板。
配置插件权限
为该 LLM 插件配置以下权限:- Models
- LLM
- Storage
模型类型配置说明
模型供应商支持以下两种模型的配置方式:-
predefined-model预定义模型 常见的大模型类型,只需要配置统一的供应商凭据即可使用模型供应商下的预定义模型。例如,OpenAI模型供应商下提供gpt-3.5-turbo-0125和gpt-4o-2024-05-13等一系列预定义模型。详细开发说明请参考接入预定义模型。 -
customizable-model自定义模型 需要手动新增每个模型的凭据配置,例如Xinference,它同时支持 LLM 和 Text Embedding,但是每个模型都有唯一的 model_uid,如果想要将两者同时接入,需要为每个模型配置一个 model_uid。详细开发说明请参考接入自定义模型。
predefined-model + customizable-model 或 predefined-model 等,即配置了供应商统一凭据可以使用预定义模型和从远程获取的模型,若新增了模型,则可以在此基础上额外使用自定义的模型。
新增模型供应商
新增一个模型供应商主要包含以下几个步骤:- 创建模型供应商配置 YAML 文件 在供应商目录下新增一个 YAML 文件,用于描述供应商的基本信息和参数配置。按照 ProviderSchema 的要求编写内容,确保与系统的规范保持一致。
- 编写模型供应商代码 创建供应商 class 代码,实现一个符合系统接口要求的 Python class 用于对接供应商的 API,完成核心功能实现。
以下是每个步骤的完整操作详情。
1. 创建模型供应商配置文件
Manifest 是 YAML 格式文件,声明了模型供应商基础信息、所支持的模型类型、配置方式、凭据规则。插件项目模板将在/providers 路径下自动生成配置文件。
以下是 Anthropic 模型配置文件 anthropic.yaml 的示例代码:
OpenAI提供微调模型,需要添加model_credential_schema 字段。
以下是 OpenAI 家族模型的示例代码:
2. 编写模型供应商代码
在/providers 文件夹下创建一个同名的 python 文件,例如 anthropic.py 并实现一个 class ,继承 __base.provider.Provider 基类,例如 AnthropicProvider。
以下是 Anthropic 示例代码:
__base.model_provider.ModelProvider 基类,实现 validate_provider_credentials 供应商统一凭据校验方法即可。
validate_provider_credentials 实现,在模型凭据校验方法实现后直接复用。
自定义模型供应商
对于其它类型模型供应商而言,请参考以下配置方法。 对于像Xinference 这样的自定义模型供应商,可以跳过完整实现的步骤。只需创建一个名为 XinferenceProvider 的空类,并在其中实现一个空的 validate_provider_credentials 方法。
具体说明:
• XinferenceProvider 是一个占位类,用于标识自定义模型供应商。
• validate_provider_credentials 方法虽然不会被实际调用,但必须存在,这是因为其父类是抽象类,要求所有子类都实现这个方法。通过提供一个空实现,可以避免因未实现抽象方法而导致的实例化错误。
参考资源
- 快速接入一个新模型 - 如何为现有供应商添加新模型
- 插件开发基本概念 - 返回插件开发入门指南
- 创建新模型提供者补充 - 了解更多高级配置
- 一般规范定义 - 了解插件清单文件的配置
编辑此页面 | 提交问题