ModelConfig 类型的参数,它的结构可以参考 通用规范定义,并且对于不同类型的模型,该结构会存在细微的差别。
例如对于 LLM 类型的模型,还需要包含 completion_params 与 mode 参数,你可以手动构建该结构,或者使用 model-selector 类型的参数或配置。
调用 LLM
入口
端点
tool_call 的能力,那么此处传入的 tools 将不会生效。
用例
如果想在Tool 中调用 OpenAI 的 gpt-4o-mini 模型,请参考以下示例代码:
tool_parameters 中的 query 参数。
最佳实践
并不建议手动来构建LLMModelConfig,而是允许用户可以在 UI 上选择自己想使用的模型,在这种情况下可以修改一下工具的参数列表,按照如下配置,添加一个 model 参数:
model 的 scope 为 llm,那么此时用户就只能选择 llm 类型的参数,从而可以将上述用例的代码改成以下代码:
调用 Summary
你可以请求该端点来总结一段文本,它会使用你当前 workspace 内的系统模型来总结文本。 入口text为需要被总结的文本。instruction为你想要额外添加的指令,它可以让你风格化地总结文本。
调用 TextEmbedding
入口调用 Rerank
入口调用 TTS
入口tts 端点返回的 bytes 流是一个 mp3 音频字节流,每一轮迭代返回的都是一个完整的音频。如果你想做更深入的处理任务,请选择合适的库进行。
调用 Speech2Text
入口file 是一个 mp3 格式编码的音频文件。
调用 Moderation
入口true 则表示 text 中包含敏感内容。
相关资源
- 反向调用 Dify 服务 - 了解反向调用的根本概念
- 反向调用 App - 了解如何调用平台内的 App
- 反向调用 Tool - 了解如何调用其它插件
- 模型插件开发指南 - 学习如何开发自定义模型插件
- 模型设计规则 - 了解模型插件的设计原则
编辑此页面 | 提交问题