⚠️ 本文档由 AI 自动翻译。如有任何不准确之处,请参考英文原版。
ModelConfig 类型的参数。其结构可以参考通用规范定义,并且该结构对于不同类型的模型会有细微差异。
例如,对于 LLM 类型的模型,还需要包含 completion_params 和 mode 参数。您可以手动构建此结构,或使用 model-selector 类型的参数或配置。
调用 LLM
入口点
接口
tool_call 能力,这里传递的 tools 将不会生效。
使用示例
如果您想在Tool 中调用 OpenAI 的 gpt-4o-mini 模型,请参考以下示例代码:
tool_parameters 中的 query 参数。
最佳实践
不建议手动构建LLMModelConfig。相反,应该允许用户在 UI 上选择他们想要使用的模型。在这种情况下,您可以通过添加 model 参数来修改工具的参数列表,如下所示:
model 的 scope 被指定为 llm。这意味着用户只能选择 llm 类型的参数。因此,前面使用示例中的代码可以修改如下:
调用 Summary
您可以请求此接口来总结一段文本。它将使用当前工作空间内的系统模型来总结文本。 入口点text是要总结的文本。instruction是您想要添加的额外指令,允许您按照特定风格总结文本。
调用 TextEmbedding
入口点调用 Rerank
入口点调用 TTS
入口点tts 接口返回的 bytes 流是 mp3 音频字节流。每次迭代返回一个完整的音频片段。如果您想要进行更深入的处理任务,请选择合适的库。
调用 Speech2Text
入口点file 是以 mp3 格式编码的音频文件。
调用 Moderation
入口点true,表示 text 包含敏感内容。
相关资源
- 反向调用 Dify 服务 - 了解反向调用的基本概念
- 反向调用应用 - 了解如何调用平台内的应用
- 反向调用工具 - 了解如何调用其他插件
- 模型插件开发指南 - 了解如何开发自定义模型插件
- 模型设计规则 - 了解模型插件的设计原则
编辑此页面 | 报告问题