ollama -v
命令将输出版本号。
ollama run deepseek-r1:7b
安装 DeepSeek R1 模型。
http://your_server_ip
即可访问你的私有化 Dify 平台。
模型供应商内的 DeepSeek 对应在线 API 服务;本地部署的 DeepSeek 模型对应 Ollama 客户端。请确保 DeepSeek 模型已成功部署由 Ollama 客户端部署,详细部署说明请参考上文。选择 LLM 模型类型。
deepseek-r1:7b
http://your_server_ip:11434
。如遇连接问题,请参考常见问题。deepseek-r1:7b
模型。Chatflow / Workflow 应用可以帮助你搭建功能更加复杂的 AI 应用,例如具备文件识别、图像识别、语音识别等能力。详细说明请参考工作流文档。
deepseek-r1:7b
模型,并在系统提示词内添加 {{#sys.query#}}
变量以连接起始节点。如遇 API 异常,可以通过负载均衡功能或异常处理节点进行处理。launchctl setenv
设置环境变量:
host.docker.internal
,才能访问 docker 的主机,所以将 localhost
替换为 host.docker.internal
服务就可以生效了:
systemctl
设置环境变量:
systemctl edit ollama.service
编辑 systemd 服务。这将打开一个编辑器。
[Service]
部分下添加一行 Environment
:
systemd
并重启 Ollama:
OLLAMA_HOST
、OLLAMA_MODELS
等。
ollama
127.0.0.1
端口 11434,你可以通过 OLLAMA_HOST
环境变量更改绑定地址。