http://your_server_ip
でアクセスできます。
注:Model Providers の「DeepSeek」オプションはオンラインAPIサービスを指しますが、OllamaオプションはローカルにデプロイされたDeepSeekモデルに使用します。モデルを構成します。 • モデル名:デプロイしたモデル名(例:
deepseek-r1:7b
)を入力します。
• ベースURL:OllamaクライアントのローカルサービスURL(通常は http://your_server_ip:11434
)を設定します。
接続問題が発生した場合は、よくある質問をご参照ください。
• その他の設定:デフォルト値を保持します。DeepSeekモデルの仕様によると、最大トークン長は32,768です。
deepseek-r1:7b
モデルを選択します。チャットフロー/ワークフローアプリケーションを使用すると、ドキュメント認識、画像処理、音声認識などのより複雑なAIソリューションを作成できます。詳細については、ワークフローのドキュメントをご覧ください。
deepseek-r1:7b
モデルを選択し、{{#sys.query#}}
変数をシステムプロンプトに使用して、最初のノードに接続します。APIの問題が発生した場合は、ロードバランシングまたはエラー処理ノードを使用して処理できます。
{{#sys.query#}}
変数をシステムプロンプトに挿入して、最初のノードに接続します。APIの問題が発生した場合は、ロードバランシングまたはエラー処理ノードを使用して処理できます。
localhost
はコンテナ自体を指すため、Ollama は Docker コンテナ内からアクセスできません。
解決策:
Mac での環境変数の設定:
Ollama が macOS アプリケーションとして実行されている場合、環境変数は launchctl
を使用して設定する必要があります。
launchctl setenv
を呼び出します。host.docker.internal
に接続する必要があります。したがって、サービス内で localhost
を host.docker.internal
に置き換えると、正常に動作します。
systemctl
を使用して設定する必要があります。
systemctl edit ollama.service
を呼び出して、systemd サービスを編集します。これにより、エディターが開きます。[Service]
セクションの下に Environment
行を追加します。systemd
をリロードし、Ollama を再起動します。OLLAMA_HOST
、OLLAMA_MODELS
などのユーザーアカウントの新しい変数を作成または編集します。ollama
を実行します。OLLAMA_HOST
環境変数を使用して、バインドアドレスを変更します。