http://localhost:11434
からアクセスできます。
他のモデルについては、Ollama Modelsで詳細をご確認ください。
llama3.2
http://<your-ollama-endpoint-domain>:11434
OllamaサービスにアクセスできるベースURLを入力してください。パブリックURLを入力してもエラーが発生する場合は、FAQを参照し、すべてのIPアドレスからOllamaサービスにアクセスできるよう環境変数を変更してください。
DifyをDockerでデプロイしている場合は、ローカルネットワークのIPアドレス(例:http://192.168.1.100:11434
や http://host.docker.internal:11434
)を使用してサービスにアクセスすることを推奨します。
ローカルでソースコードをデプロイしている場合は、http://localhost:11434
を使用してください。
Chat
4096
モデルが一度に処理できる最大コンテキスト長です。不明な場合は、デフォルト値の4096を使用してください。
4096
モデルが返す最大トークン数です。モデルに特別な要件がない場合は、モデルのコンテキスト長と同じ値に設定できます。
はい
llava
のように、画像認識(マルチモーダル)をサポートするモデルを使用する場合は、このオプションをオンにしてください。
llava
モデルを選択し、モデルパラメーターを設定して使用します。
localhost
は通常、ホストマシンや他のコンテナではなく、コンテナ自体を指します。
この問題を解決するには、Ollamaサービスをネットワークに公開する必要があります。
launchctl
を使用して設定する必要があります。
launchctl setenv
を実行します。
host.docker.internal
に接続する必要があります。したがって、サービス内で localhost
を host.docker.internal
に置き換えることで、正常に動作するようになります。
systemctl
を使用して設定する必要があります。
systemctl edit ollama.service
を実行してsystemdサービスを編集します。これにより、エディターが開きます。
[Service]
セクションの下に Environment
行を追加します。
systemd
をリロードし、Ollamaを再起動します。
OLLAMA_HOST
や OLLAMA_MODELS
など、ユーザーアカウントの新しい環境変数を作成または編集します。ollama
を実行します。OLLAMA_HOST
環境変数を使用して、バインドするアドレスを変更してください。