Ollamaでデプロイしたローカルモデルを統合
Last updated
Last updated
Ollamaは、Llama 2、Mistral、LlavaといったLLMを簡単にデプロイできるように設計された、クロスプラットフォーム対応の推論フレームワーククライアントです(MacOS、Windows、Linuxに対応)。ワンクリックでセットアップできるOllamaを利用すれば、LLMをローカル環境で実行でき、データを手元のマシンに保持することで、データプライバシーとセキュリティを強化できます。
Ollamaをダウンロード
https://ollama.com/downloadにアクセスし、お使いのシステムに対応したOllamaクライアントをダウンロードしてください。
Ollamaを実行し、Llama3.2とチャット
起動が成功すると、Ollamaはローカルポート11434でAPIサービスを開始します。このサービスには、http://localhost:11434
からアクセスできます。
他のモデルについては、Ollama Modelsで詳細をご確認ください。
DifyへのOllama統合
Difyの設定画面で、「モデルプロバイダー」>「Ollama」を選択し、以下の情報を入力します。
モデル名: llama3.2
ベースURL: http://<your-ollama-endpoint-domain>:11434
OllamaサービスにアクセスできるベースURLを入力してください。パブリックURLを入力してもエラーが発生する場合は、FAQを参照し、すべてのIPアドレスからOllamaサービスにアクセスできるよう環境変数を変更してください。
DifyをDockerでデプロイしている場合は、ローカルネットワークのIPアドレス(例:http://192.168.1.100:11434
や http://host.docker.internal:11434
)を使用してサービスにアクセスすることを推奨します。
ローカルでソースコードをデプロイしている場合は、http://localhost:11434
を使用してください。
モデルタイプ: Chat
モデルコンテキスト長: 4096
モデルが一度に処理できる最大コンテキスト長です。不明な場合は、デフォルト値の4096を使用してください。
最大トークン制限: 4096
モデルが返す最大トークン数です。モデルに特別な要件がない場合は、モデルのコンテキスト長と同じ値に設定できます。
Visionのサポート: はい
llava
のように、画像認識(マルチモーダル)をサポートするモデルを使用する場合は、このオプションをオンにしてください。
エラーがないことを確認したら、「保存」をクリックして、アプリでモデルを使用します。
Embeddingモデルの統合もLLMと同様の手順で行いますが、モデルタイプを「Text Embedding」に変更するだけです。
Ollamaモデルの使用
設定が必要なアプリの「プロンプトエンジニアリング」ページを開き、Ollamaプロバイダーの中からllava
モデルを選択し、モデルパラメーターを設定して使用します。
このエラーは、OllamaサービスがDockerコンテナからアクセスできない場合に発生します。localhost
は通常、ホストマシンや他のコンテナではなく、コンテナ自体を指します。
この問題を解決するには、Ollamaサービスをネットワークに公開する必要があります。
OllamaをmacOSアプリとして実行している場合は、環境変数を launchctl
を使用して設定する必要があります。
各環境変数に対して、launchctl setenv
を実行します。
Ollamaアプリを再起動します。
上記の手順で解決しない場合は、以下の方法を試してください。
問題はDocker自体にあり、Dockerホストにアクセスするには、host.docker.internal
に接続する必要があります。したがって、サービス内で localhost
を host.docker.internal
に置き換えることで、正常に動作するようになります。
Ollamaをsystemdサービスとして実行している場合は、環境変数を systemctl
を使用して設定する必要があります。
systemctl edit ollama.service
を実行してsystemdサービスを編集します。これにより、エディターが開きます。
各環境変数に対して、[Service]
セクションの下に Environment
行を追加します。
保存してエディターを閉じます。
systemd
をリロードし、Ollamaを再起動します。
Windowsでは、Ollamaはユーザーとシステムの環境変数を継承します。
まず、タスクバーにあるOllamaのアイコンをクリックしてOllamaを終了します。
コントロールパネルからシステム環境変数を編集します。
OLLAMA_HOST
や OLLAMA_MODELS
など、ユーザーアカウントの新しい環境変数を作成または編集します。
[OK/適用] をクリックして保存します。
新しいターミナルウィンドウから ollama
を実行します。
Ollamaはデフォルトで127.0.0.1のポート11434にバインドされています。OLLAMA_HOST
環境変数を使用して、バインドするアドレスを変更してください。
Ollamaの詳細については、以下を参照してください。