litellm_config.yaml
と呼びます。
LiteLLM構成の設定方法のドキュメント - こちら
http://localhost:4000
で実行されます。
設定 > モデルプロバイダー > OpenAI-API互換
で、以下を入力してください:
gpt-4
http://localhost:4000
LiteLLMサービスにアクセス可能なベースURLを入力します。
Chat
4096
モデルの最大コンテキスト長。不明な場合は、デフォルト値の4096を使用してください。
4096
モデルによって返されるトークンの最大数。モデルに特定の要件がない場合は、モデルコンテキスト長と一致させることができます。
Yes
gpt4-o
のように画像理解(マルチモーダル)をサポートする場合は、このオプションをチェックしてください。