ドキュメント再編の一環として、このページは段階的に廃止されます。
このカードをクリックして、最新情報が含まれる更新版にリダイレクトしてください。
新しいドキュメントに不一致や改善が必要な箇所を見つけた場合は、ページ下部の「問題を報告」ボタンを使用してください。
__base.model_provider.ModelProvider
基底クラスを継承し、以下のインターフェースを実装します。
credentials
(object): 認証情報provider_credential_schema
で定義され、api_key
などが渡されます。検証に失敗した場合は、errors.validate.CredentialsValidateFailedError
エラーを発生させてください。注: プリ定義モデルはこのインターフェースを完全に実装する必要があります。カスタムモデルサプライヤーは、以下のような簡単な実装で十分です。
model
(string): モデル名credentials
(object): 認証情報provider_credential_schema
またはmodel_credential_schema
で定義され、api_key
などが渡されます。検証に失敗した場合は、errors.validate.CredentialsValidateFailedError
エラーを発生させてください。
InvokeError
タイプにマッピングする必要があります。Runtime Errors:
InvokeConnectionError
: 呼び出し接続エラーInvokeServerUnavailableError
: 呼び出しサービスが利用不可InvokeRateLimitError
: 呼び出しがレート制限に達したInvokeAuthorizationError
: 呼び出し認証失敗InvokeBadRequestError
: 呼び出しパラメータエラーInvokeConnectionError
などの例外を直接発生させることができます。
はい、以下に修正後の翻訳を示します。
__base.large_language_model.LargeLanguageModel
基底クラスを継承し、以下のインターフェースを実装します:
model
(string) モデル名credentials
(object) クレデンシャルprovider_credential_schema
または model_credential_schema
で定義され、api_key
などが渡されます。
prompt_messages
(array[PromptMessage]) プロンプト一覧Completion
タイプの場合、リストにはUserPromptMessage 要素を1つだけ渡します。モデルが Chat
タイプの場合、メッセージに応じてSystemPromptMessage、UserPromptMessage、AssistantPromptMessage、ToolPromptMessage 要素のリストを渡す必要があります。
- model_parameters
(object) モデルパラメータ。モデルパラメータは、モデルのYAML構成の parameter_rules
で定義されます。
- tools
(array[PromptMessageTool]) [optional] ツール一覧。function calling
における function
と同等です。つまり、ツール呼び出しのためのツール一覧を渡します。
- stop
(array[string]) [optional] 停止シーケンス。モデルの出力は、停止シーケンスで定義された文字列の手前で停止します。
- stream
(bool) ストリーミング出力かどうか。デフォルトは True
です。ストリーミング出力は Generator[LLMResultChunk]
を返し、非ストリーミング出力は LLMResult
を返します。
- user
(string) [optional] ユーザーの一意の識別子。ベンダーが不正行為を監視および検出するのに役立ちます。
Generator[LLMResultChunk]
を返し、非ストリーミング出力は LLMResult
を返します。
model
に応じて適切な tokenizer
を選択して計算する必要があります。対応するモデルが tokenizer
を提供していない場合は、AIModel
基底クラスの _get_num_tokens_by_gpt2(text: str)
メソッドを使用して計算できます。
None
を返します。
OpenAI
ベンダーのほとんどのファインチューニングモデルでは、ファインチューニングモデルの名前(例:gpt-3.5-turbo-1106
)からその基底クラスモデルを取得し、基底クラスモデルの事前定義されたパラメータルールを返すことができます。具体的な実装については、OpenAI を参照してください。
__base.text_embedding_model.TextEmbeddingModel
基底クラスを継承し、以下のインターフェースを実装します。
model
(string) モデル名
credentials
(object) クレデンシャル
クレデンシャルのパラメータは、ベンダーのYAML構成ファイルの provider_credential_schema
または model_credential_schema
で定義され、api_key
などが渡されます。
texts
(array[string]) テキスト一覧。バッチ処理が可能です。
user
(string) [optional] ユーザーの一意の識別子。LargeLanguageModel
と同様に、このインターフェースは対応する model
に応じて適切な tokenizer
を選択して計算する必要があります。対応するモデルが tokenizer
を提供していない場合は、AIModel
基底クラスの _get_num_tokens_by_gpt2(text: str)
メソッドを使用して計算できます。
__base.rerank_model.RerankModel
基底クラスを継承し、以下のインターフェースを実装します。
model
(string) モデル名credentials
(object) クレデンシャルprovider_credential_schema
または model_credential_schema
で定義され、api_key
などが渡されます。query
(string) 検索クエリdocs
(array[string]) 並べ替え対象のテキストリストscore_threshold
(float) [optional] スコア閾値top_n
(int) [optional] 上位n件のテキストを取得user
(string) [optional] ユーザーの一意の識別子__base.speech2text_model.Speech2TextModel
基底クラスを継承
model
(string) モデル名credentials
(object) クレデンシャルprovider_credential_schema
または model_credential_schema
で定義され、api_key
などが渡されます。file
(File) ファイルストリームuser
(string) [optional] ユーザーの一意の識別子__base.text2speech_model.Text2SpeechModel
を継承し、以下のインターフェースを実装します。
model
(string): モデル名credentials
(object): 認証情報
provider_credential_schema
または model_credential_schema
で定義され、api_key
などが渡されます。content_text
(string): 変換するテキストコンテンツstreaming
(bool): ストリーミング出力を行うかどうかuser
(string) [オプション]: ユーザーの一意な識別子
__base.moderation_model.ModerationModel
を継承し、以下のインターフェースを実装します。
model
(string): モデル名credentials
(object): 認証情報
provider_credential_schema
または model_credential_schema
で定義され、api_key
などが渡されます。text
(string): テキストコンテンツuser
(string) [オプション]: ユーザーの一意な識別子
False
、そうでない場合は True
を返します。
TextPromptMessageContent
および ImagePromptMessageContent
を初期化して渡す必要があります。
content
リストの一部として構成する必要があります。
content
リストの一部として構成する必要があります。data
には、画像の url
または base64
エンコードされた文字列を指定できます。
few-shots
やチャット履歴の入力に使用されます。
tool_calls
は、モデルに tools
が渡された後、モデルから返されるツール呼び出しのリストです。
content
にはツールの実行結果を渡します。