Difyで大規模言語モデルの「競技場」を体験する方法:DeepSeek R1 VS o1 を例に
Last updated
Last updated
Difyのチャットアシスタントタイプのアプリケーションにプリインストールされている複数モデルのデバッグ機能を使うと、同じ質問に対する異なるLLMの回答効果を同時に比較できます。この記事では、DeepSeek R1とo1を例に、Dify内でさまざまな大規模言語モデルの回答品質を直感的に比較する方法をご紹介します。
Dify.AI クラウド版 / コミュニティ版
DeepSeek R1 API
OpenAI o1 API
テストを開始する前に、「右上」→「新しいプロバイダーを追加」 をクリックし、表示される指示に従って、複数のモデルのAPIキーを手動で追加してください。
チャットボットタイプのアプリケーションを作成し、アプリケーション名と説明を入力して作成を完了させます。
アプリケーション右上の大規模言語モデル選択ページで、o1
モデルを選択した後、「複数のモデルでデバッグ」 をタップし、deepseek-reasoner
モデルを追加します。
ダイアログボックスに質問を入力すると、入力した質問に対する各モデルの応答を同時に確認できます。
詳細や利用に関するご質問は、複数モデルのデバッグをご覧ください。