AWS Bedrock上のモデル(DeepSeek)の接続
Last updated
Was this helpful?
Last updated
Was this helpful?
は、大規模な言語モデル (LLMs) をデプロイするための総合的なプラットフォームです。開発者は、このプラットフォームを活用して、100 を超える新興の基盤モデル (FMs) を無断配布で検出、テスト、デプロイすることができます。
本文は、DeepSeek モデルのデプロイを例として、Bedrock Marketplace プラットフォーム上でモデルをデプロイし、Dify プラットフォームに統合する方法を説明します。これにより、DeepSeek モデルを基盤とした AI アプリケーションの迅速な構築をサポートします。
にアクセスできる AWS アカウント。
。
Bedrock マーケットプレイス に移動し、DeepSeek を検索します。
要求に基づいて DeepSeek モデルを選択します。
モデル詳細 ページに移動し、デプロイ をクリックします。
デプロイ設定を構成するための指示に従います。
注意: モデルバージョンは異なるコンピューティング構成を必要とします。これはコストに影響します。
デプロイが完了したら、Marketplace Deployments ページに移動し、自動生成された Endpoint を確認します。このエンドポイントは、SageMaker エンドポイント に相当し、Dify プラットフォームに接続するために使用されます。
Dify 管理パネルにログインし、設定 ページに移動します。
モデルプロバイダー ページで、Amazon SageMaker を選択します。
モデルを追加 をクリックし、以下の情報を入力します:
モデルタイプ: モデルタイプとして LLM を選択します。
モデル名: モデルにカスタム名を指定します。
SageMaker エンドポイント: Bedrock マーケットプレイスから取得したエンドポイントを入力します。
Dify を開き、新しいアプリを作成 を選択します。
チャットフロー または ワークフロー を選択します。
LLM ノードを追加します。
モデルの応答を確認します (以下のスクリーンショット参照)。
注意: 追加のテストとして、チャットボット アプリケーションを作成することもできます。
コンピューティング インスタンスが正しく構成され、AWS のパーミッションが適切に設定されていることを確認します。如果問題が解決しない場合は、モデルを再デプロイするか、AWS カスタマー サポートに連絡してください。