DeepSeek API
🇯🇵 Japanese
  • 🇺🇸 English
  • 🇯🇵 Japanese
  • 🇰🇷 Korea
  • 🇵🇹 Portuguese
  1. APIガイド
DeepSeek API
🇯🇵 Japanese
  • 🇺🇸 English
  • 🇯🇵 Japanese
  • 🇰🇷 Korea
  • 🇵🇹 Portuguese
  • 迅速に開始します
    • 最初のAPI呼び出し
    • モデルと価格
    • Temperature パラメーター
    • トークンとトークンの使用
    • 制限
    • エラーコード
  • APIリファレンス
    • 導入
    • チャット完了を作成します
      POST
    • FIM完了を作成(ベータ)
      POST
    • モデルをリストします
      GET
    • ユーザーのバランスを取得します
      GET
  • APIガイド
    • 推論モデル(Deepseek Reautoner)
    • 会話の複数のラウンド
    • チャットプレフィックスの完了(ベータ)
    • FIM完了(ベータ)
    • JSON出力
    • 関数呼び出し
  • FAQ
    • FAQ
  1. APIガイド

推論モデル(Deepseek Reautoner)

deepseek-reasoner DeepSeekによって開発された推論モデルです。最終的な回答を提供する前に、モデルは最初に、その応答の精度を高めるために思考の連鎖(COT)を生成します。当社のAPIは、ユーザーがdeepseek-reasonerによって生成されたCOTコンテンツにアクセスできるようにし、表示、表示、蒸留を可能にします。
deepseek-reasonerを使用する場合は、最初にOpenai SDKをアップグレードして、新しいパラメーターをサポートしてください。
pip3 install -U openai

API パラメーター#

入力:
max_tokens :COT出力が完了した後の最終応答の最大長で、デフォルトは4Kになり、最大8Kです。 COT出力は最大32Kトークンに到達する可能性があり、COTの長さ( reasoning_effort )を制御するパラメーターがまもなく利用可能になることに注意してください。
出力:
reasoning_content :COTのコンテンツ。出力構造のcontentと同じレベルです。詳細については、 APIの例を参照してください
content最終回答のコンテンツ
コンテキストの長さ:APIは最大コンテキスト長64Kをサポートし、出力の長さは64Kコンテキストの長さでreasoning_contentされません。
サポートされている機能:チャット完了、チャットプレフィックス完了(ベータ)
サポートされていない機能:機能コール
presence_penaltyさlogprobsてtop_logprobsないパラメーターfrequency_penalty temperature 、 top_p既存のソフトウェアとのfrequency_penalty性を確保するために、 temperature presence_penalty設定する、 top_p logprobsの設定、 top_logprobsエラーをトリガーします。

マルチラウンドの会話#

会話の各ラウンドで、モデルはCOT( reasoning_content )と最終回答( content )を出力します。会話の次のラウンドでは、以下の図に示すように、以前のラウンドのベッドはコンテキストに連結されていません。
img
reasoning_contentフィールドが入力メッセージのシーケンスに含まれている場合、APIは400エラーを返すことに注意してください。したがって、 APIリクエストを作成する前に、APIリクエストを行う前に、API応答からreasoning_contentフィールドを削除する必要があります。

APIの例#

次のコードは、Pythonを例として使用して、COTと最終回答へのアクセス方法と、マルチラウンドの会話を実施する方法を示しています。

鼻ストリーミング#

from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")

# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=messages
)

reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content

# Round 2
messages.append({'role': 'assistant', 'content': content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=messages
)
# ...

ストリーミング#

Previous
ユーザーのバランスを取得します
Next
会話の複数のラウンド
Built with