推論モデル(Deepseek Reautoner)
deepseek-reasoner DeepSeekによって開発された推論モデルです。最終的な回答を提供する前に、モデルは最初に、その応答の精度を高めるために思考の連鎖(COT)を生成します。当社のAPIは、ユーザーがdeepseek-reasonerによって生成されたCOTコンテンツにアクセスできるようにし、表示、表示、蒸留を可能にします。deepseek-reasonerを使用する場合は、最初にOpenai SDKをアップグレードして、新しいパラメーターをサポートしてください。API パラメーター#
max_tokens :COT出力が完了した後の最終応答の最大長で、デフォルトは4Kになり、最大8Kです。 COT出力は最大32Kトークンに到達する可能性があり、COTの長さ( reasoning_effort )を制御するパラメーターがまもなく利用可能になることに注意してください。reasoning_content :COTのコンテンツ。出力構造のcontentと同じレベルです。詳細については、 APIの例を参照してくださいコンテキストの長さ:APIは最大コンテキスト長64Kをサポートし、出力の長さは64Kコンテキストの長さでreasoning_contentされません。presence_penaltyさlogprobsてtop_logprobsないパラメーターfrequency_penalty temperature 、 top_p既存のソフトウェアとのfrequency_penalty性を確保するために、 temperature presence_penalty設定する、 top_p logprobsの設定、 top_logprobsエラーをトリガーします。マルチラウンドの会話#
会話の各ラウンドで、モデルはCOT( reasoning_content )と最終回答( content )を出力します。会話の次のラウンドでは、以下の図に示すように、以前のラウンドのベッドはコンテキストに連結されていません。reasoning_contentフィールドが入力メッセージのシーケンスに含まれている場合、APIは400エラーを返すことに注意してください。したがって、 APIリクエストを作成する前に、APIリクエストを行う前に、API応答からreasoning_contentフィールドを削除する必要があります。APIの例#
次のコードは、Pythonを例として使用して、COTと最終回答へのアクセス方法と、マルチラウンドの会話を実施する方法を示しています。鼻ストリーミング#
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
# Round 2
messages.append({'role': 'assistant', 'content': content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
# ...
ストリーミング#
Modified at 2025-02-06 09:06:15