推理模式
DeepSeek
DeepSeek R1 系列及衍生蒸馏模型均为推理模型,且默认开启:
对于推理模型,可以从 AI 响应内容中通过 reasoning_content
字段读取推理的思考链内容并显示:
注意:推理模型通常不支持系统提示以及温度参数,因此在进行 API 调用的时候不要设置这两个参数。对于 DeepSeek 推理模型,还不支持函数调用及JSON输出功能,以及不支持
temperature
、top_p
、presence_penalty
、frequency_penalty
、logprobs
、top_logprobs
参数。
OpenAI
OpenAI 旗下的 o1 和 o3 系列模型均为推理模型,且支持通过 thinking.reasoning_effort
设置推理的努力程度,可选值有 low
、medium
、high
,默认为 medium
:
OpenAI 推理的思考链内容默认通过 <think>
和 </think>
标签包裹,并且和 AI 响应内容混在一起,这在流式响应中很难提取,为了降低开发者兼容成本,极客智坊所有推理模型思考链内容均兼容 DeepSeek 推理模型,都是从 AI 响应内容的 reasoning_content
字段获取(如果没有思考链,则对应字段值为空)。
如果使用的是
o3-mini-high
推理模型,则默认努力程度为high
。
关于
think
配置的更多细节,请参考 API 手册说明。
Claude
Claude 只有目前只有 claude-3-7-sonnet
模型支持推理模式,可以通过 thinking
字段设置推理模式是否开启以及用于思考的 tokens 预算:
如果请求设置了 max_tokens
,则 budget_tokens
的值不能超过 max_tokens
的值。Claude 3.7 Sonnet 推理模式不支持 temperature
、top_p
、top_k
参数设置。
Claude 推理模式思考链内容也兼容 DeepSeek 推理模型,通过 reasoning_content
字段获取。
如果使用的是
claude-3-7-sonnet-thinking
模型,则默认已开启推理模式,且budget_tokens
值为 32000,可以不传递thinking
参数。
GLM Z1 系列
GLM Z1 系列及衍生蒸馏模型均为推理模型,且默认开启:
GLM Z1 系列推理模型的思考链内容默认兼容 OpenAI,也是通过 <think>
和 </think>
标签包裹,并且和 AI 响应内容混在一起,和 OpenAI 一样,极客智坊也使其兼容了 DeepSeek 推理模型,可以从 AI 响应内容的 reasoning_content
字段获取思考链内容并展示(如果没有思考链,则对应字段值为空):
- 非流式响应示例
- 流式响应示例
Gemini
Gemini 2.5 开始所有模型默认为推理模型,不需要任何额外配置,默认开启,Gemini 2.5 Flash 支持通过 thinking
配置项关闭推理模式,以加速 AI 回复速度:
Gemini 推理模型没有思考链内容输出,所以不需要额外处理。
如果使用的是
gemini-2.5-flash-preview-04-17:no-thinking
模型,则默认已关闭推理模式,且budget_tokens
值为 0,可以不传递thinking
参数。
其他推理模型
除了上面列举的之外,还有很多其他支持推理模式的 AI 模型,如 Grok 3、通义 QwQ/QvQ、ERNIE X1、混元 T1 等,所有推理模型请求/响应参数兼容 DeepSeek,对于不兼容的推理模型,极客智坊底层会自动对齐。
需要注意的是,只有推理模型支持推理模式,你可以在模型广场查看极客智坊支持的所有推理模型,目前极客智坊已支持40多个推理模型,特定模型还支持联网推理以及深度推理,如 DeepSeek 联网推理版、DeepSeek 深度推理版、Grok 深度推理版等:
另外,推理模型通常不支持系统提示以及温度参数,因此在进行 API 调用的时候不要设置这两个参数。