推理模式
DeepSeek
DeepSeek R1 系列及衍生蒸馏模型均为推理模型,且默认开启:
对于推理模型,可以从 AI 响应内容中通过 reasoning_content
字段读取推理的思考链内容并显示:
注意:推理模型通常不支持系统提示以及温度参数,因此在进行 API 调用的时候不要设置这两个参数。对于 DeepSeek 推理模型,还不支持函数调用及JSON输出功能,以及不支持
temperature
、top_p
、presence_penalty
、frequency_penalty
、logprobs
、top_logprobs
参数。
OpenAI
OpenAI 旗下的 o1 和 o3 系列模型均为推理模型,默认开启,且支持通过 thinking.reasoning_effort
设置推理的努力程度,可选值有 low
、medium
、high
,默认为 medium
:
OpenAI 推理的思考链内容默认通过 <think>
和 </think>
标签包裹,并且和 AI 响应内容混在一起,这在流式响应中很难提取,为了降低开发者兼容成本,极客智坊所有推理模型思考链内容均兼容 DeepSeek 推理模型,都是从 AI 响应内容的 reasoning_content
字段获取(如果没有思考链,则对应字段值为空)。
如果使用的是
o3-mini-high
推理模型,则默认努力程度为high
,不需要额外单独设置。
关于
thinking
配置的更多细节,请参考 API 手册说明。
Claude
Claude 3.7 及更高版本模型(即 Claude 3.7、Claude 4.0 系列模型)才支持推理模式,支持推理模式的 Cluade 模型都是混合推理模型,需要通过 enable_thinking
字段开启,并通过 thinking
字段配置用于思考的 tokens 预算:
如果请求设置了 max_tokens
,则 budget_tokens
的值不能超过 max_tokens
的值。Claude 开启推理模式后不支持 temperature
、top_p
、top_k
参数设置。
Claude 推理模式思考链内容也兼容 DeepSeek 推理模型,通过 reasoning_content
字段获取。
如果使用的是带
-thinking
后缀的模型ID,则默认已开启推理模式,且budget_tokens
值为 24000,可以不传递enable_thinking
和thinking
参数。
如果你想要启用 Claude Sonnet 3.7 最大支持 128K 输出的实验特性,可以通过将
thinking.reasoning_effort
设置为high
实现(仅 3.7 版本支持生效,其他版本会忽略该配置)。
Gemini
Gemini 2.5 开始所有模型默认为推理模型,且默认开启,你可以通过将 enable_thinking
设置为 false
关闭推理模式,以加速 AI 回复速度,如果你想要显示思考链内容,可以将 enable_thinking
设置为 true
,还可以通过 thinking.budget_tokens
调节用于推理的最大 tokens 数,该数值越大,思考深度越深:
Claude 推理模式思考链内容也兼容 DeepSeek 推理模型,通过 reasoning_content
字段获取。
仅 Gemini 2.5 系列模型支持
thinking.budget_tokens
参数,对于 Gemini 2.5 该参数值范围是 128-32768,如果未设置该参数,模型会自行决定,对于 Gemini 2.5 Flash,该参数值范围是 0-24576,0 表示关闭推理功能。
如果使用的是名称带
:no-thinking
后缀的模型,则默认已关闭推理模式,且budget_tokens
值为 0,可以不传递enable_thinking
及thinking
参数。
Qwen3
Qwen3 系列所有模型均为推理模式和非推理模式融合模型,且支持通过 enable_thinking
参数切换,默认关闭:
需要注意的是Qwen3系列模型关闭推理模式才可以使用函数调用功能,此外 qwen3-8b
、qwen3-14b
、qwen3-32b
、qwen3-30b-a3b
、qwen3-235b-a22b
均支持开源免费版本,加上 :free
后缀即可,你可以在模型广场进行筛选和查看。
GLM Z1 系列
GLM Z1 系列及衍生蒸馏模型均为推理模型,且默认开启:
GLM Z1 系列推理模型的思考链内容默认兼容 OpenAI,也是通过 <think>
和 </think>
标签包裹,并且和 AI 响应内容混在一起,和 OpenAI 一样,极客智坊也使其兼容了 DeepSeek 推理模型,可以从 AI 响应内容的 reasoning_content
字段获取思考链内容并展示(如果没有思考链,则对应字段值为空):
- 非流式响应示例
- 流式响应示例
其他推理模型
除了上面列举的之外,还有很多其他支持推理模式的 AI 模型,如 Grok 3、通义 QwQ/QvQ、ERNIE X1、混元 T1 等,所有推理模型请求/响应参数兼容 DeepSeek,对于不兼容的推理模型,极客智坊底层会自动对齐。
需要注意的是,只有推理模型支持推理模式,你可以在模型广场查看极客智坊支持的所有推理模型,目前极客智坊已支持40多个推理模型,特定模型还支持联网推理以及深度推理,如 DeepSeek 联网推理版、DeepSeek 深度推理版、Grok 深度推理版等:
另外,推理模型通常不支持系统提示以及温度参数,因此在进行 API 调用的时候不要设置这两个参数。