DeepSeek

DeepSeek R1 系列及衍生蒸馏模型均为推理模型,且默认开启:

curl https://geekai.co/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $GEEKAI_API_KEY" \
-d '{
    "model": "deepseek-reasoner",
    "messages": [
        {"role": "user", "content": "你好"}
    ],
    "stream": false
}'

对于推理模型,可以从 AI 响应内容中通过 reasoning_content 字段读取推理的思考链内容并显示:

{
    "id": "02174473184980118a5d045ccc6bc157c3dd771c8dafe42a7c3c9",
    "created": 1744731857,
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "\n\n你好!很高兴见到你,有什么我可以帮忙的吗?无论是问题、建议还是闲聊,我都在这里为你服务。😊",
                "reasoning_content": "好,用户发来了“你好”,这是常见的中文问候。我需要用中文回应,保持友好和自然。首先应该回复问候,比如“你好!有什么我可以帮助你的吗?”然后可以加上一句开放式的提问,鼓励用户进一步说明需求。注意不要用太正式的语气,保持亲切。同时检查有没有拼写错误,确保回答正确无误。另外,可能需要考虑用户接下来可能的问题,提前准备好相关的信息。比如,用户可能会问天气、新闻或者需要建议等。但在这个阶段,保持简洁和友好最重要。不需要太长的回复,避免让用户感到信息过载。确认回复符合公司的指导方针,没有涉及敏感内容。然后发送回复即可。\n"
            },
            "finish_reason": "stop"
        }
    ],
    "model": "deepseek-reasoner",
    "object": "chat.completion",
    "usage": {
        "prompt_tokens": 6,
        "completion_tokens": 169,
        "total_tokens": 175,
        "completion_tokens_details": {
            "reasoning_tokens": 142
        }
    }
}

注意:推理模型通常不支持系统提示以及温度参数,因此在进行 API 调用的时候不要设置这两个参数。对于 DeepSeek 推理模型,还不支持函数调用及JSON输出功能,以及不支持 temperaturetop_ppresence_penaltyfrequency_penaltylogprobstop_logprobs 参数。

OpenAI

OpenAI 旗下的 o1 和 o3 系列模型均为推理模型,且支持通过 thinking.reasoning_effort 设置推理的努力程度,可选值有 lowmediumhigh,默认为 medium

curl --location --request POST 'https://geekai.dev/api/v1/chat/completions' \
--header 'Authorization: Bearer {YOUR_GEEKAI_API_KEY}' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "o3-mini",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ],
    "thinking": {
        "reasoning_effort": "high"
    },
    "stream": true
}'

OpenAI 推理的思考链内容默认通过 <think></think> 标签包裹,并且和 AI 响应内容混在一起,这在流式响应中很难提取,为了降低开发者兼容成本,极客智坊所有推理模型思考链内容均兼容 DeepSeek 推理模型,都是从 AI 响应内容的 reasoning_content 字段获取(如果没有思考链,则对应字段值为空)。

如果使用的是 o3-mini-high 推理模型,则默认努力程度为 high

关于 think 配置的更多细节,请参考 API 手册说明

Claude

Claude 只有目前只有 claude-3-7-sonnet 模型支持推理模式,可以通过 thinking 字段设置推理模式是否开启以及用于思考的 tokens 预算:

curl --location --request POST 'https://geekai.dev/api/v1/chat/completions' \
--header 'Authorization: Bearer {YOUR_GEEKAI_API_KEY}' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "claude-3-7-sonnet-latest",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ],
    "thinking": {
        enabled: true,
        "budget_tokens": 32000
    },
    "stream": true
}'

如果请求设置了 max_tokens,则 budget_tokens 的值不能超过 max_tokens 的值。Claude 3.7 Sonnet 推理模式不支持 temperaturetop_ptop_k 参数设置。

Claude 推理模式思考链内容也兼容 DeepSeek 推理模型,通过 reasoning_content 字段获取。

如果使用的是 claude-3-7-sonnet-thinking 模型,则默认已开启推理模式,且 budget_tokens 值为 32000,可以不传递 thinking 参数。

GLM Z1 系列

GLM Z1 系列及衍生蒸馏模型均为推理模型,且默认开启:

curl https://geekai.co/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $GEEKAI_API_KEY" \
-d '{
    "model": "glm-z1-flash",
    "messages": [
        {"role": "user", "content": "你好"}
    ],
    "stream": false
}'

GLM Z1 系列推理模型的思考链内容默认兼容 OpenAI,也是通过 <think></think> 标签包裹,并且和 AI 响应内容混在一起,和 OpenAI 一样,极客智坊也使其兼容了 DeepSeek 推理模型,可以从 AI 响应内容的 reasoning_content 字段获取思考链内容并展示(如果没有思考链,则对应字段值为空):

  • 非流式响应示例

  • 流式响应示例

Gemini

Gemini 2.5 开始所有模型默认为推理模型,不需要任何额外配置,默认开启,Gemini 2.5 Flash 支持通过 thinking 配置项关闭推理模式,以加速 AI 回复速度:

curl https://geekai.dev/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $GEEKAI_API_KEY" \
-d '{
    "model": "gemini-2.5-flash-preview-04-17",
    "messages": [
        {"role": "user", "content": "1+1为什么等于2?"}
    ],
    "thinking": {
        enabled: false
    },
}'

Gemini 推理模型没有思考链内容输出,所以不需要额外处理。

如果使用的是 gemini-2.5-flash-preview-04-17:no-thinking 模型,则默认已关闭推理模式,且 budget_tokens 值为 0,可以不传递 thinking 参数。

其他推理模型

除了上面列举的之外,还有很多其他支持推理模式的 AI 模型,如 Grok 3、通义 QwQ/QvQ、ERNIE X1、混元 T1 等,所有推理模型请求/响应参数兼容 DeepSeek,对于不兼容的推理模型,极客智坊底层会自动对齐。

需要注意的是,只有推理模型支持推理模式,你可以在模型广场查看极客智坊支持的所有推理模型,目前极客智坊已支持40多个推理模型,特定模型还支持联网推理以及深度推理,如 DeepSeek 联网推理版、DeepSeek 深度推理版、Grok 深度推理版等:

另外,推理模型通常不支持系统提示以及温度参数,因此在进行 API 调用的时候不要设置这两个参数。