用于创建对话完成的接口,支持多种对话模型,可配置各种参数来控制响应的生成。
citations)、搜索计费次数(billed_units)、消息内容支持视频、图片/视频输入tokens、推理模式设置(thinking)的支持,响应结构会根据是否是流式输出而变化,可以参考下面的请求示例进行判断。
关于对话模型 API 调用示例,可以参考这里:文本对话。
API认证token
对话模型
消息列表
[
{ "content": "你是一个助手", "role": "system" },
{ "content": "你好", "role": "user" }
]开启推理模式,仅支持切换思考模式的模型支持
推理模式细节配置
是否返回流式响应,默认false
是否开启后台任务模式,默认false,注意 stream 和 background 不能同时为 true
是否启用联网搜索,默认false
联网搜索配置明细,仅智谱清言和不支持内置搜索工具的模型适用
是否启用 URL Context,默认false,仅部分 Gemini 模型生效
温度参数,默认为代理模型默认值
最大输出token数,默认设置为当前模型最大支持输出
4096
是否设置响应格式为JSON对象,默认false
指定响应输出格式,默认不指定为文本输出,如果设置该配置项会覆盖json_mode设置
输出的多模态类型列表
text, image, audio, video 音频输出配置
图像生成配置,仅 Gemini 3 Pro Image 适用
可调用的工具函数列表
模型在生成响应时应如何选择使用哪个工具(或多个工具)
none, auto, required 工具函数调用配置(兼容gemini)
是否并发调用工具函数
是否强制出图,仅支持对话画图的模型支持
停止生成的触发词列表
是否返回token概率
每个位置返回的最可能token数
2
频率惩罚系数
存在惩罚系数
核采样阈值
最高概率采样数
随机数种子
生成结果数量
自定义元数据
第三方应用自行实现的会话ID
自动重试次数,默认0