Seedance 2.0 是豆包大模型团队推出的新一代专业级多模态创作视频模型。支持图像、视频、音频等多种模态作为参考输入生成视频,打破单一素材的创作局限,同时具备视频编辑、视频延长等能力,可高精度还原物品细节、材质、音色、视效风格、运镜等,角色特征亦可稳定保持,赋予创作者如同导演般的掌控权。
模型参数
- 模型ID:
doubao-seedance-2.0/doubao-seedance-2.0-fast
- 模型价格:你可以在模型广场查看最新价格信息
- 调用入口:
https://geekai.co/api/v1/videos/generations
- 模型参数:参考视频 API 手册
- API认证:获取 API KEY
不支持视频 API 中的以下参数:
negative_prompt
with_audio(Seedance 2.0 生成的视频默认带音频)
size
quality
fps
Seedance 2.0 支持的 aspect_ratio 宽高比如下:
16:9:横屏(默认值)
9:16:竖屏
3:4:竖屏
4:3:横屏
1:1:方形
21:9:超宽屏
adaptive:自适应(根据输入图像自动选择合适的宽高比)
Seedance 2.0 支持的 duration 视频时长为 4-15 秒,默认值为 5 秒。
Seedance 2.0 支持的 resolution 分辨率为 480p、720p,默认值为 720p。
模型价格
Seedance 2.0 体验版的价格按照生成视频的分辨率和时长来计算,以下是价格速算表:
| 模型 | 分辨率 | 带参考视频 | 价格(单位:元/秒) |
|---|
| Seedance 2.0 Fast | 480p | 否 | 0.4 |
| Seedance 2.0 Fast | 720p | 否 | 0.8 |
| Seedance 2.0 Fast | 480p | 是 | Max(参考视频时长+生成视频时长, 系统最低计费时长) x 0.24 |
| Seedance 2.0 Fast | 720p | 是 | Max(参考视频时长+生成视频时长, 系统最低计费时长) x 0.48 |
| Seedance 2.0 | 480p | 否 | 0.5 |
| Seedance 2.0 | 720p | 否 | 1.0 |
| Seedance 2.0 | 480p | 是 | Max(参考视频时长+生成视频时长, 系统最低计费时长) x 0.3 |
| Seedance 2.0 | 720p | 是 | Max(参考视频时长+生成视频时长, 系统最低计费时长) x 0.6 |
需要注意的是,当传入参考视频时,计费秒数会按照参考视频时长与生成视频时长的秒数总和来计算,不过此时计费单价也有所降低,具体单价系数如上面表格所示。
计费秒数 = 取 [参考视频时长 + 生成视频时长] 与 [系统最低计费时长] 中的最大值,系统最低计费时长则根据生成视频时长变化,具体可以参照下面这个对照表:
| 输出时长(秒) | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
|---|
| 最低计费时长(秒) | 7 | 9 | 10 | 12 | 14 | 15 | 17 | 19 | 20 | 22 | 24 | 25 |
以 Seedance 2.0 生成 720p 视频时长5秒为例,系统最低计费时长为9秒,因此如果参考视频时长为3秒,则计费秒数为 max(3+5, 9) = 9 秒,对应计费金额为 9 x 0.6 = 5.4 元,如果参考视频时长为7秒,则计费秒数为 max(7+5, 9) = 12 秒,对应计费金额为 12 x 0.6 = 7.2 元。
使用极客智坊提供的低价代理渠道调用时,不同参数对应价格按照价格表x对应的折扣值即可:以 Seedance 2.0 高可用速度优先渠道为例,折扣值是 0.8,那么生成 5 秒 720p 视频价格是 1.0 x 5 x 0.8 = 4.0 元,其他参数依次类推。
文生视频
通过文字描述来生成对应视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"model": "doubao-seedance-2.0",
"prompt": "小猫对着镜头打哈欠",
"async": true
}'
响应是一个 JSON 对象,包含生成视频的任务 ID,你可以通过 视频查询接口 轮询视频生成状态。
图生视频
首帧
通过 image 传入单图即可实现基于首帧生成视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"model": "doubao-seedance-2.0",
"prompt": "无人机以极快速度穿越复杂障碍或自然奇观,带来沉浸式飞行体验",
"image": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_i2v.png",
"async": true
}'
首尾帧
通过 image + image_tail 传入首尾两张图即可实现基于首尾帧生成视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"model": "doubao-seedance-2.0",
"prompt": "图中女孩对着镜头说\"茄子\",360度环绕运镜",
"image": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_first_frame.jpeg",
"image_tail": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_last_frame.jpeg",
"async": true
}'
真人模式
上面的首尾帧生视频请求会报错,因为 Seedance 2.0 系列模型不支持直接上传含有真人人脸的参考图/视频。要解决这个问题,可以通过官方提供的自定义素材方案来绕开人脸审核拦截。
这个方案的原理就是将包含真人的图片/视频通过字节提供的自定义素材接口上传为自定义素材,然后在生成视频时使用这些自定义素材作为参考,从而绕开人脸审核拦截。
极客智坊现已支持自定义素材相关接口,我们以上面的包含人脸的参考图为例进行演示:
新增素材组
curl --location --request POST 'https://geekai.co/api/v1/assets/group' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"name": "测试素材组",
"platform": "bytedance"
}'
该接口响应中的 id 字段值就是素材组的唯一标识,用于后续创建自定义素材时指定所属素材组:
{
"id": "group-20260413164207-dxbff"
}
创建自定义素材
curl --location --request POST 'https://geekai.co/api/v1/assets/create' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"group_id": "group-20260413164207-dxbff",
"name": "自定义素材名称1",
"url": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_first_frame.jpeg",
"asset_type": "Image",
"platform": "bytedance"
}'
创建自定义素材是异步任务,该接口响应中的 id 字段值是创建素材的任务ID,可以通过该任务ID轮询素材创建状态,确认素材是否创建成功:
获取素材ID
curl --location --request GET 'https://geekai.co/api/v1/assets/{task_id}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY'
如果响应字段中的 status 为 succeed,则表示自定义素材创建成功,接口响应中的 id 字段值就是素材ID,可以在生成视频时使用该素材ID作为参考图:
{
"id": "asset-20260413174650-cbc4t",
"group_id": "group-20260413164207-dxbff",
"status": "succeed",
"asset_type": "Image",
"name": "自定义素材名称1",
"url": "https://ark-media-asset.tos-cn-beijing.volces.com/2122503570/041317465067726530.jpeg?X-Tos-Algorithm=TOS4-HMAC-SHA256&X-Tos-Credential=AKTP0VyX37NH37peqQWqz0vNnoQ9VgZzhOL6JFSCCxVjKv%2F20260413%2Fcn-beijing%2Ftos%2Frequest&X-Tos-Date=20260413T094655Z&X-Tos-Expires=43200&X-Tos-Security-Token=nChB2Wjd1UzdmM1haV2o0Q0lU.CiQKEFBDclNTZUVvd2trRUdYUXkSEEou-9fE3Eirrlujg7Y-7P0Qmq_xzgYYooD0zgYg-v3I6QcoBDCs7-stOh9Sb2xlRm9yQXJrQXNzZXQvUm9sZUZvckFya0Fzc2V0QgNhcmtSD1JvbGVGb3JBcmtBc3NldFgDegNhcms.whWAvmch6RYMkXBrquQTPQnDu9KxJeSiJL59QCMZH97iVGNMKa3xg_yqndICG3O0L5q6DMBtYTQ2dHfRwLPz9A&X-Tos-Signature=db37f16849430798b55ed3857f00c6a096d5e19fe7ba05a65654c7aa64cb911a&X-Tos-SignedHeaders=host"
}
由于上面首尾帧示例有两张含人脸的图片,我们按照同样的步骤创建尾帧的自定义素材,然后拿到素材ID。
通过自定义素材生成视频
通过将首尾帧的自定义素材ID传入 image 和 image_tail 参数,即可生成基于自定义素材的视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"model": "doubao-seedance-2.0",
"prompt": "图中女孩对着镜头说\"茄子\",360度环绕运镜",
"image": "asset://asset-20260413174650-cbc4t",
"image_tail": "asset://asset-20260413174650-cbc4t",
"async": true
}'
通过自定义素材传入参考图/视频和通用请求格式一样,支持将HTTP格式的图片/视频URL替换成了Asset格式的链接,即asset://素材ID。
参考生视频
Seedance 2.0 支持基于参考图+视频+音频生成视频。
参考图
通过 images 传入一张或多张图即可实现基于多张参考图生成视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"model": "doubao-seedance-2.0",
"prompt": "@图1戴着眼镜穿着蓝色T恤的男生和@图2的柯基小狗,坐在@图3的草坪上,3D卡通风格",
"images": [
"https://ark-project.tos-cn-beijing.volces.com/doc_image/seelite_ref_1.png",
"https://ark-project.tos-cn-beijing.volces.com/doc_image/seelite_ref_2.png",
"https://ark-project.tos-cn-beijing.volces.com/doc_image/seelite_ref_3.png"
],
"async": true
}'
多模态参考
你可以同时传入参考图、参考视频和参考音频来生成视频,实现多模态参考(最多支持9张参考图+3个参考视频+3个参考音频):
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"model": "doubao-seedance-2.0",
"prompt": "全程使用视频1的第一视角构图,全程使用音频1作为背景音乐。第一人称视角果茶宣传广告,seedance牌「苹苹安安」苹果果茶限定款;首帧为图片1,你的手摘下一颗带晨露的阿克苏红苹果,轻脆的苹果碰撞声;2-4 秒:快速切镜,你的手将苹果块投入雪克杯,加入冰块与茶底,用力摇晃,冰块碰撞声与摇晃声卡点轻快鼓点,背景音:「鲜切现摇」;4-6 秒:第一人称成品特写,分层果茶倒入透明杯,你的手轻挤奶盖在顶部铺展,在杯身贴上粉红包标,镜头拉近看奶盖与果茶的分层纹理;6-8 秒:第一人称手持举杯,你将图片2中的果茶举到镜头前(模拟递到观众面前的视角),杯身标签清晰可见,背景音「来一口鲜爽」,尾帧定格为图片2。背景声音统一为女生音色。",
"images": [
"https://ark-project.tos-cn-beijing.volces.com/doc_image/r2v_tea_pic1.jpg",
"https://ark-project.tos-cn-beijing.volces.com/doc_image/r2v_tea_pic2.jpg"
],
"video": [
"https://ark-project.tos-cn-beijing.volces.com/doc_video/r2v_tea_video1.mp4"
],
"audio": [
"https://ark-project.tos-cn-beijing.volces.com/doc_audio/r2v_tea_audio1.mp3"
],
"with_audio":true,
"aspect_ratio": "16:9",
"duration": 11,
"watermark": false
}'
参考视频包含真人也需要通过素材创建接口创建素材,然后使用素材ID作为参考视频传入,否则会报错。
视频编辑
你可以通过 video 参数上传参考视频来引导视频生成,生成的视频会在参考视频的基础上进行编辑:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
"model": "doubao-seedance-2.0",
"prompt": "将视频中的小猫换成小狗,其他不变",
"video": "https://static.geekai.co/video/2026/04/02/f2ffbccd56d65ab172aef3706e003aa7.mp4",
"async": true
}'
异步任务
Seedance 2.0 目前仅支持通过异步任务生成视频。
视频 API 中的 async 参数用于控制是否异步生成视频,默认为 false,表示创建视频接口会同步等待视频生成完毕并返回。如果设置为 true,则会异步生成视频并返回任务ID,你可以使用该任务ID轮询视频生成状态。
具体操作请参考Sora-2示例,流程完全一样。