跳转到主要内容
Seedance 2.0 是豆包大模型团队推出的新一代专业级多模态创作视频模型。支持图像、视频、音频等多种模态作为参考输入生成视频,打破单一素材的创作局限,同时具备视频编辑、视频延长等能力,可高精度还原物品细节、材质、音色、视效风格、运镜等,角色特征亦可稳定保持,赋予创作者如同导演般的掌控权。

模型参数

  • 模型ID:doubao-seedance-2.0/doubao-seedance-2.0-fast
  • 模型价格:你可以在模型广场查看最新价格信息
  • 调用入口:https://geekai.co/api/v1/videos/generations
  • 模型参数:参考视频 API 手册
  • API认证:获取 API KEY
不支持视频 API 中的以下参数:
  • negative_prompt
  • with_audio(Seedance 2.0 生成的视频默认带音频)
  • size
  • quality
  • fps
Seedance 2.0 支持的 aspect_ratio 宽高比如下:
  • 16:9:横屏(默认值)
  • 9:16:竖屏
  • 3:4:竖屏
  • 4:3:横屏
  • 1:1:方形
  • 21:9:超宽屏
  • adaptive:自适应(根据输入图像自动选择合适的宽高比)
Seedance 2.0 支持的 duration 视频时长为 4-15 秒,默认值为 5 秒。 Seedance 2.0 支持的 resolution 分辨率为 480p720p,默认值为 720p

模型价格

Seedance 2.0 体验版的价格按照生成视频的分辨率和时长来计算,以下是价格速算表:
模型分辨率带参考视频价格(单位:元/秒)
Seedance 2.0 Fast480p0.4
Seedance 2.0 Fast720p0.8
Seedance 2.0 Fast480pMax(参考视频时长+生成视频时长, 系统最低计费时长) x 0.24
Seedance 2.0 Fast720pMax(参考视频时长+生成视频时长, 系统最低计费时长) x 0.48
Seedance 2.0480p0.5
Seedance 2.0720p1.0
Seedance 2.0480pMax(参考视频时长+生成视频时长, 系统最低计费时长) x 0.3
Seedance 2.0720pMax(参考视频时长+生成视频时长, 系统最低计费时长) x 0.6
需要注意的是,当传入参考视频时,计费秒数会按照参考视频时长与生成视频时长的秒数总和来计算,不过此时计费单价也有所降低,具体单价系数如上面表格所示。
计费秒数 = 取 [参考视频时长 + 生成视频时长] 与 [系统最低计费时长] 中的最大值,系统最低计费时长则根据生成视频时长变化,具体可以参照下面这个对照表:
输出时长(秒)456789101112131415
最低计费时长(秒)7910121415171920222425
以 Seedance 2.0 生成 720p 视频时长5秒为例,系统最低计费时长为9秒,因此如果参考视频时长为3秒,则计费秒数为 max(3+5, 9) = 9 秒,对应计费金额为 9 x 0.6 = 5.4 元,如果参考视频时长为7秒,则计费秒数为 max(7+5, 9) = 12 秒,对应计费金额为 12 x 0.6 = 7.2 元。 使用极客智坊提供的低价代理渠道调用时,不同参数对应价格按照价格表x对应的折扣值即可:以 Seedance 2.0 高可用速度优先渠道为例,折扣值是 0.8,那么生成 5 秒 720p 视频价格是 1.0 x 5 x 0.8 = 4.0 元,其他参数依次类推。

文生视频

通过文字描述来生成对应视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "model": "doubao-seedance-2.0",
    "prompt": "小猫对着镜头打哈欠",
    "async": true
}'
响应是一个 JSON 对象,包含生成视频的任务 ID,你可以通过 视频查询接口 轮询视频生成状态。

图生视频

首帧 通过 image 传入单图即可实现基于首帧生成视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "model": "doubao-seedance-2.0",
    "prompt": "无人机以极快速度穿越复杂障碍或自然奇观,带来沉浸式飞行体验",
    "image": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_i2v.png",
    "async": true
}'
首尾帧 通过 image + image_tail 传入首尾两张图即可实现基于首尾帧生成视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "model": "doubao-seedance-2.0",
    "prompt": "图中女孩对着镜头说\"茄子\",360度环绕运镜",
    "image": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_first_frame.jpeg",
    "image_tail": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_last_frame.jpeg",
    "async": true
}'

真人模式

上面的首尾帧生视频请求会报错,因为 Seedance 2.0 系列模型不支持直接上传含有真人人脸的参考图/视频。要解决这个问题,可以通过官方提供的自定义素材方案来绕开人脸审核拦截。 这个方案的原理就是将包含真人的图片/视频通过字节提供的自定义素材接口上传为自定义素材,然后在生成视频时使用这些自定义素材作为参考,从而绕开人脸审核拦截。 极客智坊现已支持自定义素材相关接口,我们以上面的包含人脸的参考图为例进行演示: 新增素材组
curl --location --request POST 'https://geekai.co/api/v1/assets/group' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "name": "测试素材组",
    "platform": "bytedance"
}'
该接口响应中的 id 字段值就是素材组的唯一标识,用于后续创建自定义素材时指定所属素材组:
{
    "id": "group-20260413164207-dxbff"
}
创建自定义素材
curl --location --request POST 'https://geekai.co/api/v1/assets/create' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "group_id": "group-20260413164207-dxbff",
    "name": "自定义素材名称1",
    "url": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_first_frame.jpeg",
    "asset_type": "Image",
    "platform": "bytedance"
}'
创建自定义素材是异步任务,该接口响应中的 id 字段值是创建素材的任务ID,可以通过该任务ID轮询素材创建状态,确认素材是否创建成功: 获取素材ID
curl --location --request GET 'https://geekai.co/api/v1/assets/{task_id}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY'
如果响应字段中的 statussucceed,则表示自定义素材创建成功,接口响应中的 id 字段值就是素材ID,可以在生成视频时使用该素材ID作为参考图:
{
    "id": "asset-20260413174650-cbc4t",
    "group_id": "group-20260413164207-dxbff",
    "status": "succeed",
    "asset_type": "Image",
    "name": "自定义素材名称1",
    "url": "https://ark-media-asset.tos-cn-beijing.volces.com/2122503570/041317465067726530.jpeg?X-Tos-Algorithm=TOS4-HMAC-SHA256&X-Tos-Credential=AKTP0VyX37NH37peqQWqz0vNnoQ9VgZzhOL6JFSCCxVjKv%2F20260413%2Fcn-beijing%2Ftos%2Frequest&X-Tos-Date=20260413T094655Z&X-Tos-Expires=43200&X-Tos-Security-Token=nChB2Wjd1UzdmM1haV2o0Q0lU.CiQKEFBDclNTZUVvd2trRUdYUXkSEEou-9fE3Eirrlujg7Y-7P0Qmq_xzgYYooD0zgYg-v3I6QcoBDCs7-stOh9Sb2xlRm9yQXJrQXNzZXQvUm9sZUZvckFya0Fzc2V0QgNhcmtSD1JvbGVGb3JBcmtBc3NldFgDegNhcms.whWAvmch6RYMkXBrquQTPQnDu9KxJeSiJL59QCMZH97iVGNMKa3xg_yqndICG3O0L5q6DMBtYTQ2dHfRwLPz9A&X-Tos-Signature=db37f16849430798b55ed3857f00c6a096d5e19fe7ba05a65654c7aa64cb911a&X-Tos-SignedHeaders=host"
}
由于上面首尾帧示例有两张含人脸的图片,我们按照同样的步骤创建尾帧的自定义素材,然后拿到素材ID。 通过自定义素材生成视频 通过将首尾帧的自定义素材ID传入 imageimage_tail 参数,即可生成基于自定义素材的视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "model": "doubao-seedance-2.0",
    "prompt": "图中女孩对着镜头说\"茄子\",360度环绕运镜",
    "image": "asset://asset-20260413174650-cbc4t",
    "image_tail": "asset://asset-20260413174650-cbc4t",
    "async": true
}'
通过自定义素材传入参考图/视频和通用请求格式一样,支持将HTTP格式的图片/视频URL替换成了Asset格式的链接,即asset://素材ID

参考生视频

Seedance 2.0 支持基于参考图+视频+音频生成视频。 参考图 通过 images 传入一张或多张图即可实现基于多张参考图生成视频:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "model": "doubao-seedance-2.0",
    "prompt": "@图1戴着眼镜穿着蓝色T恤的男生和@图2的柯基小狗,坐在@图3的草坪上,3D卡通风格",
    "images": [
        "https://ark-project.tos-cn-beijing.volces.com/doc_image/seelite_ref_1.png",
        "https://ark-project.tos-cn-beijing.volces.com/doc_image/seelite_ref_2.png",
        "https://ark-project.tos-cn-beijing.volces.com/doc_image/seelite_ref_3.png"
    ],
    "async": true
}'
多模态参考 你可以同时传入参考图、参考视频和参考音频来生成视频,实现多模态参考(最多支持9张参考图+3个参考视频+3个参考音频):
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "model": "doubao-seedance-2.0",
    "prompt": "全程使用视频1的第一视角构图,全程使用音频1作为背景音乐。第一人称视角果茶宣传广告,seedance牌「苹苹安安」苹果果茶限定款;首帧为图片1,你的手摘下一颗带晨露的阿克苏红苹果,轻脆的苹果碰撞声;2-4 秒:快速切镜,你的手将苹果块投入雪克杯,加入冰块与茶底,用力摇晃,冰块碰撞声与摇晃声卡点轻快鼓点,背景音:「鲜切现摇」;4-6 秒:第一人称成品特写,分层果茶倒入透明杯,你的手轻挤奶盖在顶部铺展,在杯身贴上粉红包标,镜头拉近看奶盖与果茶的分层纹理;6-8 秒:第一人称手持举杯,你将图片2中的果茶举到镜头前(模拟递到观众面前的视角),杯身标签清晰可见,背景音「来一口鲜爽」,尾帧定格为图片2。背景声音统一为女生音色。",
    "images": [
        "https://ark-project.tos-cn-beijing.volces.com/doc_image/r2v_tea_pic1.jpg",
        "https://ark-project.tos-cn-beijing.volces.com/doc_image/r2v_tea_pic2.jpg"
    ],
    "video": [
        "https://ark-project.tos-cn-beijing.volces.com/doc_video/r2v_tea_video1.mp4"
    ],
    "audio": [
        "https://ark-project.tos-cn-beijing.volces.com/doc_audio/r2v_tea_audio1.mp3"
    ],
    "with_audio":true,
    "aspect_ratio": "16:9",
    "duration": 11,
    "watermark": false
}'
参考视频包含真人也需要通过素材创建接口创建素材,然后使用素材ID作为参考视频传入,否则会报错。

视频编辑

你可以通过 video 参数上传参考视频来引导视频生成,生成的视频会在参考视频的基础上进行编辑:
curl --location --request POST 'https://geekai.co/api/v1/videos/generations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer $GEEKAI_API_KEY' \
--data '{
    "model": "doubao-seedance-2.0",
    "prompt": "将视频中的小猫换成小狗,其他不变",
    "video": "https://static.geekai.co/video/2026/04/02/f2ffbccd56d65ab172aef3706e003aa7.mp4",
    "async": true
}'

异步任务

Seedance 2.0 目前仅支持通过异步任务生成视频。 视频 API 中的 async 参数用于控制是否异步生成视频,默认为 false,表示创建视频接口会同步等待视频生成完毕并返回。如果设置为 true,则会异步生成视频并返回任务ID,你可以使用该任务ID轮询视频生成状态。 具体操作请参考Sora-2示例,流程完全一样。