前几天读者发消息:“你知道吗?豆包视频居然能说话了!口型还特别贴,我试着做了一条,直接被惊艳到了!”
谁没被 AI 视频制作坑过?
先绞尽脑汁生成图片,生成视频画面,再单独配音频,最后一点点微调口型对齐……
不仅步骤繁琐耗时间,还总出现口型对不上、语气脱节的问题,费了半天劲做出的内容,要么生硬得没法用,要么得反复修改磨掉所有热情。
豆包 Seedance 1.5 Pro,刚好把这套复杂流程全简化,一键解决了所有麻烦。
Seedance 1.5 pro 最大更新就是原声音画同步,不仅如此,还实现了一个视频中多人超自然对白、口型做到毫秒级精准对齐,还支持中文、方言、英文及小语种等多种语言。
今天小意就来分享一期:豆包 Seedance 1.5 Pro 落地实操。
操作也很简单:打开豆包手机端,找到“AI 创作“,”照片动起来“,选定seedance 1.5Pro 模型,输入提示词。

案例一:影视场景
中英文交流场景,70 岁的老人用对小孩慈祥的说到:”Goodboy,study hard where youare in china!”小孩开心的用中文回答到:“爷爷,等我在中国学习结束我就来陪您”。然后老爷爷摸了摸小孩的头。
案例二:宣传片
特别注意:
1.暂不支持生成指定旋律或具体歌曲,也无法模仿特定音乐作品。2.音乐整体质量稳定,但在部分复杂场景下可能存在与画面节奏契合不够的问题。
案例三:知识科普
案例四:节日场景
案例五:娱乐场景
特别注意:
1.如果需明确控制音效,可在提示中说明背景声音种类、出现时机、方位等信息。2.如果想让模型自由发挥氛围音,可省略音效提示,让模型根据画面自动判断。
好啦好啦!刷不动了!其实还有很多场景可以应用,像是之前赋能教育的对话场景,都可以去试试呢!
目前豆包手机端,每天有 10 个视频份额,生成 10 秒的 seedance 1.5Pro 模型的视频要消耗 6 个视频额度,所以且用且珍惜咯!
