返回博客
seedance
evolution
tutorial-series
controllability
director-mode

从随机到导演:可控性的觉醒

"生成并祈祷"时代的结束。Seedance 2.0 导演模式和内部分镜表如何让电影制作者重新掌控。

发布于 2026-02-09

从随机到导演:可控性的觉醒

"生成并祈祷"的终结

AI 视频的"提示并祈祷"时代有一个根本性问题:模型是导演,用户只是提示词工程师。

输入"女人走进房间,在窗前停下,摄像机跟随,然后弧线围绕,她微笑"——输出却是:她侧着走了,摄像机保持静态,她停在墙前,表情是中性。再试一次:她走出画面,摄像机向错误的方向平移。第三次尝试:弧线变成刺耳的跳切,微笑像鬼脸。

23 个变体,没有一个符合愿景。最接近的需要大量编辑,将三个不同的生成剪在一起,祈祷灯光匹配。

这不是工具问题,是控制权问题。创作者描述想要什么,模型做它想做的。有时幸运,通常只能妥协——让 AI 的输出决定最终效果。权力动态是颠倒的。

真正的电影制作需要可控性。创作者需要成为导演,而不是被动的接受者。

演变时间线

2019-2021:完全没有控制

早期基于 GAN 的视频生成提供零可控性。你提供一个种子。模型生成一些东西。如果你不喜欢,你改变种子再试一次。"摄像机运动"或"指导动作"的概念在界面中不存在。

研究重点在于存在性:我们能生成视频吗?控制是以后的问题。

2022-2023:基本调节

随着扩散模型的成熟,基本调节出现了:

  • 文本提示:描述你想要什么(模糊地)
  • 种子控制:可重复的随机性
  • 图像调节:从特定帧开始

一些工具添加了基本控制。Runway Gen-2 引入了"运动画笔"——画一个区域,定义运动方向。在当时是革命性的,但有限:你可以指定"这个区域向上移动"但不能"摄像机推进同时主体走开"。

Pika Labs 提供"Pikaffects"——预设变换如"子弹时间"或"爆炸"。有趣,但不是电影制作。

2024:摄像机运动出现

突破来自于明确的摄像机控制。Runway Gen-3 通过文本提示引入"高级摄像机控制"——指定平移、跟踪、缩放、环绕。Higgsfield AI 展示了 50+ 电影运动预设。Pika 2.2 添加了"推拉镜头"和运动方向。

这些是真正的进步。第一次,创作者可以独立于主体行为指定摄像机行为。但它们是有限的:

  • 摄像机移动是预设,不是精确控制
  • 主体行为基本上仍然不可预测
  • 组合(摄像机向左同时主体向右移动)不可靠
  • 多镜头场景需要手动拼接

行业从"没有控制"移动到"有一些控制"。但这不是电影制作者控制。这是参数控制。

2025:Seedance 2.0 导演模式

Seedance 2.0 引入了不同的东西:带有内部分镜表(Internal Shot List)的导演模式。这不是添加参数。这是向模型添加导演意识。

Seedance 2.0:导演架构

导演模式实际做什么

传统 AI 视频:单个提示,单个输出,寄希望于最好。

导演模式:结构化输入,计划执行,可预测结果。

内部分镜表将生成分解为组件:

  1. 镜头定义:指定摄像机角度、运动、镜头、构图
  2. 动作编排:定义主体行为、时机、路径
  3. 时间结构:在单个生成中排序多个节拍
  4. 环境控制:灯光、氛围、背景行为

这些不是单独的提示。它们是模型整体解释的结构化输入。

多模态输入:完整的调色板

Seedance 2.0 同时接受最多 12 个输入:

  • 9 张图片:参考帧、风格指南、角色表
  • 3 个视频:运动示例、连续性前一片段
  • 3 个音频:音乐轨道、语音参考、声音设计
  • 文本:详细指导、镜头描述、时机提示

这不是"上传图片并提示"。这是"提供完整的创意简报,模型执行它"。

技术实现

可控性架构:

  1. 结构化提示解析:模型理解电影制作词汇——推拉、平移、变焦、环绕、广角镜头、过肩镜头
  2. 运动轨迹编码:摄像机和主体路径表示为数学曲线,不仅仅是文本描述
  3. 多尺度生成:在序列级别规划,在帧级别执行,在像素级别优化
  4. 反馈循环:内部检查确保摄像机运动、主体运动和环境保持连贯

对比:控制保真度

控制方面2023 "提示并祈祷"2024 摄像机预设Seedance 2.0 导演模式
摄像机运动不可预测预设选项精确轨迹控制
主体行为随机有限影响编排动作
多镜头场景手动拼接不支持内部序列规划
时机/节奏不可控固定时长可变节拍时机
风格一致性每代变化有限跨镜头锁定
需要的迭代10-50 次5-10 次2-3 次

真实示例:咖啡馆场景

考虑这个复杂的指导:

"咖啡馆的广角建立镜头。摄像机推进穿过门。桌子旁主角的中景。摄像机围绕他们弧线移动 90 度,当他们抬头时。他们反应的特写。"

2023 方法:四次单独生成。手动匹配灯光、服装、背景。4+ 小时的工作。镜头之间的可见剪辑。

Seedance 2.0 导演模式:带有内部分镜表的单个结构化输入。模型规划:

  • 镜头 1:广角,静态,3 秒
  • 镜头 2:推进到门,2 秒
  • 镜头 3:中景,弧线 90°,主角抬头,6 秒
  • 镜头 4:特写,反应,4 秒

输出:15 秒的连续序列,有计划的过渡、一致的灯光、连续的动作。一次生成。一个愿景实现。

你可以立即行动

你的第一步

拿一个你拍摄或做过故事板的简单场景。将其分解为节拍:

  1. 用分镜表写一个导演模式结构化提示
  2. 包括特定的摄像机运动
  3. 包括带时机的主体动作
  4. 生成并与你之前的"提示并祈祷"尝试比较

控制一开始会感觉不熟悉——就像从自动切换到手动变速箱。但精度值得学习曲线。

导演模式的提示模板

项目:[场景目标的简要描述]

分镜表:
镜头 1:[类型、时长、摄像机动作]
  - 主体动作:[发生什么]
  - 时机:[在镜头内何时发生]

镜头 2:[类型、时长、摄像机动作]
  - 主体动作:[发生什么]
  - 时机:[何时发生]

[继续所有镜头]

参考:
- 风格:[图像参考或描述]
- 角色:[图像参考或描述]
- 灯光:[参考或描述]

音频:
- 音乐氛围:[描述]
- 声音设计:[关键元素]

连续性注释:
- [必须跨镜头保持一致的任何元素]

示例:
项目:早晨日常揭示

分镜表:
镜头 1:广角,4 秒,静态建立
  - 主体:人在床上睡觉,窗外晨光
  - 时机:静态保持,微妙呼吸

镜头 2:中景,5 秒,缓慢推进
  - 主体:睁开眼睛,坐起来,伸展
  - 时机:1 秒睁眼,2 秒坐起,4 秒伸展

镜头 3:特写,6 秒,围绕主体轻微弧线
  - 主体:望向窗外,表情从困倦变为充满希望
  - 时机:1 秒转头,4 秒形成微笑,保持到结束

参考:
- 风格:柔和的晨光,暖色调,电影感
- 灯光:透过薄纱窗帘的黄金时段

音频:
- 音乐:轻柔钢琴,略微增强
- 声音:外面的鸟,织物沙沙声

未来 12 个月

可控性是最后的边疆。期待快速进步:

  • 基于关键帧的指导:设置特定帧,模型有意义地插值
  • 物理控制:指定物体重量、动量、碰撞行为
  • 情感弧线控制:逐节拍微调表情过渡
  • 与标准工具集成:从 Storyboarder 导入,导出到带元数据的 Premiere
  • 协作指导:多个用户同时调整不同方面

AI 作为随机生成器的时代正在结束。AI 作为制作工具的时代正在开始。


系列导航:

本文是 Seedance 2.0 Masterclass:内容进化系列的一部分。