Gen-2 是什么?
Gen-2 是 Runway Research 发布的多模态 AI 视频生成系统,官方页面标题为“Generate novel videos with text, images or video clips”。它可以用文本、图片或视频片段生成新视频,既支持 Text to Video,也支持 Image to Video、Text + Image to Video、风格化、故事板、遮罩和渲染等模式,是 Runway 早期视频生成能力的重要研究页面。
官方介绍中,Gen-2 的核心想法是“不用真实拍摄,也能生成新的影片”:可以把图片或文本提示的构图与风格应用到源视频结构,也可以只用文字生成视频。页面列出了 8 种模式:文本到视频、文本+图片到视频、图片到视频、风格迁移、故事板、遮罩、渲染和自定义,覆盖从创意分镜到视觉风格探索的不同阶段。
核心能力
用自然语言描述画面、风格和运动,合成不同风格的视频片段。
把单张图片作为视觉起点生成动态变化,适合概念图、海报或角色图动效探索。
将图片或提示词中的视觉风格迁移到视频帧中,快速尝试不同影像语言。
把草图、分镜或未贴材质渲染转换为更完整的动态视觉结果。
需要注意的是,Gen-2 是 2023 年发布的研究页面,Runway 目前已有更新的视频模型和产品能力。把它收录为独立条目时,更适合作为了解 Runway 文生视频、图生视频和多模态视频生成路线的资料入口;如果要正式创作或商用,应在 Runway 官网确认当前可用模型、授权、清晰度、时长、费用和水印规则。
产品信息
适用场景
用文本或参考图快速探索镜头氛围、场景风格和动态构图。
把分镜、草图或静态设定转为动态预览,辅助短片、广告和 MV 前期沟通。
将参考图或提示词的视觉风格应用到视频,快速比较不同艺术方向。
为创意团队、导演、设计师和品牌方提供快速可视化方案样片。
视频工具的其他工具