跳至主要內容

视频示例

Ryan大约 1 分钟

图像到视频

截至目前,有两个图像到视频的检查点。这里是官方检查点,一个是调整用于生成14帧视频的open in new window,另一个是用于25帧视频的open in new window)。将它们放入 ComfyUI/models/checkpoints 文件夹中。

使用图像到视频模型的最基本方式是给它一个初始图像,就像下面使用14帧模型的工作流程一样。 你可以下载这个webp动画图像并加载它或拖动到 ComfyUIopen in new window 上以获取工作流程。

示例Json格式的工作流程

如果你想要确切的输入图像,你可以在 unCLIP 示例页面 上找到它

你也可以像在这个工作流程中那样使用它们,该工作流程使用 SDXL 生成一个初始图像,然后将其传递给25帧模型:

示例Json格式的工作流程

参数解释:

video_frames: 要生成的视频帧数。

motion_bucket_id: 数字越高,视频中的运动就越多。

fps: fps越高,视频就越不会出现卡顿。

augmentation level: 添加到初始图像的噪声量,数值越高,视频与初始图像的相似度就越低。增加它以获得更多运动。

VideoLinearCFGGuidance: 这个节点稍微改善了这些视频模型的采样,它所做的是在不同帧之间线性缩放cfg。在上面的示例中,第一帧将是cfg 1.0(节点中的min_cfg),中间帧1.75,最后一帧2.5。(在采样器中设置的cfg)。这样,远离初始帧的帧会逐渐获得更高的cfg。