视频示例
大约 1 分钟
图像到视频
截至目前,有两个图像到视频的检查点。这里是官方检查点,一个是调整用于生成14帧视频的,另一个是用于25帧视频的)。将它们放入 ComfyUI/models/checkpoints 文件夹中。
使用图像到视频模型的最基本方式是给它一个初始图像,就像下面使用14帧模型的工作流程一样。 你可以下载这个webp动画图像并加载它或拖动到 ComfyUI 上以获取工作流程。
如果你想要确切的输入图像,你可以在 unCLIP 示例页面 上找到它
你也可以像在这个工作流程中那样使用它们,该工作流程使用 SDXL 生成一个初始图像,然后将其传递给25帧模型:
参数解释:
video_frames: 要生成的视频帧数。
motion_bucket_id: 数字越高,视频中的运动就越多。
fps: fps越高,视频就越不会出现卡顿。
augmentation level: 添加到初始图像的噪声量,数值越高,视频与初始图像的相似度就越低。增加它以获得更多运动。
VideoLinearCFGGuidance: 这个节点稍微改善了这些视频模型的采样,它所做的是在不同帧之间线性缩放cfg。在上面的示例中,第一帧将是cfg 1.0(节点中的min_cfg),中间帧1.75,最后一帧2.5。(在采样器中设置的cfg)。这样,远离初始帧的帧会逐渐获得更高的cfg。