ビデオの例
画像からビデオへ
現在、画像からビデオへの変換用のチェックポイントが2つあります。ここでは公式チェックポイントを紹介します。1つは14フレームのビデオ生成用に調整されたもの、もう1つは25フレームのビデオ用のものです。これらをComfyUI/models/checkpointsフォルダに配置してください。
画像からビデオへのモデルを使用する最も基本的な方法は、以下の14フレームモデルを使用したワークフローのように、初期画像を与えることです。 このwebpアニメーション画像をダウンロードしてComfyUIにロードまたはドラッグすると、ワークフローを取得できます。
正確な入力画像が必要な場合は、unCLIPの例ページで見つけることができます。
また、以下のワークフローのように使用することもできます。このワークフローではSDXLを使用して初期画像を生成し、それを25フレームモデルに渡しています:
パラメータの説明:
video_frames: 生成するビデオフレームの数。
motion_bucket_id: 数値が高いほど、ビデオ内の動きが多くなります。
fps: fpsが高いほど、ビデオのスタッターが少なくなります。
augmentation level: 初期画像に追加するノイズの量。値が高いほど、ビデオが初期画像と似なくなります。動きを増やすにはこの値を上げてください。
VideoLinearCFGGuidance: このノードはこれらのビデオモデルのサンプリングを少し改善します。異なるフレーム間でcfgを線形にスケーリングします。上記の例では、最初のフレームはcfg 1.0(ノードのmin_cfg)、中間フレームは1.75、最後のフレームは2.5(サンプラーで設定されたcfg)になります。これにより、初期フレームから離れるにつれて、フレームは徐々に高いcfgを獲得します。