メインコンテンツへスキップ

ビデオの例

Ryan1分以内

画像からビデオへ

現在、画像からビデオへの変換用のチェックポイントが2つあります。ここでは公式チェックポイントを紹介します。1つは14フレームのビデオ生成用に調整されたものopen in new window、もう1つは25フレームのビデオ用のものopen in new windowです。これらをComfyUI/models/checkpointsフォルダに配置してください。

画像からビデオへのモデルを使用する最も基本的な方法は、以下の14フレームモデルを使用したワークフローのように、初期画像を与えることです。 このwebpアニメーション画像をダウンロードしてComfyUIopen in new windowにロードまたはドラッグすると、ワークフローを取得できます。

例JSONフォーマットのワークフロー

正確な入力画像が必要な場合は、unCLIPの例ページで見つけることができます。

また、以下のワークフローのように使用することもできます。このワークフローではSDXLを使用して初期画像を生成し、それを25フレームモデルに渡しています:

例JSONフォーマットのワークフロー

パラメータの説明:

video_frames: 生成するビデオフレームの数。

motion_bucket_id: 数値が高いほど、ビデオ内の動きが多くなります。

fps: fpsが高いほど、ビデオのスタッターが少なくなります。

augmentation level: 初期画像に追加するノイズの量。値が高いほど、ビデオが初期画像と似なくなります。動きを増やすにはこの値を上げてください。

VideoLinearCFGGuidance: このノードはこれらのビデオモデルのサンプリングを少し改善します。異なるフレーム間でcfgを線形にスケーリングします。上記の例では、最初のフレームはcfg 1.0(ノードのmin_cfg)、中間フレームは1.75、最後のフレームは2.5(サンプラーで設定されたcfg)になります。これにより、初期フレームから離れるにつれて、フレームは徐々に高いcfgを獲得します。