Seedance 2.0はByteDanceが提供する次世代マルチモーダル動画生成モデルで、ComfyUI内で利用可能です。テキスト、画像、動画、音声を統一された入力として受け取り、同期音声、一貫したキャラクター、映画的なカメラワークを備えた高品質動画をワンパスで生成します。Documentation Index
Fetch the complete documentation index at: https://dripart-mintlify-86baf657.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
主な機能
- マルチモーダル入力 — テキスト + 画像/動画/音声
- 音声同期 — 映像と音声を同時生成
- カメラ制御 — カメラワークとテンポを演出
- 一貫性 — キャラクターとシーンが安定
- 編集・拡張 — 既存映像の編集やクリップ延長
利用可能なワークフロー
- 実在人物 — 1回の本人確認(ライブネス)後、実在人物のアイデンティティ一貫性を保った動画を生成。詳しくは Seedance 2.0 実在人物 を参照。
Seedance 2.0 実在人物(本人確認 / ライブネス)
本人確認の流れと、Group ID / Asset ID の再利用方法を確認できます。
テキストから動画(T2V)
テキストプロンプトだけで動画を生成します。Seedance 2.0がシーン、モーション、テンポをまとめて構成します。クラウドでT2Vを実行
Comfy CloudですぐにText-to-Videoワークフローを試せます。
T2Vワークフローをダウンロード
ワークフローJSONをダウンロードします。
リファレンスから動画(R2V)
参照画像、参照動画、または参照音声を使って、見た目・動き・リズムをガイドしつつ、一貫した結果を生成します。クラウドでR2Vを実行
Comfy CloudですぐにReference-to-Videoワークフローを試せます。
R2Vワークフローをダウンロード
ワークフローJSONをダウンロードします。
最初と最後のフレームから動画(FLF2V)
開始フレームと終了フレームを指定し、その間のモーションと遷移をSeedance 2.0が生成します。クラウドでFLF2Vを実行
Comfy CloudですぐにFirst-Last-Frame-to-Videoワークフローを試せます。
FLF2Vワークフローをダウンロード
ワークフローJSONをダウンロードします。