- ホーム
- テキストから動画生成
- Seedance 2.0
Seedance 2.0 — ネイティブ音声付きマルチショット動画AI
Seedance 2.0 はByteDanceの音声付き動画生成モデルです。Seedance 2.0 はプロンプト1本で最大15秒のマルチショット動画と2chネイティブ音声を同時に生成。Seedance 2.0 にはテキスト・画像・音声・動画のすべてを入力に使えます。
Seedance 2.0 はByteDanceの音声付き動画生成モデルです。Seedance 2.0 はプロンプト1本で最大15秒のマルチショット動画と2chネイティブ音声を同時に生成。Seedance 2.0 にはテキスト・画像・音声・動画のすべてを入力に使えます。
音声まで同時に書き出すByteDanceのテキスト動画生成AI
Seedance 2.0 はByteDance Seedの動画生成モデルで、2026年2月12日に正式リリースされました。Seedance 2.0 は1回のレンダリングで最大15秒のマルチショット動画を2chネイティブ音声付きで書き出します。Seedance 2.0 の生成にはテキストプロンプトに加えて、最大9枚の参照画像・3本の動画クリップ・3本の音声クリップを与えられるため、キャラクターを固定したり、サウンドトラックに合わせたり、既存ショットを延長したりが Seedance 2.0 のモデル内で完結します。Seedance 2.0 は物理表現の正確さと複数被写体のインタラクションを重視しており、四肢の接地や重力・接触の表現が自然で、複数キャラクターが同じショット内で動いても手足が浮くようなアーティファクトが Seedance 2.0 では起きにくくなっています。
Seedance 2.0 のレンダリング1回で、ループでもつなぎ合わせでもない最大15秒の連続マルチショット動画が出力されます。Seedance 2.0 ならカット割りもモデル内で完結します。
Seedance 2.0 は映像と同じパスで2chの音声をレンダリングし、画面上のアクションに同期させます。Seedance 2.0 のクリップは追加のミックス工程なしに使えます。
テキストに加えて最大9枚の画像・3本の動画・3本の音声クリップを Seedance 2.0 の生成に指定できます。Seedance 2.0 はそれら全てを同時に解釈します。
Seedance 2.0 は握手・ダンス・格闘などの複数被写体インタラクションを、四肢のドリフトなしに描写します。Seedance 2.0 の物理は接触シーンで特に効きます。
レンズの動き・キーライト・影の形まで、Seedance 2.0 はショットリスト用語をプロンプトで受け取ります。Seedance 2.0 をDPに発注するように扱えます。
参照画像を渡せば、Seedance 2.0 はマルチショット全体で同一人物・同一商品の見た目を維持します。Seedance 2.0 は商品紹介や人物動画で頼れます。
Seedance 2.0 — テキストを入力すれば、音声付きマルチショット動画が出力されます。
シーンを文章で書けば、Seedance 2.0 がそれを読み取り、複数ショットと同期音声を含む連続クリップを返します。商品ティザー、ブランドプロモ、SNSのオープナーまで、Seedance 2.0 の出力の具体性はプロンプトの詳細さにそのまま比例します。Seedance 2.0 はテキスト1本で完結するワークフローを前提に設計されています。
Seedance 2.0 のプロンプトは1回の呼び出しで4つのモダリティすべてを組み合わせられます。
キャラクター固定用の参照写真、延長したい既存クリップ、合わせたい音声トラックを投入すれば、Seedance 2.0 はそれらをテキストと一緒に読み解きます。Seedance 2.0 の公式の入力上限は1回の生成あたり画像9枚・動画3本・音声3本です。Seedance 2.0 をマルチモーダル前提で使うと、ガチャの回数が大幅に減ります。
Seedance 2.0 は複数被写体が同じショットを共有しても、四肢・接触・タイミングを正確に保ちます。
従来の動画生成モデルは2人がダンス・格闘・握手をする際に破綻し、四肢が滑り、手がすり抜け、タイミングがずれていました。Seedance 2.0 は複数被写体の物理インタラクション専用にチューニングされており、Seedance 2.0 では群舞や接触の多いシーンもショットレベルで成立します。Seedance 2.0 を複数キャラのシーンで使うと、ガチャを大幅に減らせます。
Seedance 2.0 は映像と同じパスで2ch音声を生成します。
従来のテキスト動画生成ツールは無音映像を出力するだけで、音楽もミックスもポストプロダクションで足す必要がありました。Seedance 2.0 は1回のレンダリングで画面のアクションに同期した2ch音声まで書き出すので、Seedance 2.0 のクリップはTikTokやYouTubeに別途音声パスをかけずにそのまま投稿できます。Seedance 2.0 を使えば、SNS用のオープナーがその場で完成します。
Seedance 2.0 はドリー・クレーン・キーライト・影などのショットリスト用語に対応します。
DPに発注するように動画をブリーフィングできます。レンズ、カメラの動き、キーライトとリムライト、ムードを指定すれば、Seedance 2.0 はガチャを繰り返さずに狙ったショットへ近づきます。Seedance 2.0 はヒーローカット、ブランドプロモ、オープナーなどに有効で、Seedance 2.0 のシネマティック表現は本番カットに耐えます。
Seedance 2.0 の8本のクリップ — 各キャプションがそのまま使い回せる Seedance 2.0 プロンプトです
各社の公式ページから引用した数値のみ。第三者情報は含みません。
| 機能 | Seedance 2.0 | Veo 3.1 | Sora 2 | Kling 3.0 |
|---|---|---|---|---|
| 最大クリップ長 | 15秒(マルチショット) | 8秒(基本)、Scene Extensionで最大148s | 最大12秒(Sora 2 API) | 最大15秒(最大6ショット) |
| レンダー内オーディオ | 対応、デュアルチャンネル | 対応、ネイティブ48kHz | 対応、同期オーディオ | 対応、多言語ネイティブ |
| 参照アセット | 画像9 + 動画3 + 音声3 | 参照画像 最大3枚 | 画像参照1枚 | マルチモーダル入力対応 |
| マルチショット出力 | 単一レンダー、マルチショット | Scene Extensionで8sクリップを連結 | 単一クリップ | 1レンダーで最大6ショット |
| マルチモーダル入力 | テキスト・画像・音声・動画 | テキスト・画像 | テキスト・画像 | テキスト・画像・音声・動画 |
| リリース日 | 2026-02-12(ByteDance Seed) | 2026-01-13(Google DeepMind) | 2025(OpenAI) | 2026-02-04(Kuaishou) |
Seedance 2.0 で使えるフッテージとガチャの差を生む4つの習慣
1本の Seedance 2.0 プロンプトに、被写体・カメラの動き・レンズ・ライト・ムード・音声を書き込みましょう。Seedance 2.0 のレンダリングは入力した内容をそのまま反映します。Seedance 2.0 は曖昧な指示にも忠実なので、曖昧に書けば曖昧な結果になります。
YouTubeなら16:9、Reelsなら9:16、フィードなら1:1。ループは5〜8秒、オープナーは最大15秒。Seedance 2.0 に投入する前にどちらも設定しましょう。Seedance 2.0 はアスペクトを途中で切り替えられないので、最初に決めるのが安全です。
キャラクターや商品をショット間で同じ見た目に保ちたいなら、参照写真を渡しましょう。Seedance 2.0 は1回の生成で最大9枚の画像を読み取ります。Seedance 2.0 の参照入力はシリーズ動画にも有効です。
「環境音の雨」「アップビートのローファイ」「2人の友人が笑う声」など、聞きたい音をそのまま書きます。Seedance 2.0 は同じレンダリングで2ch音声まで出力するので、文章で記述してください。Seedance 2.0 のリップシンクや効果音もプロンプトで指示できます。
Seedance 2.0 で初めて生成する前に、ユーザーが Seedance 2.0 について実際に聞くこと
無料・クレジットカード不要。Seedance 2.0 で最大15秒のマルチショットを2chネイティブ音声付きで生成。Seedance 2.0 を上のZorqAIで試せます。