たった数クリックで、1枚の写真をショートビデオに変える想像をしてください。それがStable Diffusion Image to Videoの魔法です。この機能は、長い月日をかけて取り組んできたジェネラティブAIのファンたちによって開発されました。今や正式に利用できるようになり、Stable Diffusionを使用して画像からビデオを作成できます!
Stability AIが開発したStable Video Diffusionは、まるで魔法の杖のように動画の作成を補助し、静止画像をダイナミックで動きのあるシーンに変えます。ただし、現時点では一般公開されておらず、Stability AIの待ちリストに登録する必要があります。Stability AIのコンタクトフォームにアクセスし、Stable Video –> Waitlistボタンをクリックして興味を確認してください。
Right we are reopening the Beta list for a few days for #StableDiffusion and future models.
— Emad (@EMostaque) August 8, 2022
Probably the last time as have some amazing folk there and launching Phase II web & Phase III soon.https://t.co/6as2Wj98tn
And a awaaaay we go 💨
(h/t Jooshwa for the healing pics) pic.twitter.com/sjWZ8TIIX4
しかし、本当にそれは良いのでしょうか?Stable Video Diffusionを他の競合製品のRunwayMLやPika Labsと比較してみましょう。人工知能(AI)とビデオ制作の世界で注目を集めるStable Diffusion Image to Videoの中身について探ってみましょう。
Stable Diffusionのテキストからビデオへの変換とは何ですか?
では、Stable Diffusionテキストからビデオは具体的にどのように機能するのでしょうか?簡単に説明します。
Stable Diffusionのテキストからビデオは、AIモデルを使ったストーリーテリングのようなものです。ストーリーを入力したり、場面を言葉で説明すると、Stable Diffusionがその言葉を動く映像、つまりビデオに変換してくれます。
これは、自分のコンピュータに小さな映画監督がいて、あなたの物語を聞いてそれを映画化してくれるようなものです。なかなか素晴らしいですね。

Stable Video Diffusionは誰が開発しましたか?
この技術の背後にいるのはStability AIのチームです。彼らはそれを開発するだけでなく、他の人々とその仕組みを共有しています。このオープンなアプローチにより、さらに多くの賢い人々がそれを操作し、改良し、新たな利用方法を見つけることができます。

Stable Video Diffusionはまだ完璧ではありません
人々は、Stable Video Diffusionが素敵なビデオを作成できる能力を愛しています。しかし、それはまだ完璧ではありません。ビデオは短く、4秒以下のこともあり、常に超リアルな見た目とは限りません。また、ツールはビデオを大きく動かすことはできず、ビデオの中の顔や言葉が少し変に見えることもあります。それができる以上のことを期待せずに、楽しむためにこれらのことを知っておくことが重要です。
短い言葉で言えば、Stable Video Diffusionは、ビデオ制作が好きで、AIの最新動向を探求したい人々にとって非常に面白いおもちゃです。
Stable Video Diffusion vs Runway ML vs Pika Labs: 比較!
提供されているグラフは、安定したビデオ拡散(SVD)と2つの競合他社、RunwayとPika Labsのユーザーの好みを直接比較したものです。以下はその内容です。
ランウェー0 transparent; --tw-blur: ; --tw-brightness: ; --tw-contrast: ; --tw-grayscale: ; --tw-hue-rotate: ; --tw-invert: ; --tw-saturate: ; --tw-sepia: ; --tw-drop-shadow: ; --tw-backdrop-blur: ; --tw-backdrop-brightness: ; --tw-backdrop-contrast: ; --tw-backdrop-grayscale: ; --tw-backdrop-hue-rotate: ; --tw-backdrop-invert: ; --tw-backdrop-opacity; --tw-backdrop-saturate: ; --tw-backdrop-sepia: ; vertical-align: baseline; padding: 0.25rem 0.75rem; border-bottom-left-radius: 0.375rem;">安定したビデオ拡散約0.7に近い約0.7を超える
*2023年11月15日のデータです。

さて、このテーブルが教えてくれることを紐解いてみましょう:
- 安定したビデオ拡散(SVD) 強調: 14フレームと拡張25フレームのSVD-XTモデルは競合他社を上回り、ユーザーの強い嗜好を示しています。これは、より良いビデオ品質、より正確なフレーム生成、またはよりユーザーフレンドリーなインターフェースに起因する可能性があります。
- Runway: Runwayの勝率は両カテゴリーで最も低く、これは一部の強みがあるかもしれませんが、ユーザーが最も重要視するビデオ生成の側面で遅れを取っていることを示唆しています。
- Pika Labs: Pika LabsはRunwayよりも優れていますが、まだ優先レベルには到達していません。中間の選択肢であり、パフォーマンスとコストや特定の機能などの他の要素とのバランスを提供する可能性があります。
結論は? Stable Video DiffusionはRunwayとPika Labsよりも優れていますか?
ユーザーの嗜好においてStable Video Diffusionがトップを走っていることから、Stability AIはユーザーが画像をビデオに変換する際により魅力的なツールを提供していることが明確です。
勝率はユーザー満足度の重要な指標であり、Stable Video Diffusionは品質と使いやすさを重視するユーザーにとって優れた選択肢となる可能性があります。
以下は、2つの他の人気モデル、GEN-2とPikaLabsとの比較表です:
注意:テーブルには一般ユーザーフィードバックと比較研究が反映されています。実際のパフォーマンスは特定の使用例に基づいて異なる場合があります。
スタブルビデオディフュージョンにサインアップする方法は?
良い質問です。現在、Stability AIは新しいイメージからビデオへのツールへの一般公開を許可していません。ただし、サインアップのための待ちリストを公開しています。

上記のリンクをクリックして、待ちリストにサインアップできます。
スタブルディフュージョンを使用してビデオを作成するステップバイステップガイド
最新のStable Diffusion Generative AIのText-to-Video機能を体験するのが待ちきれない場合、Stable Diffusionを使用してビデオを作成するための代替ルートを試すことができます。
ここに簡略化されたガイドがあります:
ステップ1.ワークスペースの設定:
- Deforum( Stable Diffusionの拡張機能)、十分なGoogleドライブスペースを持つGoogleアカウント、Huggingfaceアカウント、およびインターネット接続のあるコンピュータを持っていることを確認してください。
ステップ2. Deforumのインストールと設定:
- Deforumをインストールして、リポジトリをシステムのStable Diffusion Web UIフォルダにクローンします。その後、設定を微調整してビデオまたはGIFの出力設定に合わせます。
ステップ3.プロンプトの作成:
- Deforum向けに複数のプロンプトを作成し、各フレームのビデオにリンクさせて、連続した画像シーケンスを生成します。一般的に、ビデオは短いものです。

- 角度、ズーム、移動、回転、透視フリップなどのモーションパラメータを使用して、ビデオに動きと奥行きを付けることができます。
- Deforumで2Dと3Dのアニメーションモードを選択し、目指すアニメーションスタイルに合わせて角度、ズーム、移動、回転を調整します。
- すべての設定を行った後、アニメーションをレンダリングします。プロンプトの複雑さや出力の品質により、所要時間は異なります。
- レンダリング後、ビデオ編集ソフトウェアを使用してサウンドトラックの追加、フィルターの適用、カラーコレクションなど、ポストプロダクションの編集を行うことができます。
結論
ステーブルディフュージョンを使用したビデオ作成は、技術的なセットアップの習得から創造力の解放までの旅です。各ステップで、静止画像をダイナミックな物語に彫り込み、伝統的なコンテンツ制作の境界を超えることができます。視覚的に魅力的なAI生成のビデオを作り上げるために、練習と創造力を用いてスキルを磨いてください。
FAQs
- ステーブルディフュージョンでビデオを生成できますか?
はい、ステーブルディフュージョンを使用して静止画像をアニメーション化し、短いビデオクリップを生成することができます。
- ステーブルディフュージョンで生成された画像は使用できますか?
一般的に、個人的な目的、研究のため、または許可されている場合は商用目的に使用することができます。ただし、利用規約に準拠する必要があります。
- ステーブルディフュージョンでどのようにアニメーションを作成しますか?
各フレームに対してプロンプトを作成し、モーションパラメータを使用してビデオにダイナミクスを追加することで、ステーブルディフュージョンでアニメーションを作成します。
- ステーブルディフュージョンは画像を保存しますか?
通常、ステーブルディフュージョンは画像を保存しませんが、データ処理に関する詳細はプライバシーポリシーを確認してください。