はじめに|AnimateDiffとは何か?

Stable Diffusionは、高品質な静止画を生成できるAIとして広く使われていますが、
「静止画だけでは物足りない」
「動きのある作品が作りたい」
と感じたことはありませんか?
そんなニーズに応えて登場したのが、AnimateDiff(アニメーションディフ)です。
これは、Stable Diffusion WebUI(AUTOMATIC1111)に追加する無料の拡張機能で、プロンプト(文章)に基づいて連続したフレームを自動生成し、まるで動画のような動きを実現できるツールです。
AnimateDiffでできること:
さらに、
LoRA(Low-Rank Adaptation)やMotion Moduleといった追加モデルを活用することで、表情や体の動きに変化を加えることも可能です。
つまり、「キャラクターが生きているような表現」が手軽に再現できます。
この記事を読んで、AnimateDiffを使いこなせるようになりましょう!
迷ったら先ずはコレ!
最新AIボイスレコーダーについて学ぶ↓↓
AnimateDiffを使うための前提環境【ローカルPC編】

AnimateDiffは非常にパワフルなツールですが、動画生成という性質上、ある程度のPCスペックとソフトウェア環境が必要です。
ここでは、導入前に確認すべき環境要件をわかりやすく整理します。
推奨スペック|最低限これだけは確認しよう!
低スペックでも利用できるにはできますが、画像一枚の生成に30分かかったり、PCが熱を持ちやすいので、下記のスペックのものが推奨されます。
項目 | 推奨内容 | 備考 |
---|---|---|
OS | Windows 10 / 11(64bit) | Mac非対応(現時点では) |
GPU(グラボ) | NVIDIA RTX 3060 以上(12GB推奨) | VRAMが命。8GBでも可だが制限あり |
CPU | Intel Core i7 第10世代以上 | GPU依存なので中程度でOK |
メモリ(RAM) | 16GB以上(理想は32GB) | 複数プロンプト実行や並列処理時に重要 |
ストレージ | SSD推奨(空き容量50GB以上) | モデルファイルは重いです |
インターネット回線 | 安定した回線(モデルDLやアップデート用) | 非常駐型なので常時接続不要 |
別の記事でおすすめローカルPCや周辺機器に関する情報を発信しているため、気になる方はこちらの記事もご覧ください。
必須ソフトウェア・環境一覧
ツール/環境 | 解説 |
---|---|
Stable Diffusion WebUI(AUTOMATIC1111) | 本体となる画像生成AI。公式:GitHubリンク |
Python(3.10.x推奨) | AnimateDiff拡張と連携するため必要。インストーラー:公式サイト |
Git | 拡張機能のダウンロードに使用。導入方法:Git公式 |
ffmpeg(任意) | 動画出力用のコマンドラインツール。使い方は後述 |
xformers(推奨) | メモリ節約+高速化。必要に応じて導入 |
導入前のチェックポイントまとめ
- ✅ PythonとGitはインストール済か?
- ✅ Stable Diffusion WebUIは動いているか?
- ✅ GPUメモリが8GB以上あるか?
- ✅ モデルを保存するフォルダの空き容量はあるか?
環境に不安がある方へ|代替手段としてのColabも検討可能
もしPCスペックに不安がある場合は、Google Colabを使ってAnimateDiffを動かす方法もあります。
ただし、無料プランではGPU制限や強制停止のリスクもあるため、継続利用には不向きです。
次の章では、いよいよAnimateDiff拡張機能のインストール方法(実践)を解説します。
AnimateDiffのインストール手順【ローカル環境】

Stable Diffusion WebUIをすでに導入済みの方は、以下の手順でAnimateDiffをすぐに使い始めることができます。
ここでは、最も一般的な「Gitを使った導入方法」と、「モデルファイルの配置方法」を丁寧に解説します。
必要な準備:WebUIのフォルダ構成を把握
まず、Stable Diffusion WebUI(AUTOMATIC1111版)が既にインストールされている必要があります。
Stable Difutionの導入がまだという方はこちらの記事からSD環境を構築してみてください。
既にインストールされている方は、次のステップに進んでください。
ステップ1:AnimateDiffの拡張機能をインストール
コマンドプロンプト(またはPowerShell)で以下を実行します:
cd path/to/stable-diffusion-webui/extensions
git clone https://github.com/continue-revolution/sd-webui-animatediff
path/to/
の部分は、あなたの環境に合わせて調整してください。- 実行後、
extensions/sd-webui-animatediff/
フォルダが生成されます。
ステップ2:WebUIを再起動する
webui-user.bat
を実行してStable Diffusion WebUIを起動します。
起動後、画面上部のタブに「AnimateDiff」という新しいメニューが追加されていれば、導入成功です。
ステップ3:モーションモジュール(Motion Module)の配置
AnimateDiffで動画を生成するには、モーションモデルを別途ダウンロードして設定する必要があります。
■ モデルダウンロード先(一例)
Civitaiでモーションモデルを探す際には、「モデル」→「フィルター」→「モーション」に✅を入れると探しやすいと思います。
■ 配置方法
.ckpt
や.safetensors
ファイルをダウンロード- 下記ディレクトリに配置:
stable-diffusion-webui/models/Motion_Module/
💡 ディレクトリが存在しない場合は、自分で作成してOKです。
注意点:他拡張機能との競合や重複インストール
- 他の動画系拡張(例えばDeforum)と併用する場合は、一時的に拡張フォルダを移動して競合を避けると安定します。
- 導入後にUIが表示されない場合は、一度「
--safe
モード」で起動してみると改善する場合があります。
主な設定項目とおすすめ値
AnimateDiffには多くのパラメータがありますが、ここでは実用的かつ初心者に優しい設定値を紹介します。
項目名 | 内容 | おすすめ値(例) | 備考 |
---|---|---|---|
Motion Module | モーションモデルの選択 | mm_sd_v15_v2.ckpt など | CivitaiからDL |
Frames | フレーム数(枚数) | 16~24枚 | 多いほど滑らかだが重くなる |
FPS | フレームレート | 8~12 | 低めでも滑らかに見える |
Loop | ループ再生の可否 | ON(チェック) | GIF向けに最適 |
Seed | ランダム値の固定 | 任意(固定推奨) | 同じ結果を得るために固定する |
Prompt | 生成の指示文 | “a cool man blinking, ultra-detailed…” | 動きや表情を明示すると効果的 |
「Enable AnimateDiff」にチェックすることを忘れずに!
プロンプトの書き方のコツ
・動きのある単語を入れると効果が高い(例:walking
, blinking
, turning head
)
・美人系・可愛い系など、キャラ性と動きのイメージを結合させると自然な動画になる
・masterpiece
, high quality
, animated
, motion blur
なども品質アップに有効
ステップ4:Generateボタンを押して生成開始!
すべての設定が完了したら、画面右下の「Generate」ボタンをクリックします。
すると、設定したフレーム数に応じて複数の画像(1枚ずつのフレーム)が生成されます。
生成が完了すると、連番付きの画像(例:frame0001.png
〜frame0024.png
など)が表示され、
WebUIの出力フォルダに保存されます。
これらの画像は後ほどMP4やGIFに変換することで、1本の動画として活用できます(次章で解説)。
出力先と保存ファイル
生成されたフレーム画像は、以下のディレクトリに保存されます:
stable-diffusion-webui/outputs/animatediff-samples/
各生成ごとにフォルダが分かれて保存されるため、動画編集や変換もしやすく整理されています。
動画への変換方法(MP4・GIF)

AnimateDiffで生成されたフレーム画像は、最初は静止画(連番PNG)として保存されます。
それを動画(MP4)やアニメーションGIF、WebPに変換することで、SNS投稿や映像作品に活用できるようになります。
この章では、最も汎用的な変換ツール「ffmpeg」を中心に、GUIツールを使った簡単な方法もご紹介します。
ffmpegを使ってMP4に変換する方法(Windows)
■ ffmpegの導入
- 公式サイトからWindows版ffmpegをダウンロード
- 解凍後、
ffmpeg.exe
が入ったフォルダを環境変数に登録すると便利です
※ 環境変数の設定が難しい方は、「ffmpeg.exe」と画像フォルダを同じ場所に置いてもOK。
■ コマンド実行(動画変換)
以下のコマンドを、frame0001.png
などが入ったフォルダ内で実行します:
ffmpeg -r 8 -i frame%04d.png -c:v libx264 -pix_fmt yuv420p output.mp4
コマンド要素 | 解説 |
---|---|
-r 8 | フレームレート(8fps) |
-i frame%04d.png | 連番画像の入力パターン |
-c:v libx264 | エンコード形式(高圧縮+高品質) |
-pix_fmt yuv420p | 一般動画プレイヤーとの互換性確保 |
出力ファイル:output.mp4
GIFやWebPアニメとして保存する方法
■ GIFに変換(ffmpeg使用)
ffmpeg -r 8 -i frame%04d.png output.gif
GIFはファイルサイズが大きくなりがちなので、フレーム数を12以下に抑えると軽量に仕上がります。
■ WebPアニメ(Chrome/LINEで活用可)
ffmpeg -i frame%04d.png -loop 0 -lossless 1 -qscale 100 -vcodec libwebp output.webp
WebPは画質を保ちつつ軽量で、LINEスタンプやアイキャッチGIF代替にもおすすめ。
GUIで変換したい場合:無料ツール紹介
「コマンドは難しい…」
という方には、以下のGUIツールもおすすめです:
ツール名 | 特徴 | リンク |
---|---|---|
AviUtl | 軽量で高機能な無料動画編集ソフト | 公式サイト |
XnConvert | バッチ変換可能な画像ツール | https://www.xnconvert.com/ |
EzGIF | Web上でGIF/MP4/WebP変換 | https://ezgif.com/ |
変換後の活用例
・MP4:YouTube ShortsやInstagram Reels、X(旧Twitter)動画投稿に最適
・GIF/WebP:ブログのアイキャッチ、AI作品のサムネイルに活用
・WebP:LINEスタンプやNFTアニメ素材にも応用可能
よくあるエラーと対処法

AnimateDiffを使っていると、
「生成が始まらない」
「UIに何も表示されない」
「途中で落ちる」
など、さまざまなトラブルに遭遇することがあります。
ここでは、よくあるエラーの原因と解決策をわかりやすく解説します。
❌ エラー①:Motion Moduleが読み込まれない
原因:
・モデルファイルの拡張子ミス(.ckpt
や.safetensors
以外)
・配置フォルダが間違っている
・モデルファイルの破損・未対応形式
対処法:
・ファイルは models/Motion_Module/
に配置されているか確認
・Civitaiなど信頼できるソースから再DLする
・ファイル名に日本語やスペースを含めない
❌ エラー②:WebUIが起動しない・真っ白
原因:
・AnimateDiff導入時に拡張がうまく読み込めていない
・他の拡張(Deforumなど)との競合
・モーションモデルのバージョン不整合
対処法:
・一度 extensions/sd-webui-animatediff/
を削除して再クローン
・--disable-safe-unpickle
オプションで起動してみる
・他の拡張を一時的にリネーム or 無効化する
❌ エラー③:CUDAエラー(メモリ不足)
原因:
・高解像度(512×768など)+多フレーム指定(24以上)でVRAMが足りない
・複数のモデルを同時読み込みしている
対処法:
・解像度を 512×512以下 に下げる
・フレーム数を 8〜16 に制限する
・使用していないLoRAやControlNetはOFFにする
・xformersを導入してメモリ節約
❌ エラー④:生成される画像が真っ黒/ノイズだらけ
原因:
・プロンプトの指定ミス
・Motion ModuleとLoRAの相性が悪い
・Seed値が悪すぎる or バグによる暴走
対処法:
・prompt
に具体的な動作を明示する(例:”a girl blinking”)
・LoRAやStyle LoRAを一度外して動作確認
・Seedを固定する or リセットしてみる
✅ 最終手段:WebUIのクリーン再インストール
どうしても直らない場合は、以下の手順でクリーン再構築を検討しましょう:
①stable-diffusion-webui/
をバックアップ
②GitHubからWebUI本体を再DL
③必要な拡張やモデルのみ順番に再設定
まとめ|AnimateDiffの導入は簡単&効果大!

AnimateDiffは、Stable Diffusionの可能性を一気に広げてくれる革新的な拡張機能です。
静止画にとどまらず、動きのあるAI作品を誰でも手軽に作れる時代が始まっています。
本記事のまとめポイント
- AnimateDiffとは?
Stable Diffusionで「連番画像」→「動画」を生成できる無料拡張機能 - 導入方法も簡単
WebUIのextensions/
フォルダにGitで追加 → モーションモデルを配置するだけ - プロンプト+Motion Module+LoRAで動きや表情を自在に制御可能
- ffmpegなどでMP4やGIFに変換可能
SNS投稿・作品展示・NFT素材にも活用できる - エラー対処も万全
環境構成・メモリ調整・拡張の競合に注意すれば安定運用可能
AnimateDiffはこんな人に特におすすめ!
- AI美女やキャラクターを「生きているように動かしたい」人
- YouTube ShortsやX(旧Twitter)で「目を引く投稿をしたい」人
- セクシー動画、アニメループ、動くイラストなど創作の幅を広げたい人
- 他人と差別化できる動画付きAIアート作品を作りたいクリエイター
AnimateDiffは、一度覚えてしまえば、AI創作の強力な武器になります!
あなたのAIキャラに「命を吹き込む」体験を、ぜひこの拡張で始めてみてください!
コメント