”ローカルでStable Diffusionを使う方法”PCスペックと【AUTOMATIC1111 Web UI】と【ComfyUI】でのインストール方法を解説

Stable Diffusion(ステーブル・ディフュージョン)は、高品質な画像生成AIとして注目されていますが、「ローカルで使ってみたいけど難しそう…」と感じている方も多いのではないでしょうか?
この記事では、Stable Diffusionを自分のPCで安全に動かすための必要スペック・おすすめUI・インストール方法を初心者向けにわかりやすく解説します。
ローカルで使うメリット
- 通信なしで動作 → 完全オフラインで安心
- 商用利用でも安心(条件を守れば)
- Google Colabの制限(接続切れ・セッション制限)なし
- 拡張性が高く、自分好みにカスタマイズできる
必要なPCスペック
Stable Diffusionを快適に使うには、NVIDIAのGPUが必須です。
パーツ | 推奨スペック(最低でもこれくらい) |
---|---|
OS | Windows 10/11、またはLinux |
GPU | NVIDIA GeForce RTX 3060 以上 |
VRAM | 最低 6GB(8GB以上推奨) |
RAM | 最低 16GB |
ストレージ | 30GB以上の空き容量(モデルDL用) |


おすすめのインストール方法 3選
① ComfyUI(自由度が高い・ノード式)
- ノードベースで直感的に操作できる
- SDXLやControlNet、LoRAも使いやすい
- 初心者にもおすすめな構成が多く共有されている
【準備編】必要なもの
1. GPU付きのWindows PC
- NVIDIA製のGPU(RTX 3060以上推奨)
- VRAMは最低でも6GB、できれば8GB以上
2. 必須ソフトウェアのインストール
ソフト | 目的 | インストール方法 |
---|---|---|
Python | ComfyUIの実行環境 | のインストール方法と確認方法 |
Git | ファイル取得用 | Gitのインストール方法 |
7-Zipなど | ZIP解凍用 | https://www.7-zip.org/ |
NVIDIAドライバ | CUDA対応必須 | https://www.nvidia.co.jp/Download/index.aspx |


【インストール編】ComfyUIの導入手順
Step 1:ComfyUIを入手
- GitHubの公式ページにアクセス
https://github.com/comfyanonymous/ComfyUI - 「Code」→「Download ZIP」でダウンロード
- ZIPを解凍して、好きな場所に保存(例:
C:\ComfyUI
)
Step 2:モデル(チェックポイント)をダウンロード
Stable Diffusionのモデルファイル(.safetensors
など)を以下から入手します:
- Hugging Face(例:SDXL →
stabilityai/stable-diffusion-xl-base-1.0
)
商用利用にはライセンスに注意!
ダウンロード後は ComfyUI\models\checkpoints
に入れてください。
Step 3:ComfyUIを起動
ComfyUI\run_nvidia_gpu.bat
をダブルクリック- 数秒〜数十秒でウィンドウが表示される
- 自動的にブラウザが開いて
http://127.0.0.1:8188
が表示されれば成功!
【試してみよう!】最初の画像を生成する
- 画面左で「Load」→
ComfyUI/examples/workflows
にあるプリセットを選択
例:simple.txt
Prompt
ノードに任意のプロンプトを入力(例:a cute cat in watercolor)- 右上の ▶ ボタンをクリック
- 画像が生成されて表示されます!
【補足】セキュリティと安定運用のために
http://127.0.0.1
以外では開かないよう注意(外部公開しない)- バッチファイルやノードを改造する前にバックアップ
- 使い終わったらウィンドウを閉じて、サーバーを停止
- GitHubからZIPをダウンロード
- 解凍して
run_nvidia_gpu.bat
を実行 - ブラウザで
http://127.0.0.1:8188
を開けば完了!


② AUTOMATIC1111 WebUI(最も人気)
- GUIでわかりやすく、拡張も豊富
- ローカルで最も利用者が多いUI
- LoRA、ControlNet、画像修正も簡単
インストールには事前にPython・Gitの導入が必要です。初心者には少しハードルが高め。


【前提条件】必要なPCスペック
- GPU(推奨):NVIDIA製(VRAM 6GB以上が目安。SDXLなら12GB以上)
- OS:Windows 10/11(64bit)
- ストレージ:空き容量 10GB 以上(モデルや拡張機能によってはそれ以上)
- Python:導入時に自動で入るので事前インストール不要
【導入手順】AUTOMATIC1111 Web UI
Step 1:GitとPythonのインストール
Git
- Git公式サイトからWindows版をダウンロード
- インストーラーを実行 → すべてデフォルトでOK


Python
- Python公式サイトから「3.10.x」のWindows版をDL
- 「Add Python to PATH」にチェック → インストール


Step 2:WebUIをダウンロード
- 任意のフォルダ(例:
C:\AI\
)を作る - フォルダ内で右クリック → 「Git Bash Here」 を選択
- 次のコマンドを入力してWebUIをクローン
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
- クローン後、以下のコマンドでフォルダに移動
cd stable-diffusion-webui
Step 3:モデルファイルを配置
- 基本モデル(例:Stable Diffusion 1.5など)の
.ckpt
や.safetensors
ファイルを取得 - 以下のフォルダに入れます
stable-diffusion-webui\models\Stable-diffusion\
例:v1-5-pruned-emaonly.safetensors
など
Step 4:WebUIを起動
webui-user.bat
をダブルクリックして起動
※初回は必要なファイルを自動でダウンロード(数分かかります)- 起動後、ブラウザが自動で開きます:
http://127.0.0.1:7860
ここがStable Diffusionの操作画面です!
【初回起動後にやるべきこと】
- モデル(LoRA、ControlNetなど)の追加
- 日本語化(Extensionsから「Japanese」などを導入可能)
- 拡張機能(ControlNet, OpenPose, WD14タグ付けなど)のインストール
【補足:セキュリティや高速化設定】
- LAN内だけで使う場合はそのままでOK
- 外部アクセスを許す場合はパスワード制限が必要
- 起動時に引数を追加すると設定変更できます
webui-user.bat --xformers --api --medvram
よくあるトラブルと対策
トラブル | 解決方法 |
---|---|
起動中にエラーが出る | Python・Git・GPUドライバを最新にする |
起動後に真っ白な画面が出る | ブラウザのキャッシュ削除、再起動 |
モデルが読み込まれない | モデルファイルの拡張子と配置場所を確認 |
③ InvokeAI(安定志向・スクリプト型UI)
- 軽量で安定動作
- CLIでもGUIでも操作可能
- バッチ生成などが得意
モデルファイルの導入方法
- Hugging Faceなどから
.safetensors
または.ckpt
ファイルを入手 checkpoints
フォルダに配置(UIによってフォルダ構成は異なる)- 起動後にUIで選択するだけ!
商用利用したい方は「モデルのライセンス(例:CreativeML Open RAIL-M)」を必ず確認してください。
LoRAやControlNetの追加方法
それぞれのUIでの対応状況と使い方の概要
【LoRA導入】ComfyUI編
Step 1:LoRAファイルのダウンロード
- Hugging Face、Civitaiなどのサイトから
.safetensors
形式のLoRAファイルをダウンロードします
例:anime_style_lora.safetensors
- ファイルを次の場所に移動
ComfyUI\models\lora\
Step 2:ComfyUIでLoRAノードを使う
- ComfyUIを起動して、ワークスペースを開く
- ノード追加 → 検索窓で「LoRA」と入力
→Load LoRA
を追加 Load LoRA
ノードでファイルを選択(プルダウンメニューに出てきます)Apply LoRA
ノードをCLIP Text Encode
とCLIP
に接続
LoRAは「テキストエンコードとUNet」に適用されるので、2箇所に接続が必要です。
【ControlNet導入】ComfyUI編 Step 1:拡張モデルのダウンロード
ControlNetモデル(例:control_sd15_canny.pth
など)を以下から入手:
- Hugging Faceの lllyasviel/ControlNet リポジトリなど
ファイルを次のフォルダに入れます
ComfyUI\models\controlnet\
Step 2:ControlNetノードを使う
- ノード追加 →
ControlNet Loader
を追加 ControlNet Apply
ノードも追加し、適用対象を設定(UNetなど)Image
ノードやCanny Detector
ノードなどと接続して、元画像から条件を抽出します
例えば「ポーズ」や「線画」などから、ベース画像の構図を維持したまま画像生成ができます。
補足
- ControlNetモデルは種類が多いので、やりたいこと(ポーズ/線画/深度など)に応じてモデルを選びましょう
- LoRAとControlNetは併用可能。どちらも使うと、精度の高い、意図したスタイルの画像が作れます
よくある用途の例
目的 | 必要なノード例 |
---|---|
アニメ風にしたい | LoRA (anime style LoRA) |
ポーズを再現したい | ControlNet + OpenPoseノード |
線画から着色したい | ControlNet + Cannyノード |
【LoRAの導入方法】AUTOMATIC1111 Web UI編
Step 1:LoRAファイルをダウンロード
- CivitaiやHugging Faceなどから、
.safetensors
形式のLoRAを入手します。
例:anime_girl_style.safetensors
Step 2:指定フォルダに配置
LoRAファイルを、以下のフォルダに入れます:
stable-diffusion-webui\models\Lora\
Step 3:WebUIでLoRAを使う
- WebUIを起動し、txt2imgやimg2imgタブを開きます
- プロンプトにLoRAを呼び出す記述をします:
<lora:anime_girl_style:0.7>
※ 0.7
はLoRAの強さ(値を上げると効果が強くなります)
- 画像を生成すると、LoRAのスタイルが反映されます
【ControlNetの導入方法】AUTOMATIC1111 Web UI編
Step 1:拡張機能の導入(初回のみ)
- WebUI起動後、「拡張機能」→「拡張機能リスト」タブを開く
- 一覧から
sd-webui-controlnet
を検索し、「インストール」ボタンをクリック - 再起動すると、WebUIに「ControlNet」タブが追加されます
Step 2:モデルのダウンロード
ControlNet用のモデル(例:control_sd15_canny.pth
など)を以下から入手
- Hugging Face: lllyasviel/ControlNet
以下のフォルダにモデルファイルを配置します
stable-diffusion-webui\extensions\sd-webui-controlnet\models\
Step 3:ControlNetの使い方
- txt2imgまたはimg2imgタブ内の「ControlNet」セクションを開く
- 使用する画像(例:線画、ポーズ画像)をアップロード
- モデル(例:canny, openpose など)を選択
- 各種オプション(有効化、推論強度など)を設定
- 通常通り画像生成を開始
補足:LoRAとControlNetの併用もOK!
- A1111は LoRA・ControlNetを同時に使えます。
- 例えば「構図はポーズ画像から取り、画風はLoRAで指定」などが可能。
目的 | 使用機能 | 設定例 |
---|---|---|
アニメ調にしたい | LoRA | <lora:anime_style:0.8> |
ポーズを再現したい | ControlNet | OpenPose + 画像アップロード |
線画を着色したい | ControlNet | Canny + 線画画像をアップロード |
両方使いたい | LoRA+ControlNet | LoRA指定+ControlNetに画像&モデル指定 |
LoRAとControlNetは「モデル拡張」であり、複数のUIで使える共通技術です。導入しやすさ・操作感はUIにより異なるため、自分のスタイルに合ったUIを選ぶのがコツです。
よくあるエラーと対処法
症状 | 解決策 |
---|---|
起動しない/黒い画面だけ | GPUドライバが最新か確認、再起動 |
メモリエラー(CUDA out of memory) | 解像度やステップを下げる、VRAM節約ノードを使う |
モデルが表示されない | checkpointsフォルダに正しく配置されているか確認 |
セキュリティ面の注意
ローカルでも安心ですが、以下を守りましょう
127.0.0.1
のままで使用(外部公開しない)- ファイアウォールを有効に
- 起動しっぱなしにしない
まとめ
ローカル環境でStable Diffusionを使うことで、自由度もセキュリティも大幅にアップします。最初は少し準備が必要ですが、一度整えてしまえば自分だけのAIアトリエが完成しますよ!