AUTOMATIC1111 使い方|初心者向け完全ガイド(Stable Diffusion WebUI)

Automatic1111 完全ガイド

本記事は、インストールから使い方、LoRA活用、拡張機能までの
AUTOMATIC1111の各機能ページへのリンクページとなっています。

本記事は、AUTOMATIC1111基本的な操作方法と、詳細記事へのリンクページとなっています。

AUTOMATIC1111の導入方法
基本的な操作方法
拡張機能を使用する方法
LoRA学習をする方法

については以下の記事で書いています。

目次

AUTOMATIC1111の導入方法

ローカルPCへのAutomatic1111のインストールはこちらの記事をご覧ください。

クラウドのGPUで使用する場合はこちらをご覧ください。

Controlnetや、アップスケールなどの拡張機能についてはこちらの記事をご覧ください。

LoRAモデルの使用については、こちらの記事をご覧ください。

起動方法

前提条件

Stable Diffusion WebUI(AUTOMATIC1111)を インストール済み
もしくは、
クラウドGPU環境で、Stable Diffusion WebUI(AUTOMATIC1111)を使用できる環境がある事。

ローカルの場合(Windows

  1. インストールしたフォルダ(例:stable-diffusion-webui)を開く
  2. 中にある webui-user.batダブルクリック
userbat

 ⬇
 ターミナル(Windows Terminal or PowerShell or コマンドプロンプト)が開いて、自動で以下が実行されます

  • Pythonの仮想環境が有効化
  • 必要な依存ライブラリが確認・インストール
  • launch.py が呼び出されてWebUIが起動
  1. 起動完了後、以下のようなURLが表示される
Running on local URL: http://127.0.0.1:7860

このURLをブラウザで開くとWebUIにアクセスできます 。

  1. インストールフォルダ内の webui-user.bat をダブルクリック
  2. 黒いコマンドプロンプト画面が開く
  3. しばらく待つとブラウザが自動で立ち上がり、
    http://127.0.0.1:7860 が開きます

もしブラウザが開かない場合は、アドレスを手動入力してください。

クラウドGPUの場合

Deployする。


画面構成と設定

起動すると以下のようなWebUIが表示されます。

AUTOMATIC1111 WebUI(Stable Diffusionのフロントエンド) の「基本生成設定タブ(txt2img)」

  • 左側:Prompt(プロンプト入力欄)
  • 下部:Negative prompt(不要な要素を指定)
  • 上部タブ:
    • txt2img(テキストから画像生成)
    • img2img(画像から生成変換)
    • Extras(アップスケーリングや顔補正)

txt2img

  1. Prompt に生成したい内容を英語で入力
    • 例:a cute cat, highly detailed
  2. Negative prompt は空欄でもOK(不要要素がある場合のみ入力)
  3. Width / Height(解像度) はデフォルトでOK(512×512 または 768×768)
  4. SamplerEuler aDPM++ 2M Karras を選択
  5. 「Generate」をクリック

右側にプレビューが表示されれば成功です。

もっと自分好みのキャラクターやスタイルを反映させたい方は、 LoRA(学習済み追加モデル) を使うと便利です。
AUTOMATIC1111ではLoRAも簡単に読み込んで使えます。

詳しい手順はこちらをご覧ください[AUTOMATIC1111でLoRAモデルを使う方法]

img2img

テキストだけでなく「画像をもとに別の画像を生成」する機能が img2img です。
詳しい解説はこちらをご覧ください。

[AUTOMATIC1111 img2imgの使い方(リンク)]

Extras

Extraタブ内の画像修復とアップスケールの使用方法はこちらの記事でまとめています。

LoRAモデルの使い方


生成した画像の保存場所

生成された画像は自動でPCに保存されます。

保存先:
stable-diffusion-webui/outputs/txt2img-images/日付フォルダ/

画像の下にある「Save」ボタン、もしくはダウンロードボタン、画像を保存から手動保存も可能です。


AUTOMATIC1111の主要設定項目

Sampling method(サンプリング方式)

画像を「ノイズから復元」していくアルゴリズムの種類の選択。

  • Euler a … 初期設定でよく使われる高速・安定タイプ。
    シャープで、アニメ調にも向いています。
  • 他にも
    • DPM++ 2M Karras(高品質・安定)
    • DPM++ SDE Karras(柔らかい質感)
    • DPM++ 3M SDE(高品質・安定)
    • DDIM(旧来のSD1.5系の標準)などがあります。

コツ
SDXLモデルなら「DPM++ 2M Karras」や「DPM++ 3M SDE」系が安定的に高品質です

Schedule type(スケジュールタイプ)

サンプリングアルゴリズム内で、ノイズ除去の進行具合(スケジュール)を決める設定。
「Automatic」はモデルに最適なスケジュールを自動選択するモード。
特にこだわりがなければこのままでOK。


Sampling steps(サンプリングステップ数)

生成に使う反復回数。
数値が多いほど時間がかかるが、細部が整いやすい。

  • 例:
    • 20〜25:スピード重視(十分高品質)
    • 30〜40:高精細だが生成時間が長くなる
  • LoRAやControlNetを使う場合は25〜30がバランス◎

Hires. fix(高解像度修正)

生成した画像をさらに高解像度にしたい場合は、Hires.fix 機能を使います。

  1. txt2imgタブの中にある「Hires.fix」にチェックを入れる
  2. Upscale by(倍率) を「2」程度に設定
  3. 「Generate」をクリック

これで1回目の生成画像をもとに、自動で高解像度版を生成してくれます。



Refiner(リファイナー)

SDXL専用の「仕上げモデル」。

  • 例:sdxl_refiner_1.0.safetensors
  • 生成途中の画像を再度ブラッシュアップしてくれる。
  • ADetailerとは別で、テクスチャや質感を向上させます。

SDXL系では「Refinerあり」が標準的です。


Width / Height(画像サイズ)

出力解像度(ピクセル単位)。

  • 512×512:標準的。SD1.5では推奨。
  • 1024×1024:SDXLの推奨解像度。
  • サイズが大きいほどVRAMを多く消費します。

Batch count / Batch size

一度に何枚生成するかの設定。

  • Batch count:連続生成回数(何ターン回すか)
  • Batch size:1ターンで同時に生成する枚数

例)
Batch count 2 × Batch size 2 → 合計4枚生成。

Batch sizeを増やすとVRAM負荷が増します。


CFG Scale(ガイダンススケール)

「プロンプトにどれだけ忠実に従うか」を決める値。

  • 7が標準的(安定)
  • 低い(3〜5) → 自然でランダムな結果
  • 高い(10〜12) → プロンプトに忠実だが破綻しやすい

一般的には「6〜8」で使われます。


Seed(シード値)

ノイズの初期状態。
同じSeed+同じ設定なら、同じ画像が再現できます。

  • -1:ランダム生成
  • 任意の数値(例:12345)を指定すると、再現性のある生成

ボタンでランダム化、♻️ で前回Seedの再使用が可能。

おすすめ初期値


項目推奨設定(SDXL向け)
Sampling methodDPM++ 2M Karras
Sampling steps25〜30
CFG Scale7
Width / Height1024×1024
Hires. fixON(倍率1.5〜2.0)
RefinerSDXL Refinerを使用
Seed-1(ランダム)
Batch count2〜4(比較生成)

追加機能

A1111 に含まれている非StableDiffusion系の機能・モデル

A1111 はこういう構造になっています

Stable Diffusion(本体)
     ↑
追加プラグイン・外部モデル
     ├ GFPGAN
     ├ RestoreFormer
     ├ Real-ESRGAN
     ├ SwinIR
     ├ CodeFormer
     ├ Booru tagger
     ├ CLIP interrogator
     └ ControlNet

A1111 にある機能の多くは SD ではなく、外部AIモデルや補助ツール です。

GFPGAN(顔補正)

SD とは関係なく、単独で動きます。

RestoreFormer / CodeFormer(顔修復)

これも独立モデルであり、SD を使わずに適用できます。

ESRGAN / Real-ESRGAN(アップスケーラー)

完全に外部モデル。
GAN ベースであり SD とは別物。

LDSR / SwinIR / 4xUltraSharp

これらも SD ではなくアップスケール系。

ControlNet

画像やポーズ、線画などをもとに構図をコントロール。
v1.1.455は比較的安定版。
用途:ポーズ固定、構図再現、線画補助など。

ADetailer

顔や手など、特定領域を自動検出して修正してくれる拡張。
LoRAなどと併用すると特に効果的。


Dynamic Thresholding (CFG Scale Fix)

高すぎるCFG値によるハイコントラストや破綻を防ぐ補正。
SDXLモデルではONにすると安定性が上がります。


ReActor

顔置き換え(フェイススワップ)機能。
人物合成やキャラ統一などに利用可能。
ただし重いのでVRAM8GB以下では注意。


Script(スクリプト)

追加の自動処理やアニメーション生成を組み込む機能。
通常は「None」でOK。


よくあるトラブルと対処法

モデルが見つからないエラー

/models/Stable-diffusion/ フォルダにベースモデル(例:SD1.5やSDXL)を配置してください。

VRAM不足エラー

→ 起動オプションに --medvram または --lowvram を追加すると改善する場合があります。

もしVRAM不足でエラーが出てしまう場合は、まず以下を試してみてください。

  • 画像サイズを小さめにする(例:512×512)
  • 軽量なモデル(SD 1.5など)を使う
  • バッチサイズを1にする

それでも解決しない場合や、高解像度や高精細な画像が生成したい場合は、
クラウドGPUサービスを利用するのがおすすめです。

[RunPodの使い方解説記事] では、SDXLのような重いモデルでも快適に生成出来る”AUTOMATIC1111をクラウド環境で動かす方法”について書いています。
又、最新のFluxモデルをワンクリックで使用できるテンプレートや、画像から動画を生成するテンプレートについても紹介しています。

ブラウザが開かない

http://127.0.0.1:7860 を手動で入力


まとめ

  • AUTOMATIC1111は まずtxt2imgで1枚生成するところから 始めるのがおすすめ
  • Hires.fixを覚えると高画質化が可能
  • img2imgやLoRAを使えばさらに表現の幅が広がります
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次