InvokeAIの使い方



「InvokeAI(インヴォーク・エーアイ)」は、Stable Diffusionをベースとした画像生成ツールの一つで、特に以下のような特徴を持ちます。
InvokeAI の特徴(2025年時点)
項目 | 内容 |
---|---|
モデル | Stable Diffusion 1.5 / 2.1 / SDXL 1.0 に対応 |
UI | WebベースのUIとコマンドラインUIの両方に対応(いわゆるスクリプト型UIも併設) |
特徴 | 安定志向、高機能、業務用途にも向く設計 |
拡張性 | ControlNet, LoRA, T2I-Adapter などの機能も対応(バージョンによる) |
カスタマイズ性 | Pythonスクリプトや設定ファイルによる細かい制御が可能 |
バッチ処理 | 複数プロンプトや構成での自動生成が得意(スクリプト実行型) |
ローカル実行 | 画像生成・保存などすべてローカルで完結。商用にも使いやすい |
対象ユーザー | 中〜上級者、もしくは「スクリプト制御が好きな方」 |
【1】ControlNetやInpaintingといった高度な生成制御機能が使える
→ 単なる画像生成だけでなく、「構図の保持・ポーズ指定・画像の一部修正」など、商用クオリティが求められる制作にも使える、という意味です。
- ControlNet:ポーズや輪郭などを活かした生成が可能 → キャラの一貫性や構図指示が必要な案件で便利
- Inpainting:画像の一部を修正(背景差し替え・表情変更など)→ 修正対応の多い商業案件向き
【2】スクリプトやバッチ処理によって一括生成・自動化がしやすい
→ 例えば「10個の構図 × 5つのキャラ × 色違い」など、パターン展開をしたい場合に非常に便利です。
- プロンプトや構成をスクリプトで定義 → 大量の画像を一括生成可能
- 自動保存や命名ルールも設定可能
- 定型業務(例:LINEスタンプ、広告バナー、商品画像)などに向いている
【3】安定性と再現性が高い → 商用利用に安心
- InvokeAIはUIや仕様が比較的落ち着いており、「バージョン依存の不具合が少ない」点が好評です。
- ローカル完結であり、生成内容も自分で完全管理できるため、商用利用時のリスク管理(個人情報・著作権など)もしやすい。
UIのスタイル
- Web UI(InvokeAI Web)
→ AUTOMATIC1111のような直感的GUIに近いけれど、よりシンプルで安定重視。 - コマンドライン&ノードスクリプト型 UI(InvokeAI CLI)
→invoke.py
にプロンプトや設定を記述して一括実行できる、スクリプト感のある操作性。
他ツールとの違い
ツール名 | 操作性 | 安定性 | 機能性 | 拡張性 | 備考 |
---|---|---|---|---|---|
AUTOMATIC1111 | ★★★★★ | ★★★☆☆ | ★★★★★ | ★★★★★ | 拡張機能豊富、開発スピード速い |
ComfyUI | ★★★☆☆ | ★★★★☆ | ★★★★★ | ★★★★★ | ノード型で柔軟、慣れが必要 |
InvokeAI | ★★★★☆ | ★★★★★ | ★★★★☆ | ★★★★☆ | 安定志向、業務利用に向く |
InvokeAI 導入ガイド
安定版 v3.0 以降対応(SDXLもサポート)
Python 仮想環境を利用してインストールします。
対応環境と要件
項目 | 推奨環境 |
---|---|
OS | Windows 10/11、Linux、macOS(M1/M2/M3含む) |
GPU | NVIDIA GPU(VRAM 6GB以上推奨)またはCPUモードも可 |
Python | 3.10.x(3.11や3.12は非推奨) |
仮想環境 | venv or conda |
GPUドライバ | CUDA 11.8 + PyTorch 2.1.0(自動インストールでも可) |
ステップ①:Python環境の準備
Windows / Linux / Mac 共通
- Python 3.10 をインストール
- 公式サイト
- 「Add Python to PATH」に✅を入れてインストール
- 仮想環境の作成(例: venv)
bashコードをコピーするpython -m venv invokeai-env
- 仮想環境を有効化
- Windows
invokeai-env\Scripts\activate
- Mac/Linux
source invokeai-env/bin/activate
ステップ②:InvokeAI のインストール
※インストール方法は二通りあります。pip install
… 開発者的な使い方(スクリプト・API連携・自作ツールへの組み込み)をしたい場合は、手動構築する方が向いています。
一方で、invokeai-installer
… まずは使ってみたい・動かしたい人には こちらが圧倒的にラクです。
pip install
で入れる方法 直接
pip install --upgrade pip
pip install invokeai
invokeai
を pip で直接インストールする方法です。
これは Python パッケージとして InvokeAI を導入するだけで、モデルの準備や設定は自力で行う必要があります。
もしくは、invokeai-installer
を使う方法(最も安定) 公式推奨の インストーラー
pip install invokeai-installer
invokeai-configure
invokeai-installer
は InvokeAI の導入を自動化してくれるツールです。
インストーラーを実行すると、以下が対話形式で設定されます
- モデル(SD1.5 / SDXL など)の自動ダウンロード
- Web UI / CLI の選択
- フォルダ構成の設定(例:models、outputs)
ステップ③:InvokeAI の起動
CLI(コマンドラインインターフェース)モードで起動する方法
invokeai
InvokeAI を Web モードで起動するように設定(invokeai.yaml
の設定で Web モードが有効)されている場合は、invokeai
だけでも http://localhost:9090
が立ち上がります。(通常は http://localhost:9090)
環境構築時に「Web モードをデフォルトにするか?」という質問に「Yes」と答えた場合に限ります。
明示的に Web UI モードで起動する方法
invokeai --web
このように --web
オプションを付けて実行するのが確実です。
すると、必ずブラウザUIが開きます(http://localhost:9090
)。
ステップ④:基本的な使い方
- 左側でプロンプトとモデルを選択
- 必要に応じて ControlNet や Inpainting モードを有効化(別途有効化必要)
- スクリプトを使いたい場合は CLI から
.yaml
設定ファイルを使ってバッチ生成が可能
InvokeAIでControlNetを使用するための手順(Web UIベース)についてはこちらをクリック!
前提条件
要素 | 内容 |
---|---|
InvokeAI | バージョン3.0以降(ControlNet対応) |
GPU VRAM | 最低でも12GB以上推奨(SDXL + ControlNet使用時) |
モデル | SDXL or SD 1.5 に対応した本体モデルと、それに対応するControlNetモデル |
手順 ①:ControlNetの有効化
ターミナルで以下を実行します
invokeai-configure --enable-controlnet
- 対話形式で「ControlNetを有効にしますか?」と聞かれる → 「Yes」
- 完了後、設定が
invokeai.yaml
に保存されます - 次回起動時から ControlNetタブ が表示されるようになります
手順 ②:ControlNetモデルの準備
ControlNetモデル(.safetensors
形式)を Civitai や Hugging Face などからダウンロードします。
モデルの例(SDXL用)
モデル名 | 用途 |
---|---|
controlnet-sdxl-canny | エッジ制御 |
controlnet-sdxl-depth | 深度マップ |
controlnet-sdxl-openpose | ポーズ制御 |
controlnet-sdxl-scribble | 手書き線画制御 |
保存先
invokeai/
ディレクトリ内の以下に保存
models/controlnet/
└── controlnet-sdxl-canny.safetensors
手順 ③:Web UIでControlNetを使う
1. InvokeAIを起動
invokeai-web
ブラウザが開いたら、以下の手順で進めます。
2. モデルの選択(SDXLまたはSD1.5)
- 右上の「モデルセレクター」で SDXLベースのモデルを選択
- 例:
sdxl_base_1.0.safetensors
やRealVisXL
,DreamShaper XL
など
3. ControlNetタブを開く
- 画面左下 or 右下にある「ControlNet」パネルをクリックして展開
4. 画像とモデルの指定
- 画像入力:制御に使う画像(ポーズ、線画など)をアップロード
- ControlNetモデル選択:使用するモデルを選ぶ(例:
canny
,openpose
など)
ControlNetモデルごとに入力画像の「前処理」が必要です。InvokeAIでは自動でやってくれます。
5. オプション設定(必要に応じて)
- Weight(重み):生成に対するControlNetの影響度(通常0.5〜1.0)
- Control Mode:
- Balanced(バランス)
- Prompt Only(ControlNet無効に近い)
- ControlNet Only(プロンプトより制御画像優先)
- Resize mode:Image resize 方式(通常は
Just Resize
)
6. プロンプトを入力して画像生成!
- 通常通り「プロンプト」「ネガティブプロンプト」「ステップ数」「CFG」などを指定
- 「生成」ボタンを押すと、ControlNetの効果が適用された画像が出力されます
複数ControlNetの併用(Multi-Control)
InvokeAIでは、最大 3つまでのControlNetを同時に使用できます(UI上で追加可能)。
例えば:
- OpenPoseでポーズ指定
- Depthで奥行き指定
- Cannyでエッジ指定
→ 高度な構図・表現が可能です。
一括生成(スクリプト実行型)の例
invokeai --from_file your_prompts.txt
※ your_prompts.txt
に以下のような記述
a cyberpunk cat sitting on a rooftop at night
a wizard casting a fireball, fantasy style
a steampunk robot playing the violin
アンインストール
pip uninstall invokeai
仮想環境を削除すれば完全にクリーンに戻せます。
公式ドキュメント
公式ドキュメントで確認できる内容
- インストール方法(Windows/macOS/Linux、pip/manual/Docker)
- Web UI の使い方と設定
- CLI や API を使ったバッチ処理への組み込み方法
- ノードベースワークフローの解説
- モデル管理、LoRA、ControlNet 構成
- よくある質問(FAQ) とトラブルシューティング
※商用利用したい方は「モデルのライセンス(例:CreativeML Open RAIL-M)」を必ず確認してください。
SDXL・LoRA・ControlNet などの導入
SDXL対応のためにはモデルの自動取得を選んでおく
SDXLをInvokeAIで使うための設定手順(v3.0以降)
InvokeAI v3.0 以降は SDXLに公式対応しており、比較的簡単に使えますが、以下のポイントを押さえておくと安心です。
1. モデルのダウンロード方法(公式推奨)
InvokeAIでは、セットアップ時に次のような画面が出ます
Which model(s) would you like to download?
1. SD 1.5
2. SDXL Base
3. SDXL Refiner
2
を選べば SDXL Base モデル(主に画像生成用)3
を選べば SDXL Refiner モデル(仕上げ用) が自動でダウンロードされます。
または、後から以下コマンドで追加も可能
invokeai-model-install --model sd_xl_base_1.0
invokeai-model-install --model sd_xl_refiner_1.0
2. モデルの手動配置(※自分で持っている場合)
sd_xl_base_1.0.safetensors
sd_xl_refiner_1.0.safetensors
これらのモデルファイルを以下のように配置
InvokeAI/
├── models/
│ └── stable-diffusion/
│ ├── sd_xl_base_1.0.safetensors
│ └── sd_xl_refiner_1.0.safetensors
3. モデル設定ファイル(YAML)が必要!
InvokeAIは .yaml
設定ファイルがモデルごとに必要です。
自動取得の場合は勝手に作られますが、手動の場合は以下のように記述。
例:sd_xl_base_1.0.yaml
name: sd_xl_base_1.0
path: sd_xl_base_1.0.safetensors
model_format: safetensors
variant: fp16
description: Stable Diffusion XL Base
width: 1024
height: 1024
→ この .yaml
を同じフォルダに置けば認識されます。
4. SDXLの「2段階構成」に注意
SDXLは以下の流れで生成されます
- Baseモデルで粗い画像を生成(1024×1024)
- 必要に応じて Refiner で細部をブラッシュアップ
InvokeAIでは、**Refinerの自動適用タイミング(20~30ステップ目など)**を指定できます。
5. Web UIでの設定(起動後)
- モデル選択で「sd_xl_base_1.0」を選ぶ
- 下部オプションで「Refiner を使う(Use SDXL Refiner)」を有効化
- ステップ数や
refiner switch point
を調整(例:25)
SDXLで効果的なプロンプト構成
ここでは以下の構成で、用途別おすすめプロンプト例をご紹介します
基本構造:
[主題], [詳細な形容詞やスタイル], [カメラアングルやライティング], [背景や雰囲気], [アートスタイル]
例:
A cyberpunk girl wearing glowing neon jacket, cinematic lighting, standing in rainy city at night, artstation concept art
1. キャラクターデザイン向け
a stylish female android, glowing cyberpunk outfit, silver hair, photorealistic, close-up portrait, ultra detailed, dramatic lighting, depth of field, studio background, concept art
POINT:構造と雰囲気を強調しつつ、写実感を出せる。
2. 風景・背景アート向け
a vast floating city in the sky, surrounded by clouds, futuristic buildings with neon lights, sunset light rays, epic scale, wide-angle view, cinematic concept art, trending on ArtStation
POINT:遠景や空気感(霞、霧)を非常に自然に描写できます。
3. ファンタジー・イラスト向け
a forest elf queen with glowing eyes, wearing elegant armor, standing in an enchanted forest, god rays through trees, mystical atmosphere, fantasy art, highly detailed, wlop style
POINT:「雰囲気」や「光の演出(god rays)」などもSDXLは得意。
4. フォトリアル・ポートレート向け
a Japanese woman in a traditional kimono, standing in Kyoto street, shallow depth of field, natural lighting, photorealistic, captured with Canon EOS R5, 85mm lens, soft focus background
POINT:カメラの種類やレンズまで指定するとよりリアルに。
5. プロダクト・デザイン系
a futuristic ergonomic office chair with glowing blue edges, minimalistic white background, isometric view, highly detailed industrial design, concept rendeX
POINT: 製品イメージ・広告向けにも優秀です。
SDXL向け追加テクニック(プロンプト編)
テクニック | 例 | 効果 |
---|---|---|
カメラ用語 | “bokeh”, “depth of field”, “50mm lens” | 写真のような演出 |
光の演出 | “cinematic lighting”, “rim light”, “volumetric fog” | 雰囲気を出す |
構図 | “close-up”, “isometric”, “top-down view” | 構図を明確に |
トレンド用語 | “ArtStation”, “Pixiv”, “Unreal Engine render” | スタイリッシュな絵柄に |
スタイル名 | “by Greg Rutkowski”, “wlop”, “Studio Ghibli style” | 特定の画風に寄せる |
ネガティブプロンプト(不要なものを排除)
low quality, blurry, distorted, extra limbs, bad anatomy, watermark, signature, jpeg artifacts
※SDXLでは不要な要素の除去も効果的です。
LoRAとの併用について
- SDXLに対応したControlNetやLoRAは少し対応が遅れています
- InvokeAIではLoRAとControlNetのSDXL対応も進行中(v3.3~3.4系で安定化予定)
SDXL(Stable Diffusion XL)は 言語理解力が高く、複雑な構図やライティングにも強いため、従来のSD1.5よりも自然な描写が得意です。
1. SDXL対応LoRAとは?
SDXLはベースモデルの構造がSD1.5と異なるため、対応するLoRAも別物です。
主に以下の条件を満たすLoRAを使用します
SDXL 1.0 Base モデルに対応(network_dim, base_model が明記されている).safetensors
形式(InvokeAIはこれに対応)
学習時に --network_alpha
や --rank
を明示したもの
※ Civitai などでは「SDXL」タグがついているLoRAを選ぶ。
2. InvokeAIでのLoRA導入手順(v3.2〜)
手順:
LoRAファイル(.safetensors)を以下に配置
InvokeAI/
├── models/
│ └── lora/
│ └── my_lora_model.safetensors
InvokeAI Web UIを起動し、LoRAセクションを展開
モデルロード後、左メニュー → LoRA をクリック
一覧からLoRAを選択し、強度(Weight)を調整(例:0.6〜1.0)
SDXL用LoRAは、0.8〜1.0が推奨されるケースが多いです(SD1.5より強めでOK)
3. SDXL + LoRA のプロンプト活用例
A. キャラクターLoRA(例:「SDXL anime girl」LoRA)
a beautiful anime girl with silver hair, blue eyes, wearing a school uniform, standing in a field of flowers, soft lighting, 4K, SDXL anime style
→ LoRA名:animeGirl_SDXL.safetensors を適用(Weight: 0.9)
B. ファッション・衣装LoRA(例:「Kimono」LoRA)
a Japanese woman in a detailed kimono, sitting by the river in Kyoto, cinematic lighting, photorealistic, bokeh
→ LoRA名:kimono_SDXL.safetensors(Weight: 1.0)
C. アートスタイルLoRA(例:「WLOP SDXL」LoRA)
a female knight with glowing sword, standing on a cliff, epic lighting, misty background, dramatic fantasy painting
→ LoRA名:wlop_SDXL.safetensors(Weight: 0.8〜0.9)
4. LoRAを複数組み合わせる(SDXLでも可能)
InvokeAIでは複数LoRAの同時使用も可能です
animeGirl_SDXL.safetensors → Weight: 0.8
kimono_SDXL.safetensors → Weight: 1.0
両方適用すれば、「和風衣装を着たアニメ風キャラ」が生成できます。
※互いに干渉しすぎる場合(例:絵柄とポーズLoRAの衝突)は崩れるので、組み合わせは少しずつテスト推奨。
SDXL用LoRAの探し方(Civitai例)
検索バーに「LoRA SDXL」または「SDXL 1.0」と入力
フィルターで「Base Model → SDXL 1.0」を選択
ファイル名に「.safetensors」が含まれていることを確認
SDXL対応LoRAおすすめ10選
- ComicXL_V1 アメリカンコミック風ポップ。
- Crazy Portrait オシャレでポップな配色。
- Cute Animals 優しい雰囲気の動物系。
- Dissolve Style リアル系の絵柄。
- Fantastical Realism リアルファンタジー系SF要素も。
- Fractal Geometry Style フラクタルの名の通りパターン化される造形美。
- Neon Style XL ネオンカラーがオシャレなサイバー系。
- Paint Splash Style ペインティングアート。
- Pencil Drawing その名の通りドローイング。伝統と革新。
- Mosaic Texture SDXL 懐かしい感じのタイルアート風。
選び方のポイント
- 用途に応じたアートスタイルで選定(例:キャラ向け / 風景 / 抽象アートなど)
- Weight調整:初期は0.8~1.0で試し、出力感が弱い・強すぎると感じたら0.6~1.2範囲で調整
- プロンプトとの併用:本体プロンプトにスタイル名や演出ワードを加えると相乗効果あり
ControlNet との併用について
1. SDXL対応ControlNetとは?
ControlNetは、もともとStable Diffusion 1.5向けに開発されましたが、より高精度なモデルであるSDXL(Stable Diffusion XL)にも対応したバージョンが登場しています。
SDXLは1.5に比べて表現力が高いため、より自然で高品質な画像生成と、繊細なコントロールが可能です。
2. SDXL ControlNetの導入方法(AUTOMATIC1111の場合)
SDXL対応のControlNetを使うには、以下が必要です。
- Stable Diffusion Web UI(AUTOMATIC1111)
- 拡張機能「ControlNet」
- SDXL向けのControlNetモデル(*.safetensors)
※SDXL用のControlNetモデルは、通常の1.5モデルとは互換性がないため、専用のモデルを使用する必要があります。
手順:
invokeai-configure --enable-controlnet
- ControlNet拡張機能をWeb UIでインストール
models/ControlNet
フォルダに SDXL対応のControlNetモデルを配置- Web UIを再起動し、「ControlNet」タブで設定可能に
SDXL × ControlNet を InvokeAI で使う際のポイント
1. invokeai-configure --enable-controlnet
でControlNetを有効化
このコマンドでControlNet機能が有効になり、起動時にControlNetタブが表示されるようになります。
すでに invokeai-configure
でセットアップ済みの場合でも、再実行すればControlNetを後から追加できます。
2. SDXLモデルを読み込んでおく
SDXLベースのモデル(例: sdxl_base_1.0.safetensors
など)を使用するには、models/sdxl
ディレクトリに入れておく必要があります。
InvokeAI では、自動でSDXLモデルを識別し、「SDXL」モードとして扱ってくれます。
3. SDXL用のControlNetモデルを用意する
SDXLは、1.5用ControlNetとは互換性がありません。必ず「SDXL用のControlNetモデル(~sdxl~.safetensors)」を使う必要があります。
モデルの配置場所
models/controlnet
フォルダに以下のように格納します
models/controlnet/
├─ canny_sdxl.safetensors
├─ depth_sdxl.safetensors
└─ openpose_sdxl.safetensors
4. Web UI または CLI で使用する
Web UIの場合:
- モデルとして SDXL を選択
- ControlNet タブを有効化
- 使用したいControlNetモデルを選択(例: canny、depth、poseなど)
CLIの場合:
生成コマンドで --control_net
オプションを使い、ControlNetを有効にします(ただし詳細設定には注意が必要なのでGUIの方が扱いやすいかも)。
SDXL対応ControlNetの代表的なモデル例
以下は、SDXLに対応しているControlNetモデル(一部)です。
モデル名 | 説明 |
---|---|
controlnet-sdxl-canny | エッジ画像から形状を制御 |
controlnet-sdxl-depth | 深度マップから立体感を再現 |
controlnet-sdxl-openpose | ポーズ情報を元にポーズを再現 |
controlnet-sdxl-scribble | 手描き線画から元画像を生成 |
controlnet-sdxl-seg | セグメンテーション画像で領域制御 |
controlnet-sdxl-lineart | 線画風画像から制御 |
controlnet-sdxl-mlsd | 直線構造の特徴を使って建築物などに有効 |
Hugging FaceやCivitaiなどで「sdxl controlnet」で検索すると、対応モデルが見つかります。
SDXL ControlNetの活用例
① 手描きラフ → イラスト風画像に
controlnet-sdxl-scribble
を使えば、ざっくり描いたスケッチを元にイラスト化できます。
② ポーズ写真 → キャライラストに
controlnet-sdxl-openpose
にポーズ画像を与えると、そのポーズを保ったまま生成可能。
③ 線画 → フルカラー画像に
controlnet-sdxl-lineart
を使えば、線画に忠実なカラーイラストを生成。
④ 建物写真の輪郭 → アニメ背景に
controlnet-sdxl-mlsd
を使うと、建築物などのパースを活かした絵作りが可能。
⚠️ 注意点
- SDXL用ControlNetはファイルサイズが大きく(2〜4GB)、VRAMを多く消費します(12GB以上推奨)。
- 通常のControlNetと同様に、**重ねがけ(Multiple ControlNet)**も可能ですが、計算コストは増えます。
- SDXLベースのモデル(例:Juggernaut XL, RealVisXL, DreamShaper XLなど)と相性が良いです。