InvokeAIの使い方

InvokeAIの使い方 SDXL・LoRA・ControlNet
InvokeAI

「InvokeAI(インヴォーク・エーアイ)」は、Stable Diffusionをベースとした画像生成ツールの一つで、特に以下のような特徴を持ちます。

目次

InvokeAI の特徴(2025年時点)

項目内容
モデルStable Diffusion 1.5 / 2.1 / SDXL 1.0 に対応
UIWebベースのUIとコマンドラインUIの両方に対応(いわゆるスクリプト型UIも併設)
特徴安定志向、高機能、業務用途にも向く設計
拡張性ControlNet, LoRA, T2I-Adapter などの機能も対応(バージョンによる)
カスタマイズ性Pythonスクリプトや設定ファイルによる細かい制御が可能
バッチ処理複数プロンプトや構成での自動生成が得意(スクリプト実行型)
ローカル実行画像生成・保存などすべてローカルで完結。商用にも使いやすい
対象ユーザー中〜上級者、もしくは「スクリプト制御が好きな方」

【1】ControlNetやInpaintingといった高度な生成制御機能が使える

→ 単なる画像生成だけでなく、「構図の保持・ポーズ指定・画像の一部修正」など、商用クオリティが求められる制作にも使える、という意味です。

  • ControlNet:ポーズや輪郭などを活かした生成が可能 → キャラの一貫性や構図指示が必要な案件で便利
  • Inpainting:画像の一部を修正(背景差し替え・表情変更など)→ 修正対応の多い商業案件向き

【2】スクリプトやバッチ処理によって一括生成・自動化がしやすい

→ 例えば「10個の構図 × 5つのキャラ × 色違い」など、パターン展開をしたい場合に非常に便利です。

  • プロンプトや構成をスクリプトで定義 → 大量の画像を一括生成可能
  • 自動保存や命名ルールも設定可能
  • 定型業務(例:LINEスタンプ、広告バナー、商品画像)などに向いている

【3】安定性と再現性が高い → 商用利用に安心

  • InvokeAIはUIや仕様が比較的落ち着いており、「バージョン依存の不具合が少ない」点が好評です。
  • ローカル完結であり、生成内容も自分で完全管理できるため、商用利用時のリスク管理(個人情報・著作権など)もしやすい

UIのスタイル

  • Web UI(InvokeAI Web)
    → AUTOMATIC1111のような直感的GUIに近いけれど、よりシンプルで安定重視。
  • コマンドライン&ノードスクリプト型 UI(InvokeAI CLI)
    invoke.py にプロンプトや設定を記述して一括実行できる、スクリプト感のある操作性。

他ツールとの違い

ツール名操作性安定性機能性拡張性備考
AUTOMATIC1111★★★★★★★★☆☆★★★★★★★★★★拡張機能豊富、開発スピード速い
ComfyUI★★★☆☆★★★★☆★★★★★★★★★★ノード型で柔軟、慣れが必要
InvokeAI★★★★☆★★★★★★★★★☆★★★★☆安定志向、業務利用に向く

InvokeAI 導入ガイド

安定版 v3.0 以降対応(SDXLもサポート)
Python 仮想環境を利用してインストールします。

対応環境と要件

項目推奨環境
OSWindows 10/11、Linux、macOS(M1/M2/M3含む)
GPUNVIDIA GPU(VRAM 6GB以上推奨)またはCPUモードも可
Python3.10.x(3.11や3.12は非推奨)
仮想環境venv or conda
GPUドライバCUDA 11.8 + PyTorch 2.1.0(自動インストールでも可)

ステップ①:Python環境の準備

Windows / Linux / Mac 共通

  1. Python 3.10 をインストール
    • 公式サイト
    • 「Add Python to PATH」に✅を入れてインストール
  2. 仮想環境の作成(例: venv)
bashコードをコピーするpython -m venv invokeai-env
  1. 仮想環境を有効化
  • Windows
invokeai-env\Scripts\activate
  • Mac/Linux
source invokeai-env/bin/activate

ステップ②:InvokeAI のインストール

※インストール方法は二通りあります。
pip install … 開発者的な使い方(スクリプト・API連携・自作ツールへの組み込み)をしたい場合は、手動構築する方が向いています。
一方で、
invokeai-installer… まずは使ってみたい・動かしたい人には こちらが圧倒的にラクです。

直接 pip install で入れる方法

pip install --upgrade pip
pip install invokeai

invokeaipip で直接インストールする方法です。
これは Python パッケージとして InvokeAI を導入するだけで、モデルの準備や設定は自力で行う必要があります。

もしくは、
公式推奨の インストーラーinvokeai-installerを使う方法(最も安定)

pip install invokeai-installer
invokeai-configure

invokeai-installerInvokeAI の導入を自動化してくれるツールです。
インストーラーを実行すると、以下が対話形式で設定されます

  • モデル(SD1.5 / SDXL など)の自動ダウンロード
  • Web UI / CLI の選択
  • フォルダ構成の設定(例:models、outputs)

ステップ③:InvokeAI の起動

CLI(コマンドラインインターフェース)モードで起動する方法

invokeai

InvokeAI を Web モードで起動するように設定(invokeai.yaml の設定で Web モードが有効)されている場合は、invokeai だけでも http://localhost:9090 が立ち上がります。(通常は http://localhost:9090)

環境構築時に「Web モードをデフォルトにするか?」という質問に「Yes」と答えた場合に限ります。

明示的に Web UI モードで起動する方法

invokeai --web

このように --web オプションを付けて実行するのが確実です。
すると、必ずブラウザUIが開きます(http://localhost:9090


ステップ④:基本的な使い方

  • 左側でプロンプトとモデルを選択
  • 必要に応じて ControlNet や Inpainting モードを有効化(別途有効化必要)
  • スクリプトを使いたい場合は CLI から .yaml 設定ファイルを使ってバッチ生成が可能
InvokeAIでControlNetを使用するための手順(Web UIベース)についてはこちらをクリック!

前提条件

要素内容
InvokeAIバージョン3.0以降(ControlNet対応)
GPU VRAM最低でも12GB以上推奨(SDXL + ControlNet使用時)
モデルSDXL or SD 1.5 に対応した本体モデルと、それに対応するControlNetモデル

手順 ①:ControlNetの有効化

ターミナルで以下を実行します

invokeai-configure --enable-controlnet
  • 対話形式で「ControlNetを有効にしますか?」と聞かれる → 「Yes」
  • 完了後、設定が invokeai.yaml に保存されます
  • 次回起動時から ControlNetタブ が表示されるようになります

手順 ②:ControlNetモデルの準備

ControlNetモデル(.safetensors 形式)を CivitaiHugging Face などからダウンロードします。

モデルの例(SDXL用)

モデル名用途
controlnet-sdxl-cannyエッジ制御
controlnet-sdxl-depth深度マップ
controlnet-sdxl-openposeポーズ制御
controlnet-sdxl-scribble手書き線画制御

保存先

invokeai/ ディレクトリ内の以下に保存

models/controlnet/
└── controlnet-sdxl-canny.safetensors

手順 ③:Web UIでControlNetを使う

1. InvokeAIを起動
invokeai-web

ブラウザが開いたら、以下の手順で進めます。


2. モデルの選択(SDXLまたはSD1.5)
  • 右上の「モデルセレクター」で SDXLベースのモデルを選択
  • 例:sdxl_base_1.0.safetensorsRealVisXL, DreamShaper XL など
3. ControlNetタブを開く
  • 画面左下 or 右下にある「ControlNet」パネルをクリックして展開
4. 画像とモデルの指定
  • 画像入力:制御に使う画像(ポーズ、線画など)をアップロード
  • ControlNetモデル選択:使用するモデルを選ぶ(例:canny, openposeなど)

ControlNetモデルごとに入力画像の「前処理」が必要です。InvokeAIでは自動でやってくれます。

5. オプション設定(必要に応じて)
  • Weight(重み):生成に対するControlNetの影響度(通常0.5〜1.0)
  • Control Mode
    • Balanced(バランス)
    • Prompt Only(ControlNet無効に近い)
    • ControlNet Only(プロンプトより制御画像優先)
  • Resize mode:Image resize 方式(通常は Just Resize

6. プロンプトを入力して画像生成!
  • 通常通り「プロンプト」「ネガティブプロンプト」「ステップ数」「CFG」などを指定
  • 「生成」ボタンを押すと、ControlNetの効果が適用された画像が出力されます

複数ControlNetの併用(Multi-Control)

InvokeAIでは、最大 3つまでのControlNetを同時に使用できます(UI上で追加可能)。
例えば:

  • OpenPoseでポーズ指定
  • Depthで奥行き指定
  • Cannyでエッジ指定

→ 高度な構図・表現が可能です。

一括生成(スクリプト実行型)の例

invokeai --from_file your_prompts.txt

your_prompts.txt に以下のような記述

a cyberpunk cat sitting on a rooftop at night
a wizard casting a fireball, fantasy style
a steampunk robot playing the violin

アンインストール

pip uninstall invokeai

仮想環境を削除すれば完全にクリーンに戻せます。

公式ドキュメント

公式ドキュメントで確認できる内容

  • インストール方法(Windows/macOS/Linux、pip/manual/Docker)
  • Web UI の使い方と設定
  • CLI や API を使ったバッチ処理への組み込み方法
  • ノードベースワークフローの解説
  • モデル管理、LoRA、ControlNet 構成
  • よくある質問(FAQ) とトラブルシューティング

※商用利用したい方は「モデルのライセンス(例:CreativeML Open RAIL-M)」を必ず確認してください。

SDXL・LoRA・ControlNet などの導入

SDXL対応のためにはモデルの自動取得を選んでおく

SDXLをInvokeAIで使うための設定手順(v3.0以降)

InvokeAI v3.0 以降は SDXLに公式対応しており、比較的簡単に使えますが、以下のポイントを押さえておくと安心です。


1. モデルのダウンロード方法(公式推奨)

InvokeAIでは、セットアップ時に次のような画面が出ます

Which model(s) would you like to download?
1. SD 1.5
2. SDXL Base
3. SDXL Refiner
  • 2 を選べば SDXL Base モデル(主に画像生成用)
  • 3 を選べば SDXL Refiner モデル(仕上げ用) が自動でダウンロードされます。

または、後から以下コマンドで追加も可能

invokeai-model-install --model sd_xl_base_1.0
invokeai-model-install --model sd_xl_refiner_1.0

2. モデルの手動配置(※自分で持っている場合)

  • sd_xl_base_1.0.safetensors
  • sd_xl_refiner_1.0.safetensors

これらのモデルファイルを以下のように配置

InvokeAI/
├── models/
│   └── stable-diffusion/
│       ├── sd_xl_base_1.0.safetensors
│       └── sd_xl_refiner_1.0.safetensors

3. モデル設定ファイル(YAML)が必要!

InvokeAIは .yaml 設定ファイルがモデルごとに必要です。
自動取得の場合は勝手に作られますが、手動の場合は以下のように記述。

例:sd_xl_base_1.0.yaml

name: sd_xl_base_1.0
path: sd_xl_base_1.0.safetensors
model_format: safetensors
variant: fp16
description: Stable Diffusion XL Base
width: 1024
height: 1024

→ この .yaml を同じフォルダに置けば認識されます。

4. SDXLの「2段階構成」に注意

SDXLは以下の流れで生成されます

  1. Baseモデルで粗い画像を生成(1024×1024)
  2. 必要に応じて Refiner で細部をブラッシュアップ

InvokeAIでは、**Refinerの自動適用タイミング(20~30ステップ目など)**を指定できます。


5. Web UIでの設定(起動後)

  • モデル選択で「sd_xl_base_1.0」を選ぶ
  • 下部オプションで「Refiner を使う(Use SDXL Refiner)」を有効化
  • ステップ数や refiner switch point を調整(例:25)

SDXLで効果的なプロンプト構成

ここでは以下の構成で、用途別おすすめプロンプト例をご紹介します

基本構造:

[主題], [詳細な形容詞やスタイル], [カメラアングルやライティング], [背景や雰囲気], [アートスタイル]

例:
A cyberpunk girl wearing glowing neon jacket, cinematic lighting, standing in rainy city at night, artstation concept art

1. キャラクターデザイン向け

a stylish female android, glowing cyberpunk outfit, silver hair, photorealistic, close-up portrait, ultra detailed, dramatic lighting, depth of field, studio background, concept art

POINT:構造と雰囲気を強調しつつ、写実感を出せる。


2. 風景・背景アート向け

a vast floating city in the sky, surrounded by clouds, futuristic buildings with neon lights, sunset light rays, epic scale, wide-angle view, cinematic concept art, trending on ArtStation

POINT:遠景や空気感(霞、霧)を非常に自然に描写できます。


3. ファンタジー・イラスト向け

a forest elf queen with glowing eyes, wearing elegant armor, standing in an enchanted forest, god rays through trees, mystical atmosphere, fantasy art, highly detailed, wlop style

POINT:「雰囲気」や「光の演出(god rays)」などもSDXLは得意。


4. フォトリアル・ポートレート向け

a Japanese woman in a traditional kimono, standing in Kyoto street, shallow depth of field, natural lighting, photorealistic, captured with Canon EOS R5, 85mm lens, soft focus background

POINT:カメラの種類やレンズまで指定するとよりリアルに。


5. プロダクト・デザイン系

a futuristic ergonomic office chair with glowing blue edges, minimalistic white background, isometric view, highly detailed industrial design, concept rendeX

POINT: 製品イメージ・広告向けにも優秀です。


SDXL向け追加テクニック(プロンプト編)

テクニック効果
カメラ用語“bokeh”, “depth of field”, “50mm lens”写真のような演出
光の演出“cinematic lighting”, “rim light”, “volumetric fog”雰囲気を出す
構図“close-up”, “isometric”, “top-down view”構図を明確に
トレンド用語“ArtStation”, “Pixiv”, “Unreal Engine render”スタイリッシュな絵柄に
スタイル名“by Greg Rutkowski”, “wlop”, “Studio Ghibli style”特定の画風に寄せる

ネガティブプロンプト(不要なものを排除)

low quality, blurry, distorted, extra limbs, bad anatomy, watermark, signature, jpeg artifacts

※SDXLでは不要な要素の除去も効果的です。

LoRAとの併用について

  • SDXLに対応したControlNetやLoRAは少し対応が遅れています
  • InvokeAIではLoRAとControlNetのSDXL対応も進行中(v3.3~3.4系で安定化予定)

SDXL(Stable Diffusion XL)は 言語理解力が高く、複雑な構図やライティングにも強いため、従来のSD1.5よりも自然な描写が得意です。

1. SDXL対応LoRAとは?

SDXLはベースモデルの構造がSD1.5と異なるため、対応するLoRAも別物です。
主に以下の条件を満たすLoRAを使用します

SDXL 1.0 Base モデルに対応(network_dim, base_model が明記されている)
.safetensors 形式(InvokeAIはこれに対応)
学習時に --network_alpha --rank を明示したもの

※ Civitai などでは「SDXL」タグがついているLoRAを選ぶ。

2. InvokeAIでのLoRA導入手順(v3.2〜)

手順:
LoRAファイル(.safetensors)を以下に配置

InvokeAI/
├── models/
│ └── lora/
│ └── my_lora_model.safetensors
InvokeAI Web UIを起動し、LoRAセクションを展開

モデルロード後、左メニュー → LoRA をクリック

一覧からLoRAを選択し、強度(Weight)を調整(例:0.6〜1.0)

SDXL用LoRAは、0.8〜1.0が推奨されるケースが多いです(SD1.5より強めでOK)

3. SDXL + LoRA のプロンプト活用例

A. キャラクターLoRA(例:「SDXL anime girl」LoRA)

a beautiful anime girl with silver hair, blue eyes, wearing a school uniform, standing in a field of flowers, soft lighting, 4K, SDXL anime style

→ LoRA名:animeGirl_SDXL.safetensors を適用(Weight: 0.9)

B. ファッション・衣装LoRA(例:「Kimono」LoRA)

a Japanese woman in a detailed kimono, sitting by the river in Kyoto, cinematic lighting, photorealistic, bokeh

→ LoRA名:kimono_SDXL.safetensors(Weight: 1.0)

C. アートスタイルLoRA(例:「WLOP SDXL」LoRA)

a female knight with glowing sword, standing on a cliff, epic lighting, misty background, dramatic fantasy painting

→ LoRA名:wlop_SDXL.safetensors(Weight: 0.8〜0.9)

4. LoRAを複数組み合わせる(SDXLでも可能)

InvokeAIでは複数LoRAの同時使用も可能です

animeGirl_SDXL.safetensors → Weight: 0.8
kimono_SDXL.safetensors → Weight: 1.0

両方適用すれば、「和風衣装を着たアニメ風キャラ」が生成できます。

互いに干渉しすぎる場合(例:絵柄とポーズLoRAの衝突)は崩れるので、組み合わせは少しずつテスト推奨。

SDXL用LoRAの探し方(Civitai例)
検索バーに「LoRA SDXL」または「SDXL 1.0」と入力

フィルターで「Base Model → SDXL 1.0」を選択
ファイル名に「.safetensors」が含まれていることを確認

SDXL対応LoRAおすすめ10選

  1. ComicXL_V1アメリカンコミック風ポップ。
  2. Crazy Portraitオシャレでポップな配色。
  3. Cute Animals優しい雰囲気の動物系。
  4. Dissolve Styleリアル系の絵柄。
  5. Fantastical Realismリアルファンタジー系SF要素も。
  6. Fractal Geometry Styleフラクタルの名の通りパターン化される造形美。
  7. Neon Style XLネオンカラーがオシャレなサイバー系。
  8. Paint Splash Styleペインティングアート。
  9. Pencil Drawingその名の通りドローイング。伝統と革新。
  10. Mosaic Texture SDXL懐かしい感じのタイルアート風。

選び方のポイント

  • 用途に応じたアートスタイルで選定(例:キャラ向け / 風景 / 抽象アートなど)
  • Weight調整:初期は0.8~1.0で試し、出力感が弱い・強すぎると感じたら0.6~1.2範囲で調整
  • プロンプトとの併用:本体プロンプトにスタイル名や演出ワードを加えると相乗効果あり

ControlNet との併用について

1. SDXL対応ControlNetとは?

ControlNetは、もともとStable Diffusion 1.5向けに開発されましたが、より高精度なモデルであるSDXL(Stable Diffusion XL)にも対応したバージョンが登場しています。

SDXLは1.5に比べて表現力が高いため、より自然で高品質な画像生成と、繊細なコントロールが可能です。

2. SDXL ControlNetの導入方法(AUTOMATIC1111の場合)

SDXL対応のControlNetを使うには、以下が必要です。

  1. Stable Diffusion Web UI(AUTOMATIC1111)
  2. 拡張機能「ControlNet」
  3. SDXL向けのControlNetモデル(*.safetensors)

※SDXL用のControlNetモデルは、通常の1.5モデルとは互換性がないため、専用のモデルを使用する必要があります。

手順:

invokeai-configure --enable-controlnet
  1. ControlNet拡張機能をWeb UIでインストール
  2. models/ControlNet フォルダに SDXL対応のControlNetモデルを配置
  3. Web UIを再起動し、「ControlNet」タブで設定可能に

SDXL × ControlNet を InvokeAI で使う際のポイント

1. invokeai-configure --enable-controlnet でControlNetを有効化

このコマンドでControlNet機能が有効になり、起動時にControlNetタブが表示されるようになります。
すでに invokeai-configure でセットアップ済みの場合でも、再実行すればControlNetを後から追加できます。

2. SDXLモデルを読み込んでおく

SDXLベースのモデル(例: sdxl_base_1.0.safetensors など)を使用するには、models/sdxl ディレクトリに入れておく必要があります。
InvokeAI では、自動でSDXLモデルを識別し、「SDXL」モードとして扱ってくれます。


3. SDXL用のControlNetモデルを用意する

SDXLは、1.5用ControlNetとは互換性がありません。必ず「SDXL用のControlNetモデル(~sdxl~.safetensors)」を使う必要があります。

モデルの配置場所

models/controlnet フォルダに以下のように格納します

models/controlnet/
├─ canny_sdxl.safetensors
├─ depth_sdxl.safetensors
└─ openpose_sdxl.safetensors

4. Web UI または CLI で使用する

Web UIの場合:

  • モデルとして SDXL を選択
  • ControlNet タブを有効化
  • 使用したいControlNetモデルを選択(例: canny、depth、poseなど)

CLIの場合:

生成コマンドで --control_net オプションを使い、ControlNetを有効にします(ただし詳細設定には注意が必要なのでGUIの方が扱いやすいかも)。


SDXL対応ControlNetの代表的なモデル例

以下は、SDXLに対応しているControlNetモデル(一部)です。

モデル名説明
controlnet-sdxl-cannyエッジ画像から形状を制御
controlnet-sdxl-depth深度マップから立体感を再現
controlnet-sdxl-openposeポーズ情報を元にポーズを再現
controlnet-sdxl-scribble手描き線画から元画像を生成
controlnet-sdxl-segセグメンテーション画像で領域制御
controlnet-sdxl-lineart線画風画像から制御
controlnet-sdxl-mlsd直線構造の特徴を使って建築物などに有効

Hugging FaceやCivitaiなどで「sdxl controlnet」で検索すると、対応モデルが見つかります。


SDXL ControlNetの活用例

① 手描きラフ → イラスト風画像に

  • controlnet-sdxl-scribble を使えば、ざっくり描いたスケッチを元にイラスト化できます。

② ポーズ写真 → キャライラストに

  • controlnet-sdxl-openpose にポーズ画像を与えると、そのポーズを保ったまま生成可能。

③ 線画 → フルカラー画像に

  • controlnet-sdxl-lineart を使えば、線画に忠実なカラーイラストを生成。

④ 建物写真の輪郭 → アニメ背景に

  • controlnet-sdxl-mlsd を使うと、建築物などのパースを活かした絵作りが可能。

⚠️ 注意点

  • SDXL用ControlNetはファイルサイズが大きく(2〜4GB)、VRAMを多く消費します(12GB以上推奨)。
  • 通常のControlNetと同様に、**重ねがけ(Multiple ControlNet)**も可能ですが、計算コストは増えます。
  • SDXLベースのモデル(例:Juggernaut XL, RealVisXL, DreamShaper XLなど)と相性が良いです。
  • URLをコピーしました!
目次