ComfyUIとは?Stable Diffusion 各モデルの特徴・用途・対応ツールのインストールと解説

Stable Diffusionを使った画像生成といえば、最も有名なのは「AUTOMATIC1111 WebUI」ですが、
最近人気のもう一つの強力なツール は、ComfyUI(コンフィーUI) ですね。
SAKASA AI

Stable Diffusion 各モデルの特徴・用途・対応ツール【最新版】 | SAKASA AI Stable Diffusion 各モデルの特徴・用途・対応ツール・実行方法と商用利用OKな組み合わせ、商用利用OKのモデルライセンスと注意点などをまとめました。
目次
ComfyUIの主な特徴
ComfyUIは、Stable Diffusionをノードベースで操作するためのインターフェースです。
BlenderやAfter Effectsのような「ノード型エディタ」をイメージしてもらうと分かりやすいかもしれません。プロンプト、モデル読み込み、サンプラー、アップスケーラーなどの処理がすべて“ノード”として並び、線でつないで処理の流れを組んでいきます。

一見、ややこしく感じるかもしれませんが、慣れると「自由度」と「再現性」が抜群です。
例えば、「SDXLでLoRAを適用して、ControlNetでポーズを指定し、画像を動画に変換」なんて複雑な処理も、1つの画面でまとめて操作できます。
―ノードについての詳しい解説はこちらをCLICK!
「ノード」とは、画像生成の中で「1つの処理や機能を担うパーツ」のことです。
たとえば、Stable Diffusionの処理にはこんな流れがあります
- モデル(Checkpoint)を読み込む
- テキストをエンコードする(プロンプト処理)
- ノイズから画像を生成する(サンプリング)
- 画像を保存する
この1つ1つが、それぞれ独立した「ノード」として用意されています。
※この上の画像の一つ一つのブロックの事を言います。
ComfyUIではこれらを“ブロック”や“箱”のような形のノードを配置し、線でつなぐことで処理の流れを組み立てるというスタイルを採っています。
ノードのイメージ(例)
ノード名 | 機能 |
---|---|
Load Checkpoint | モデル(例:SDXL)を読み込む |
CLIP Text Encode | テキストプロンプトを処理する |
KSampler | 実際に画像を生成する |
Save Image | 出力画像を保存する |
ノードを線でつなぐことで、「このモデルを使って、このプロンプトで、画像を作って、保存する」といった一連の流れが形になります。
ノードを使うメリット
- 処理の流れが目に見えてわかる
ブラックボックス感がなく、変更も簡単。 - 一部だけ再利用や差し替えができる
LoRAやVAEだけ変更して生成を比較するのも楽。 - 複雑な処理を段階的に組める
ControlNetや動画生成のような構成も柔軟に。
つまり、ノードは「レゴブロックのように、必要な機能を組み合わせて自分だけの画像生成パイプラインを作る部品」です。
ComfyUIはこの“ノード式”で作業できるため、創造の自由度が非常に高いのが特徴です。

- ノードベースの自由な構成
生成の流れを細かく制御できる。失敗した箇所だけ再実行できる効率の良さも魅力。 - 高い拡張性
ControlNet、LoRA、Tiled Diffusion、動画生成、動画生成、アップスケーラーなどの機能を追加可能。フォルダに置くだけで導入できる拡張も豊富です。 - モデル学習にも対応
LoRAのトレーニングや出力調整、画像分岐などもノードで管理できるため、AI画像の研究にも向いています。 - 軽量・マルチプラットフォーム
Windows/Mac/Linuxに対応し、Colab上でも動作可能。初回セットアップも比較的かんたんです。

このツールは、“ノード”をつないで自由に画像生成ワークフローを組めるのが最大の特徴よ。



パラメータや処理の流れを視覚的に操作できるので、「生成の仕組みを理解しながら使いたい」という人におすすめです!
ComfyUIとAUTOMATIC1111 WebUIの違いは?
ツール名 | 特徴 | 難易度 |
---|---|---|
AUTOMATIC1111 WebUI | 入門者向け。フォーム入力型 | かんたん |
ComfyUI | ノード式。自由度・拡張性が高い | 中〜上級者 |
ComfyUIはStable Diffusion モデルを「どう動かすか」をノードベースで組み立てられる、「慣れると何でもできる」ツールです。まずはシンプルな構成から始めるのがおすすめです。
ComfyUIの使用方法


必要条件
ComfyUIを使うには以下の条件を満たす必要があります。
- GPUメモリ(VRAM)6GB以上 → Stable Diffusion 1.5 系が動作可能
- VRAM 12GB以上推奨 → SDXL や Flux などの大型モデルが快適
- CPUのみでも動作可能ですが、生成に非常に時間がかかります
クラウドで使う場合(レンタルGPU)
- すでに モデルや拡張が揃っている環境が提供されるため、すぐに利用可能
- GPU性能がクラウド側にあるため、自分のPCが重くならない
- 大容量モデル(SDXL、Fluxなど)も快適に動作
- 必要なときだけ利用できるため、料金は使った分だけ
慣れてきたらローカル環境に入れて、自分のペースで使うのもおすすめです。
※また最近特におすすめなのが、クラウドでしか使用できない”WAN”という動画生成ツールがComfyで使用出来る様になった事です。
現在、当サイトのトップページでもWANで作成した動画を使用しています。
SAKASA AI



【ComfyUI + Wan】i2vで”静止画キャラから動画生成”とt2vで”テキストから動画生成”(RunPod GPU設定例あり… WANとは? Wanは、VACE内部で使われる 動画生成モデルで、VACE(Video-Audio-Content Engine)は、中国の大手テック企業 Alibaba Group(阿里巴巴集団)の、AI研究部門「DA…
クラウドGPU比較記事



【クラウドGPU比較】RunPod・Colab・Paperspace・Lambda Labsの違いと選び方~サービス選びのポイント クラウドGPUのニーズと記事の目的 近年、AI生成や3Dモデル作成、機械学習の学習用途などで、高性能GPUの需要が急速に高まっています。個人のPCでは対応が難しい処理も、…
おすすめクラウドGPU



【RunPodの使い方と料金】Stable Diffusionを使用して画像生成とLoRA学習をする方法【②実践編】 Stable DiffusionやLoRA学習では、長時間GPUをフル稼働させるため、発熱や電源の安定性が大きな課題になります。自作PCではAIO水冷の導入や水冷GPUの採用など、冷却への…
ローカルPCで使う場合
- 自分のPCにComfyUIをインストールして利用する方法です
- 一度セットアップすれば、以降は無料で使える
- ネットに接続せずに作業できるため、データを外に出さずに完結可能
- ただし GPU性能が低いと重い/モデルが動かない こともある
長く使いたい場合や、ネットに依存せず作業したい場合はローカルがおすすめです。
ComfyUIのインストール方法(Windows向け)
- Windows 10 以上
- NVIDIA GPU(GeForce RTXなど)※VRAM 4GB以上推奨
- PythonやAnacondaは不要!(自動で準備されます)
ステップ1:ComfyUIをダウンロード


- 以下の公式GitHubにアクセス:
https://github.com/comfyanonymous/ComfyUI - 緑色の「Code」ボタン →「Download ZIP」をクリックして保存。
- ダウンロードしたZIPファイルを右クリック → 「すべて展開」で解凍します。
※解凍先は「ドキュメント」など分かりやすい場所に。
ステップ2:ComfyUIを起動する
- 解凍したフォルダを開きます。
run_nvidia_gpu.bat
というファイルをダブルクリック。- 初回起動時、自動で必要なライブラリがインストールされます(数分かかることがあります)。
- ブラウザが自動で開き、ComfyUIが起動します
http://127.0.0.1:8188
ComfyUIの起動と”セキュリティ”についての詳細はこちらをCLICK!
このURLはインターネット上の外部サイトではなく、パソコンの中だけで動作しているローカルアドレスです。
127.0.0.1
は「自分自身のPC」を指す特別なIPアドレス(通称:localhost)。
http://127.0.0.1:8188
は「あなたのPCの中に立ち上がったComfyUIサーバー」に接続しています。
通信は外に出ておらず、他の人から見えない安全な環境です。
注意点
- 通常は他の人からアクセスできませんが、もしPCをリモート公開していたり、セキュリティ設定が特殊だったりするとリスクが出る場合もあります。
- 安心して使うためには、「ComfyUIを起動したときだけ開く」「不要なときは閉じる」だけでOKです。
ComfyUIでセキュリティを高める方法
① 起動ポートを変更する(例:8188 → 他の番号)
ポート番号(http://127.0.0.1:8188 の「8188」)はデフォルトですが、ポートスキャンによる侵入を防ぐために変えるのが有効です。
run_nvidia_gpu.bat
を右クリック →「編集」--port 8188
を例えば--port 8899
に変更
例:
python main.py --listen --port 8899
② 外部アクセスを無効にする(LAN経由でも入らせない)
デフォルトでは 127.0.0.1
限定ですが、--listen
を外すと外部からアクセスできるようになるため注意!
- バッチファイル内に
--listen
が含まれていないことを確認 - 誤って
--listen
を使っている場合は削除する
③ ファイアウォールでポートをブロック
万が一ComfyUIが外部に公開されても、Windowsファイアウォールで該当ポート(例:8188)をブロックすれば安全性が上がります。
④ 起動ユーザーの権限を制限する
ComfyUIは管理者権限で動かす必要はないため、一般ユーザーで実行することでOS側のセキュリティも保たれます
⑤ 不要なネット接続をしない
ComfyUI自体はオンライン接続を必要としませんが、使っている拡張機能や外部APIがあれば挙動をチェックしておきましょう。
セキュリティ対策 | 目的 |
---|---|
ポート変更 | 不正アクセスの回避 |
外部アクセス無効 | LANからの侵入もブロック |
ファイアウォール設定 | 強制ブロック |
管理者権限で起動しない | OSレベルの制限を効かせる |
日常的にローカルだけで使っている場合は、そこまで神経質にならなくても大丈夫ですが、外部公開やポート転送の設定をしている場合は上記の対策を行ってください。
【ローカル環境・クラウド環境共通】ComfyUIを起動する


ComfyUIの画面が表示され、空っぽのキャンバスにノードを追加できる状態になります。
右クリックで「Load Checkpoint」などを選んで、少しずつ画像生成ワークフローを組み立てていきます。
モデルを入れる
モデルのダウンロードの方法は、通常HuggingFaceからワンクリックで行えますが、
Fluxや一部のSDXL系は、Hugging Face の「認証が必要なモデル」です。認証モデルのダウンロード方法に関しては以下の記事の中で書いています。
SAKASA AI



ComfyUIでFLUXとSDXLを使う方法と認証モデルのダウンロード | SAKASA AI AI画像生成の世界で人気の、SDXL(Stable Diffusion XL)とFLUXが2大人気モデル。最近では、そこに、WANの動画生成のノードも組み込めるようになり(WANはクラウド限定で使…
モデルをダウンロード
- Hugging FaceからStable Diffusionのモデルファイル(
.safetensors
など)を以下などから入手します
商用利用にはライセンスに注意しましょう!
ComfyUI\models\checkpoints
フォルダを開く- Hugging Faceなどからダウンロードした
.safetensors
や.ckpt
ファイルを入れる - ComfyUIを起動すると、ノードからモデルが選べるようになります


代表的なチェックポイントモデルのサイズ
チェックポイントモデルとは、画像生成をする際に、必ず必要となる”元となるモデル”です。
一度に使用できるチェックポイントモデルは一つですが、上記の画像の中では、5つの”checkpointsモデル”が入っています。
これらのサイズは以下の通りです。
- Flux.1-Schnell → 約 4 GB
- SDXL 1.0 Base → 約 6.6 GB
- SDXL 1.0 Refiner → 約 6.6 GB
- Stable Diffusion 1.5 (pruned-emaonly) → 約 4 GB
- Stable Diffusion 2.1 (768-ema-pruned) → 約 5.2 GB
合計: 4.0 + 6.6 + 6.6 + 4.0 + 5.2 = 26.4 GB
最低30GB以上必要になります。 26GB前後になるので、SSDの空き容量はさらに VAE や LoRA を入れると追加で数GB〜数十GB必要になります。
※LoRAモデルなどを使用する場合には、上記のチェックポイントモデルに更に追加して使用します。
ノードの追加方法(ComfyUI)
- UI画面の空いているところで右クリック
→ メニューが出てきます。 - その中に「Add Node」という項目があります。
search…
(検索窓)が開くので、そこに clip と入力するとCLIPTextEncode (Prompt)
CLIPTextEncode (Negative Prompt)
が候補に出ます。


設定
解像度を上げる方法
- 生成サイズ が小さいと、細部や顔の描写が荒くなりがちです。
- ComfyUIでの設定例:
Width: 512 → 1024
Height: 512 → 1024
- 注意点:VRAM使用量が増えるので、GPUに余裕があるか確認。
ステップ数
- Sampling Steps(ステップ数) が少ないと画像が荒くなることがあります。
- 例:
- 20〜25ステップ → 粗め
- 30〜50ステップ → 高精細
サンプリング方法の変更
- Samplerによって結果のシャープさやディテールが変わります。
- 推奨:
Euler a
(標準的で安定)DDIM
(滑らかで自然)DPM++ SDE Karras
(高画質向き)
高解像度修正(High-Res Fix / Upscale)
- ComfyUIには HiRes Fix ノード や ESRGANノード がある場合があります。
- 流れ:
- 通常解像度で生成
- HiRes Fixで2倍アップスケール
- ディテールを補完
LoRA・モデルの品質も影響
- ベースモデルが荒いと画質改善だけでは限界があります。
- 高精細向けのモデルや、SDXL系モデルを使うと全体の描写がきれいになります。
画像を生成する
Prompt
ノードに任意のプロンプトを入力(例:a cute cat in watercolor)- 画面左で「Load」→
ComfyUI/examples/workflows
にあるプリセットを選択
例:simple.txt
▶ ボタン
をクリック- 画像が生成されて表示されます!
ComfyUI でよく使うノード早見表
基本ノードセット(最小構成)
最小限のノードで 画像生成をする場合
Stable Diffusionを初めて触る人は、まずこの構成を理解すればOKです。
ノード名 | 役割 | 補足 |
---|---|---|
Load Checkpoint | モデル(SD1.5、SDXLなど)を読み込む | .safetensors / .ckpt を指定 |
CLIP Text Encode (Prompt) | プロンプトをエンコード | ポジティブプロンプト用 |
CLIP Text Encode (Negative Prompt) | ネガティブプロンプトをエンコード | ノイズ抑制・不要要素を除外 |
KSampler | 実際の画像生成を実行 | サンプラー、ステップ、シードを設定 |
VAE Decode | 潜在画像 → 通常の画像に変換 | モデルによっては自動設定も可 |
Image Save | 生成画像を保存 | 出力フォルダに保存される |
応用ノードセット(LoRA・ControlNetなど)
応用機能を追加したいときに使うノード。
キャラクターの一貫性やポーズ指定、アップスケールなどが可能になります。
ノード名 | 役割 | よく使う場面 |
---|---|---|
Load LoRA | LoRAファイルを読み込み | 絵柄やキャラクター再現 |
Apply LoRA | LoRAをテキストエンコード/UNetに適用 | Load LoRA とセットで使用 |
ControlNet Loader | ControlNetモデルを読み込み | OpenPose、Canny、Depthなど |
ControlNet Apply | ControlNetをUNetに適用 | 構図や線画を反映 |
Image Loader | 画像を読み込み | ControlNetの入力用など |
Preprocessor系(Canny, OpenPose, Depthなど) | 入力画像から線画・骨格・奥行を抽出 | ControlNetの前処理に必須 |
Upscaleノード(Latent Upscale、ESRGANなど) | 高解像度化 | 512px → 1024px など拡大 |
Preview / Image Display | プレビュー表示 | ワークフロー途中で確認 |
基本構成にこれらを組み合わせることで、
- LoRAで絵柄指定
- ControlNetでポーズ指定
- アップスケールで高画質化
が可能になり、実用レベルの生成環境が完成します。
【LoRA導入】ComfyUI編
Step 1:LoRAファイルのダウンロード
- Hugging Face、Civitaiなどのサイトから
.safetensors
形式のLoRAファイルをダウンロードします
例:anime_style_lora.safetensors
- ファイルを次の場所に移動
ComfyUI\models\lora\
Step 2:ComfyUIでLoRAノードを使う
- ComfyUIを起動して、ワークスペースを開く
- ノード追加 → 検索窓で「LoRA」と入力
→Load LoRA
を追加 Load LoRA
ノードでファイルを選択(プルダウンメニューに出てきます)Apply LoRA
ノードをCLIP Text Encode
とCLIP
に接続
LoRAは「テキストエンコードとUNet」に適用されるので、2箇所に接続が必要です。
便利な拡張ノードとプラグイン
- ComfyUI Manager(拡張管理が楽になるアドオン)
- Impact Pack(便利なノード集)
- WAS Node Suite(高機能な画像処理ノード集)
- Efficiency Nodes(軽量化・効率化用)
- ControlNet Preprocessors(Canny、Depth、OpenPoseなど)
【ControlNet導入】ComfyUI編
ControlNetは、Stable Diffusion系モデルに追加できる 条件付けモジュールです。外部画像を入力して、生成画像に「線画」「ポーズ」「マスク」などの形状を反映させる事が出来ます。
Step 1:拡張モデルのダウンロード
ControlNetモデル(例:control_sd15_canny.pth
など)を以下などから入手します。
※ControlNetモデルは種類が多いので、やりたいこと(ポーズ/線画/深度など)に応じてモデルを選びましょう
よくある用途の例
目的 | 必要なノード例 |
---|---|
アニメ風にしたい | LoRA (anime style LoRA) |
ポーズを再現したい | ControlNet + OpenPoseノード |
線画から着色したい | ControlNet + Cannyノード |
Hugging Faceのリポジトリ
SAKASA AI



【ControlNetの使い方】完全ガイド|線画・ポーズ・輪郭で思い通りに画像生成する方法 | SAKASA AI ControlNetの使い方を初心者向けに徹底解説!線画・ポーズ・輪郭を使って、思い通りの画像を生成する方法を具体的に紹介します。おすすめのプリプロセッサやLoRAとの組み合…
ファイルを次のフォルダに入れます。
ComfyUI\models\controlnet\
Step 2:ControlNetノードを使う
- ノード追加 →
ControlNet Loader
を追加 ControlNet Apply
ノードも追加し、適用対象を設定(UNetなど)Image
ノードやCanny Detector
ノードなどと接続して、元画像から条件を抽出します
例えば「ポーズ」や「線画」などから、ベース画像の構図を維持したまま画像生成ができます。
- LoRAとControlNetは併用可能。どちらも使うと、精度の高い、意図したスタイルの画像が作れます
ノードで出来る事
- LoRAやVAEを簡単に切り替え
- ControlNetでポーズや構図を指定
- 複数の画像を並列生成
- SDXL+Refinerの高品質連携
- スライドや動画生成まで1画面で構成
処理を視覚的に理解しながら構築できるので、初心者の学習用にもぴったりです。
よくあるトラブルと解決方法
- 起動しない → GPUドライバやポート競合を確認
- モデルが出てこない → 正しいフォルダに配置、拡張子確認
- 生成が止まる/真っ黒画像 → VRAM不足、解像度やバッチサイズを下げる
- エラー文が赤字で出る → 未接続ノードや形式の不一致
注意点とコツ
- エラーが出たら、ノード設定の見直しを。多くは「未接続」「形式不一致」など単純ミスな事が多い。
- モデルやスクリプトごとにライセンスが異なるので、商用利用の場合は必ずチェックしましょう。
- ノード構成は
.json
で保存・共有可能。GitHubやCivitaiで公開された「レシピ」も使えます。
画像生成を“理解可能な構造”として扱いたい人に、ComfyUIはぴったりの選択肢です。
SAKASA AI



画像生成&学習用「クラウド型」「ローカル型」ツール | SAKASA AI このページでは、画像生成と、学習に使用できる各種ツールについて、まとめています。 下のリンク記事”【ローカル】【クラウド】【GUI】【CLI】画像生成AIを動かす7つの方…