ComfyUIとは?Stable Diffusion 各モデルの特徴・用途・対応ツールのインストールと使い方

Stable Diffusionを使った画像生成といえば、最も有名なのは「AUTOMATIC1111 WebUI」ですが、
最近人気のもう一つの強力なツールは、ComfyUI(コンフィーUI) ですね。
SAKASA AI

Stable Diffusion 各モデルの特徴・用途・対応ツール【最新版】 | SAKASA AI Stable Diffusion 各モデルの特徴・用途・対応ツール・実行方法と商用利用OKな組み合わせ、商用利用OKのモデルライセンスと注意点などをまとめました。
目次
ComfyUIの主な特徴

ComfyUIはStable Diffusion モデルを「どう動かすか」をノードベースで組み立てられるツールです。
2024年10月から、2025年8月にかけて大幅アップデートが次々に行われUIデザインも一新され、とても使いやすくなりました。
起動時に用途別のテンプレートを選択するだけで、必要なモデルは自動でダウンロードを促してくれるため、初心者でもすぐに画像生成を始められます。これまでComfyUIは柔軟性が高い反面、初心者には敷居が高いという課題がありましたが、現在ではノードベースの柔軟性を維持しつつ、初心者でも簡単に扱えるツールへと進化しています。

最初は、ややこしく感じるかもしれませんが、慣れると「自由度」と「再現性」が抜群です。
例えば、「SDXLでLoRAを適用して、ControlNetでポーズを指定し、画像を動画に変換」なんて複雑な処理も、1つの画面でまとめて操作できます。
―ノードについての詳しい解説はこちらをCLICK!
「ノード」とは、画像生成の中で「1つの処理や機能を担うパーツ」のことです。
たとえば、Stable Diffusionの処理にはこんな流れがあります
- モデル(Checkpoint)を読み込む
- テキストをエンコードする(プロンプト処理)
- ノイズから画像を生成する(サンプリング)
- 画像を保存する
この1つ1つが、それぞれ独立した「ノード」として用意されています。
※この上の画像の一つ一つのブロックの事を言います。
ComfyUIではこれらを“ブロック”や“箱”のような形のノードを配置し、線でつなぐことで処理の流れを組み立てるというスタイルを採っています。
基本的なノード(例)
| ノード名 | 機能 |
|---|---|
| Load Checkpoint | モデル(例:SDXL)を読み込む |
| CLIP Text Encode | テキストプロンプトを処理する |
| KSampler | 実際に画像を生成する |
| Save Image | 出力画像を保存する |
ノードを線でつなぐことで、「このモデルを使って、このプロンプトで、画像を作って、保存する」といった一連の流れが形になります。
ノードを使うメリット
- 処理の流れが目に見えてわかる
ブラックボックス感がなく、変更も簡単。 - 一部だけ再利用や差し替えができる
LoRAやVAEだけ変更して生成を比較する事も出来る。 - 複雑な処理を段階的に組める
ControlNetや動画生成のような構成も柔軟に。
ノードは「ブロックのように、必要な機能を組み合わせて自分だけの画像生成パイプラインを作る部品」です。
ComfyUIはこの“ノード式”で作業できるため、創造の自由度が非常に高いのが特徴です。

- ノードベースの自由な構成
生成の流れを細かく制御できる。失敗した箇所だけ再実行できる効率の良さも魅力。 - 高い拡張性
ControlNet、LoRA、Tiled Diffusion、動画生成、動画生成、アップスケーラーなどの機能を追加可能。フォルダに置くだけで導入できる拡張も豊富です。 - モデル学習にも対応
LoRAのトレーニングや出力調整、画像分岐などもノードで管理できるため、AI画像の研究にも向いています。 - 軽量・マルチプラットフォーム
Windows/Mac/Linuxに対応し、Colab上でも動作可能。初回セットアップも比較的かんたんです。
セレナこのツールは、“ノード”をつないで自由に画像生成ワークフローを組めるのが最大の特徴よ。
未来パラメータや処理の流れを視覚的に操作できるので、「生成の仕組みを理解しながら使いたい」という人におすすめです!
ComfyUIとAUTOMATIC1111 WebUIの違い
AUTOMATIC1111 WebUIと比較すると、ComfyUIはUIがコンパクトにまとまっていて見やすく、モデルやワークフローの管理が直感的です。特に環境構築の面では、テンプレートベースのセットアップにより、AUTOMATIC1111よりも圧倒的にスムーズに始められるようになりました。ワークフローの再利用性も高く、一度作成した設定を簡単に保存・共有できるため、効率的な作業が可能です。
従来のAUTOMATIC1111は「すぐに使える」点が魅力でしたが、ComfyUIは「理解しながら使える」点が大きな違いです。処理の流れが視覚化されているため、トラブルシューティングもしやすく、現在では初心者から上級者まで幅広くおすすめできるツールとなっています。
ComfyUIの使用方法
必要条件
ComfyUIを使うには以下の条件を満たす必要があります。
- GPUメモリ(VRAM)6GB以上 → Stable Diffusion 1.5 系が動作可能(※ただしこれは本当に最低ラインです)
- VRAM 12GB以上推奨 → SDXL や Flux などの大型モデルが快適
- CPUのみでも動作可能ですが、生成に非常に時間がかかります
画像生成の為のGPU解説

【2025年版】AI画像生成に最適なGPU比較:RTX4060~5090【SD/LoRA/ControlNet対応】 画像生成AIを使いたい!GPUは何を選べばいい? Stable DiffusionやComfyUIで画像生成に挑戦したい――そう思ったとき、最初に立ちはだかる壁が「GPU選び」ではないでしょ…
クラウドで使う場合(レンタルGPU)
- すでに モデルや拡張が揃っている環境が提供されるため、すぐに利用可能
- GPU性能がクラウド側にあるため、自分のPCが重くならない
- 大容量モデル(SDXL、Fluxなど)も快適に動作
- 必要なときだけ利用できるため、料金は使った分だけ
最初はクラウドGUPで試してみるのがおすすめです。
慣れてきたらローカル環境に入れて、自分のペースで使うのもおすすめです。
※また最近特におすすめなのが、”WAN”などの動画生成ツールがComfyで使用出来る様になった事です。
現在、当サイトのトップページでもWANで作成した動画を使用しています。
SAKASA AI

ComfyUI + Wanで動画生成!i2v・t2vをRunPodで簡単に使う方法 | SAKASA AI ComfyUI + WanでAI動画生成!i2v(画像→動画)、t2v(テキスト→動画)、VACEモデルの使い方をRunPod環境でわかりやすく解説。GPU目安やテンプレート設定も掲載。
クラウドGPU比較記事

【2025年版】クラウドGPU比較|RunPod・Colab・Paperspace・Lambda Labsの特徴と選び方 クラウドGPUのニーズと記事の目的 近年、AI生成や3Dモデル作成、機械学習の学習用途などで、高性能GPUの需要が急速に高まっています。個人のPCでは対応が難しい処理も、…
おすすめクラウドGPU

【RunPodの使い方と料金】Stable Diffusionなどで画像生成やLoRA学習をする方法【②実践編】 RunpodでStable Diffusion系画像生成やLoRA学習をする方法 Stable DiffusionやLoRA学習では、長時間GPUをフル稼働させるため、発熱や電源の安定性が大きな課題になりま…
ローカルPCで使う場合
- 自分のPCにComfyUIをインストールして利用する方法です
- 一度セットアップすれば、以降は無料で使える
- ネットに接続せずに作業できるため、データを外に出さずに完結可能
- ただし GPU性能が低いと重い/モデルが動かない こともある
長く使いたい場合や、ネットに依存せず作業したい場合はローカルがおすすめです。
ComfyUIのインストール方法(Windows向け)
- Windows 10 以上
- NVIDIA GPU(GeForce RTXなど)※VRAM 4GB以上推奨
- PythonやAnacondaは不要!(自動で準備されます)
ステップ1:ComfyUIをダウンロード

- 以下の公式GitHubにアクセス:
https://github.com/comfyanonymous/ComfyUI - 緑色の「Code」ボタン →「Download ZIP」をクリックして保存。
- ダウンロードしたZIPファイルを右クリック → 「すべて展開」で解凍します。
※解凍先は「ドキュメント」など分かりやすい場所に。
ステップ2:ComfyUIを起動する
- 解凍したフォルダを開きます。
run_nvidia_gpu.batというファイルをダブルクリック。- 初回起動時、自動で必要なライブラリがインストールされます(数分かかることがあります)。
- ブラウザが自動で開き、ComfyUIが起動します
http://127.0.0.1:8188
【ローカル環境・クラウド環境共通】ComfyUIを起動する

ComfyUIのV1アップデート以降、起動時に左上の「ワークフロー」メニューから様々なテンプレートを選択できるようになりました。テンプレートリストから使用したいテンプレートをクリックすると、システムが自動的に対応するワークフローを読み込み、必要なモデルファイルがインストールされているか確認してくれます。
主なテンプレート一覧
| カテゴリ | テンプレート名 | 用途・特徴 | 初心者向け |
|---|---|---|---|
| 基本生成 | Image Generation | テキストから画像を生成する最もシンプルなテンプレート | ◎ |
| 基本生成 | Simple txt2img | テキストプロンプトから画像を作成する最小構成 | ◎ |
| モデル別 | Flux Dev | FLUX.1モデル用。高品質な画像生成に特化 | ○ |
| モデル別 | Flux Schnell | FLUX.1モデル用。高速生成に特化し、動作確認に最適 | ◎ |
| モデル別 | SDXL | SDXLベースモデル向け。高品質で汎用性が高い | ○ |
| モデル別 | SD1.5 | Stable Diffusion 1.5向けの軽量テンプレート | ◎ |
| 高度な機能 | Image-to-Image | 既存の画像をベースに新しい画像を生成 | ○ |
| 高度な機能 | Upscale | 画像の高解像度化(アップスケール) | ○ |
| 高度な機能 | ControlNet系 | ポーズ指定、線画からの生成など構図をコントロール | △ |
| 高度な機能 | LoRA適用 | スタイルやキャラクター再現用 | △ |
| 動画生成 | Video Generation | テキストや画像から動画を生成 | △ |
| 動画生成 | WAN系 | クラウド環境限定の動画生成ワークフロー | △ |
初心者向け表記: ◎=最適 / ○=おすすめ / △=中級者以上
初心者におすすめのテンプレート
- Image Generation(画像生成) – 最もシンプルで理解しやすい
- Flux Schnell – 高速に結果が得られるため、動作確認に最適
- Simple SDXL – 高品質な画像を手軽に生成できる
これらのテンプレートは、必要なモデルファイルが不足している場合、システムが自動的にダウンロードを促してくれるため、環境構築に悩むことなくすぐに始められます。
テンプレートのカスタマイズと保存
一度作成したノードの組み合わせは、選択した状態で右クリック「Save Selected as Template」から.json形式のファイルとして保存できます。
よく使う設定をテンプレート化しておくと、作業効率が大幅に向上します。
また、OpenArtなどのオンラインプラットフォームでは、コミュニティが作成した多数のワークフローテンプレートが共有されており、自由にダウンロードして使用できます。
モデルを入れる

起動時にテンプレートを選択するだけで、すぐに画像生成を始められるようになり、必要なモデルがない場合は自動でダウンロードを促してくれます。

Model Managerに入っていないモデルは、HuggingFaceやCivitaiから直接ダウンロードします。
あわせて読みたい

【2025年版】Civitaiの使い方完全ガイド|Stable Diffusionで使えるLoRA・Checkpointモデルの選び方 本記事では、”AI画像生成用のモデル共有・配布プラットフォーム”「Civitai(シビタイ)」の使い方を、画像生成の目的に合わせて解説します。 引用元:Civitai公式サイト…
Fluxや一部のSDXL系は、Hugging Face の「認証が必要なモデル」です。認証モデルのダウンロード方法に関しては以下の記事の中で書いています。
SAKASA AI

ComfyUIでFLUXとSDXLを使う方法と認証モデルのダウンロード | SAKASA AI AI画像生成の世界で人気の、SDXL(Stable Diffusion XL)とFLUXが2大人気モデル。最近では、そこに、WANの動画生成のノードも組み込めるようになり(WANはクラウド限定で使…

- ComfyUIを立ち上げると、ノードテンプレートが選択できる画面が開く。
- 促されたダウンロードが必要なモデルをチェックする
- ComfyUI画面の上部にある
Manager(マネージャー)を開く - 必要なモデルを選択してダウンロードボタンをクリック!
- UI画面を再起動させる
- ComfyUIを起動すると、ノードからモデルが選べるようになります

代表的なチェックポイントモデルのサイズ
チェックポイントモデルとは、画像生成をする際に、必ず必要となる”元となるモデル”です。
代表的なモデルのサイズの目安です。
- Flux.1-Schnell → 約 4 GB
- SDXL 1.0 Base → 約 6.6 GB
- SDXL 1.0 Refiner → 約 6.6 GB
- Stable Diffusion 1.5 (pruned-emaonly) → 約 4 GB
- Stable Diffusion 2.1 (768-ema-pruned) → 約 5.2 GB
合計: 4.0 + 6.6 + 6.6 + 4.0 + 5.2 = 26.4 GB
26GB前後になるので、SSDの空き容量は最低30GB以上必要になります。さらに VAE や LoRA を入れると追加で数GB〜数十GB必要になります。
※LoRAモデルなどを使用する場合には、上記のチェックポイントモデルに更に追加して使用します。
ノードの追加方法(ComfyUI)
- UI画面の空いているところで右クリック
→ メニューが出てきます。

- その中に「Add Node」という項目があります。
search…(検索窓)が開くので、そこに clip と入力するとCLIPTextEncode (Prompt)CLIPTextEncode (Negative Prompt)
が候補に出ます。
設定
解像度を上げる方法
- 生成サイズ が小さいと、細部や顔の描写が荒くなりがちです。
- ComfyUIでの設定例:
Width: 512 → 1024Height: 512 → 1024
- 注意点:VRAM使用量が増えるので、GPUに余裕があるか確認。
ステップ数
- Sampling Steps(ステップ数) が少ないと画像が荒くなることがあります。
- 例:
- 20〜25ステップ → 粗め
- 30〜50ステップ → 高精細
サンプリング方法の変更
- Samplerによって結果のシャープさやディテールが変わります。
- 推奨:
Euler a(標準的で安定)DDIM(滑らかで自然)DPM++ SDE Karras(高画質向き)
高解像度修正(High-Res Fix / Upscale)
- ComfyUIには HiRes Fix ノード や ESRGANノード がある場合があります。
- 流れ:
- 通常解像度で生成
- HiRes Fixで2倍アップスケール
- ディテールを補完
LoRA・モデルの品質も影響
- ベースモデルが荒いと画質改善だけでは限界があります。
- 高精細向けのモデルや、SDXL系モデルを使うと全体の描写がきれいになります。
画像を生成する
Promptノードに任意のプロンプトを入力(例:a cute cat in watercolor)- 画面左で「Load」→
ComfyUI/examples/workflowsにあるプリセットを選択
例:simple.txt ▶ ボタンをクリック- 画像が生成されて表示されます!
ComfyUI でよく使うノード早見表

基本ノードセット(最小構成)
最小限のノードで 画像生成をする場合
Stable Diffusionを初めて触る人は、まずこの構成を理解すればOKです。
| ノード名 | 役割 | 補足 |
|---|---|---|
| Load Checkpoint | モデル(SD1.5、SDXLなど)を読み込む | .safetensors / .ckpt を指定 |
| CLIP Text Encode (Prompt) | プロンプトをエンコード | ポジティブプロンプト用 |
| CLIP Text Encode (Negative Prompt) | ネガティブプロンプトをエンコード | ノイズ抑制・不要要素を除外 |
| KSampler | 実際の画像生成を実行 | サンプラー、ステップ、シードを設定 |
| VAE Decode | 潜在画像 → 通常の画像に変換 | モデルによっては自動設定も可 |
| Image Save | 生成画像を保存 | 出力フォルダに保存される |
応用ノードセット(LoRA・ControlNetなど)
応用機能を追加したいときに使うノード。
キャラクターの一貫性やポーズ指定、アップスケールなどが可能になります。
| ノード名 | 役割 | よく使う場面 |
|---|---|---|
| Load LoRA | LoRAファイルを読み込み | 絵柄やキャラクター再現 |
| Apply LoRA | LoRAをテキストエンコード/UNetに適用 | Load LoRA とセットで使用 |
| ControlNet Loader | ControlNetモデルを読み込み | OpenPose、Canny、Depthなど |
| ControlNet Apply | ControlNetをUNetに適用 | 構図や線画を反映 |
| Image Loader | 画像を読み込み | ControlNetの入力用など |
| Preprocessor系(Canny, OpenPose, Depthなど) | 入力画像から線画・骨格・奥行を抽出 | ControlNetの前処理に必須 |
| Upscaleノード(Latent Upscale、ESRGANなど) | 高解像度化 | 512px → 1024px など拡大 |
| Preview / Image Display | プレビュー表示 | ワークフロー途中で確認 |
基本構成にこれらを組み合わせることで、
- LoRAで絵柄指定
- ControlNetでポーズ指定
- アップスケールで高画質化
が可能になり、実用レベルの生成環境が完成します。
【LoRA導入】ComfyUI編
現在では、LoRA学習用のテンプレートを選択して使用する事で、解決する事ですが、個別でモデルをダウンロードして使用する場合の方法です。
Step 1:LoRAファイルのダウンロード
- Hugging Face、Civitaiなどのサイトから
.safetensors形式のLoRAファイルをダウンロードします
例:anime_style_lora.safetensors - ファイルを次の場所に移動
ComfyUI\models\lora\Step 2:ComfyUIでLoRAノードを使う
- ComfyUIを起動して、ワークスペースを開く
- ノード追加 → 検索窓で「LoRA」と入力
→Load LoRAを追加 Load LoRAノードでファイルを選択(プルダウンメニューに出てきます)Apply LoRAノードをCLIP Text EncodeとCLIPに接続
LoRAは「テキストエンコードとUNet」に適用されるので、2箇所に接続が必要です。
便利な拡張ノードとプラグイン
- ComfyUI Manager(拡張管理が楽になるアドオン)
- Impact Pack(便利なノード集)
- WAS Node Suite(高機能な画像処理ノード集)
- Efficiency Nodes(軽量化・効率化用)
- ControlNet Preprocessors(Canny、Depth、OpenPoseなど)
【ControlNet導入】ComfyUI編

ControlNetは、Stable Diffusion系モデルに追加できる 条件付けモジュールです。外部画像を入力して、生成画像に「線画」「ポーズ」「マスク」などの形状を反映させる事が出来ます。現在では、使いやすいテンプレートも沢山あるので便利でお薦めです。
Step 1:拡張モデルのダウンロード
ControlNetモデル(例:control_sd15_canny.pth など)はHuggingFaceなどから入手します。
※ControlNetモデルは種類が多いので、やりたいこと(ポーズ/線画/深度など)に応じてモデルを選びましょう
よくある用途の例
| 目的 | 必要なノード例 |
|---|---|
| アニメ風にしたい | LoRA (anime style LoRA) |
| ポーズを再現したい | ControlNet + OpenPoseノード |
| 線画から着色したい | ControlNet + Cannyノード |
Hugging Faceのリポジトリ
SAKASA AI

【ControlNetの使い方】完全ガイド|線画・ポーズ・輪郭で思い通りに画像生成する方法 | SAKASA AI ControlNetの使い方を初心者向けに徹底解説!線画・ポーズ・輪郭を使って、思い通りの画像を生成する方法を具体的に紹介します。おすすめのプリプロセッサやLoRAとの組み合…
ファイルはcontrolnetフォルダに入れると反映されます。
ComfyUI\models\controlnet\Step 2:ControlNetノードを使う
- ノード追加 →
ControlNet Loaderを追加 ControlNet Applyノードも追加し、適用対象を設定(UNetなど)ImageノードやCanny Detectorノードなどと接続して、元画像から条件を抽出します
例えば「ポーズ」や「線画」などから、ベース画像の構図を維持したまま画像生成ができます。
- LoRAとControlNetは併用可能。どちらも使うと、精度の高い、意図したスタイルの画像が作れます
ノードで出来る事
- LoRAやVAEを切り替え
- ControlNetでポーズや構図を指定
- 複数の画像を並列生成
- SDXL+Refinerの高品質連携
- スライドや動画生成まで1画面で構成
処理を視覚的に理解しながら構築できるので、初心者の学習用にもぴったりです。
画像生成を“理解可能な構造”として扱いたい人に、ComfyUIはぴったりの選択肢です。
SAKASA AI

画像生成&学習用「クラウド型」「ローカル型」ツール | SAKASA AI このページでは、画像生成と、学習に使用できる各種ツールについて、まとめています。 下のリンク記事”【ローカル】【クラウド】【GUI】【CLI】画像生成AIを動かす7つの方…
2025年8月 v0.3.51のアップデートでさらに使いやすくなったComfyUI
- 2025年8月20日にComfyUI v0.3.51がリリースされました。
- [C]キーで開く「Comfyメニュー」から「設定」と「拡張機能の管理」にアクセス可能に。
- 全体を見渡せるミニマップが追加(クリックでジャンプ)
- Manager機能の進化
- 追加された新規ノード(v0.3.51以降)
- WANノードのV3スキーマ変換:将来の拡張性を高める内部改善
- ImageScaleToMaxDimension(v0.3.57):画像を指定した最大寸法にスケーリング
- WanSoundImageToVideoExtend(v0.3.55):音声から生成された動画を手動で延長
- LatentCut(v0.3.55):潜在表現の一部を切り出し
- LatentConcat(v0.3.53):複数の潜在表現を連結
