ComfyUIとは?Stable Diffusion 各モデルの特徴・用途・対応ツールのインストールと使い方

ComfyUIとは?Stable Diffusionをノードで操る高機能UIを解説

Stable Diffusionを使った画像生成といえば、最も有名なのは「AUTOMATIC1111 WebUI」ですが、
最近人気のもう一つの強力なツールは、ComfyUI(コンフィーUI) ですね。

目次

ComfyUIの主な特徴

ControlNetからの画像生成

ComfyUIはStable Diffusion モデルを「どう動かすか」をノードベースで組み立てられるツールです。

2024年10月から、2025年8月にかけて大幅アップデートが次々に行われUIデザインも一新され、とても使いやすくなりました。

起動時に用途別のテンプレートを選択するだけで、必要なモデルは自動でダウンロードを促してくれるため、初心者でもすぐに画像生成を始められます。これまでComfyUIは柔軟性が高い反面、初心者には敷居が高いという課題がありましたが、現在ではノードベースの柔軟性を維持しつつ、初心者でも簡単に扱えるツールへと進化しています。

ComfyUIのUI画面
ComfyUIの操作画面

最初は、ややこしく感じるかもしれませんが、慣れると「自由度」と「再現性」が抜群です。
例えば、「SDXLでLoRAを適用して、ControlNetでポーズを指定し、画像を動画に変換」なんて複雑な処理も、1つの画面でまとめて操作できます。

―ノードについての詳しい解説はこちらをCLICK!

「ノード」とは、画像生成の中で「1つの処理や機能を担うパーツ」のことです。

たとえば、Stable Diffusionの処理にはこんな流れがあります

  • モデル(Checkpoint)を読み込む
  • テキストをエンコードする(プロンプト処理)
  • ノイズから画像を生成する(サンプリング)
  • 画像を保存する

この1つ1つが、それぞれ独立した「ノード」として用意されています。
※この上の画像の一つ一つのブロックの事を言います。
ComfyUIではこれらを“ブロック”や“箱”のような形のノードを配置し、線でつなぐことで処理の流れを組み立てるというスタイルを採っています。

基本的なノード(例)

ノード名機能
Load Checkpointモデル(例:SDXL)を読み込む
CLIP Text Encodeテキストプロンプトを処理する
KSampler実際に画像を生成する
Save Image出力画像を保存する

ノードを線でつなぐことで、「このモデルを使って、このプロンプトで、画像を作って、保存する」といった一連の流れが形になります。

ノードを使うメリット

  • 処理の流れが目に見えてわかる
    ブラックボックス感がなく、変更も簡単。
  • 一部だけ再利用や差し替えができる
    LoRAやVAEだけ変更して生成を比較する事も出来る。
  • 複雑な処理を段階的に組める
    ControlNetや動画生成のような構成も柔軟に。

ノードは「ブロックのように、必要な機能を組み合わせて自分だけの画像生成パイプラインを作る部品」です。

ComfyUIはこの“ノード式”で作業できるため、創造の自由度が非常に高いのが特徴です。

ComfyUIでノードをつないでいく
  • ノードベースの自由な構成
    生成の流れを細かく制御できる。失敗した箇所だけ再実行できる効率の良さも魅力。
  • 高い拡張性
    ControlNet、LoRA、Tiled Diffusion、動画生成、動画生成、アップスケーラーなどの機能を追加可能。フォルダに置くだけで導入できる拡張も豊富です。
  • モデル学習にも対応
    LoRAのトレーニングや出力調整、画像分岐などもノードで管理できるため、AI画像の研究にも向いています。
  • 軽量・マルチプラットフォーム
    Windows/Mac/Linuxに対応し、Colab上でも動作可能。初回セットアップも比較的かんたんです。
セレナ

このツールは、“ノード”をつないで自由に画像生成ワークフローを組めるのが最大の特徴よ。

未来

パラメータや処理の流れを視覚的に操作できるので、「生成の仕組みを理解しながら使いたい」という人におすすめです!

ComfyUIとAUTOMATIC1111 WebUIの違い

AUTOMATIC1111 WebUIと比較すると、ComfyUIはUIがコンパクトにまとまっていて見やすく、モデルやワークフローの管理が直感的です。特に環境構築の面では、テンプレートベースのセットアップにより、AUTOMATIC1111よりも圧倒的にスムーズに始められるようになりました。ワークフローの再利用性も高く、一度作成した設定を簡単に保存・共有できるため、効率的な作業が可能です。

従来のAUTOMATIC1111は「すぐに使える」点が魅力でしたが、ComfyUIは「理解しながら使える」点が大きな違いです。処理の流れが視覚化されているため、トラブルシューティングもしやすく、現在では初心者から上級者まで幅広くおすすめできるツールとなっています。

ComfyUIの使用方法

必要条件

ComfyUIを使うには以下の条件を満たす必要があります。

  • GPUメモリ(VRAM)6GB以上 → Stable Diffusion 1.5 系が動作可能(※ただしこれは本当に最低ラインです
  • VRAM 12GB以上推奨 → SDXL や Flux などの大型モデルが快適
  • CPUのみでも動作可能ですが、生成に非常に時間がかかります

クラウドで使う場合(レンタルGPU)

  • すでに モデルや拡張が揃っている環境が提供されるため、すぐに利用可能
  • GPU性能がクラウド側にあるため、自分のPCが重くならない
  • 大容量モデル(SDXL、Fluxなど)も快適に動作
  • 必要なときだけ利用できるため、料金は使った分だけ

最初はクラウドGUPで試してみるのがおすすめです。
慣れてきたらローカル環境に入れて、自分のペースで使うのもおすすめです。

※また最近特におすすめなのが、”WAN”などの動画生成ツールがComfyで使用出来る様になった事です。
現在、当サイトのトップページでもWANで作成した動画を使用しています。

ローカルPCで使う場合

  • 自分のPCにComfyUIをインストールして利用する方法です
  • 一度セットアップすれば、以降は無料で使える
  • ネットに接続せずに作業できるため、データを外に出さずに完結可能
  • ただし GPU性能が低いと重い/モデルが動かない こともある

長く使いたい場合や、ネットに依存せず作業したい場合はローカルがおすすめです。

ComfyUIのインストール方法(Windows向け)

  • Windows 10 以上
  • NVIDIA GPU(GeForce RTXなど)※VRAM 4GB以上推奨
  • PythonやAnacondaは不要!(自動で準備されます)

ステップ1:ComfyUIをダウンロード

Comfyのダウンロード
  1. 以下の公式GitHubにアクセス:
    https://github.com/comfyanonymous/ComfyUI
  2. 緑色の「Code」ボタン →「Download ZIP」をクリックして保存。
  3. ダウンロードしたZIPファイルを右クリック → 「すべて展開」で解凍します。
     ※解凍先は「ドキュメント」など分かりやすい場所に。

ステップ2:ComfyUIを起動する

  1. 解凍したフォルダを開きます。
  2. run_nvidia_gpu.bat というファイルをダブルクリック
  3. 初回起動時、自動で必要なライブラリがインストールされます(数分かかることがあります)。
  4. ブラウザが自動で開き、ComfyUIが起動します
    http://127.0.0.1:8188

【ローカル環境・クラウド環境共通】ComfyUIを起動する

ComfyUIのノードテンプレート

ComfyUIのV1アップデート以降、起動時に左上の「ワークフロー」メニューから様々なテンプレートを選択できるようになりました。テンプレートリストから使用したいテンプレートをクリックすると、システムが自動的に対応するワークフローを読み込み、必要なモデルファイルがインストールされているか確認してくれます。

主なテンプレート一覧

カテゴリテンプレート名用途・特徴初心者向け
基本生成Image Generationテキストから画像を生成する最もシンプルなテンプレート
基本生成Simple txt2imgテキストプロンプトから画像を作成する最小構成
モデル別Flux DevFLUX.1モデル用。高品質な画像生成に特化
モデル別Flux SchnellFLUX.1モデル用。高速生成に特化し、動作確認に最適
モデル別SDXLSDXLベースモデル向け。高品質で汎用性が高い
モデル別SD1.5Stable Diffusion 1.5向けの軽量テンプレート
高度な機能Image-to-Image既存の画像をベースに新しい画像を生成
高度な機能Upscale画像の高解像度化(アップスケール)
高度な機能ControlNet系ポーズ指定、線画からの生成など構図をコントロール
高度な機能LoRA適用スタイルやキャラクター再現用
動画生成Video Generationテキストや画像から動画を生成
動画生成WAN系クラウド環境限定の動画生成ワークフロー

初心者向け表記: ◎=最適 / ○=おすすめ / △=中級者以上

初心者におすすめのテンプレート

  1. Image Generation(画像生成) – 最もシンプルで理解しやすい
  2. Flux Schnell – 高速に結果が得られるため、動作確認に最適
  3. Simple SDXL – 高品質な画像を手軽に生成できる

これらのテンプレートは、必要なモデルファイルが不足している場合、システムが自動的にダウンロードを促してくれるため、環境構築に悩むことなくすぐに始められます。

テンプレートのカスタマイズと保存

一度作成したノードの組み合わせは、選択した状態で右クリック「Save Selected as Template」から.json形式のファイルとして保存できます。
よく使う設定をテンプレート化しておくと、作業効率が大幅に向上します。

また、OpenArtなどのオンラインプラットフォームでは、コミュニティが作成した多数のワークフローテンプレートが共有されており、自由にダウンロードして使用できます。

モデルを入れる

テンプレートを選択すると足りないモデルを教えてくれる

起動時にテンプレートを選択するだけで、すぐに画像生成を始められるようになり、必要なモデルがない場合は自動でダウンロードを促してくれます。

ComfyUIでのモデルのダウンロード
UI画面上部のManagerを開き、Model Managerからダウンロードできる。

Model Managerに入っていないモデルは、HuggingFaceやCivitaiから直接ダウンロードします。

Flux一部のSDXL系は、Hugging Face の「認証が必要なモデル」です。認証モデルのダウンロード方法に関しては以下の記事の中で書いています。

ComfyUIにもモデル読み込む
  1. ComfyUIを立ち上げると、ノードテンプレートが選択できる画面が開く。
  2. 促されたダウンロードが必要なモデルをチェックする
  3. ComfyUI画面の上部にあるManager(マネージャー)を開く
  4. 必要なモデルを選択してダウンロードボタンをクリック!
  5. UI画面を再起動させる
  6. ComfyUIを起動すると、ノードからモデルが選べるようになります
ComfyUIにもモデル読み込む

代表的なチェックポイントモデルのサイズ

チェックポイントモデルとは、画像生成をする際に、必ず必要となる”元となるモデル”です。
代表的なモデルのサイズの目安です。

  • Flux.1-Schnell → 約 4 GB
  • SDXL 1.0 Base → 約 6.6 GB
  • SDXL 1.0 Refiner → 約 6.6 GB
  • Stable Diffusion 1.5 (pruned-emaonly) → 約 4 GB
  • Stable Diffusion 2.1 (768-ema-pruned) → 約 5.2 GB

合計: 4.0 + 6.6 + 6.6 + 4.0 + 5.2 = 26.4 GB

26GB前後になるので、SSDの空き容量は最低30GB以上必要になります。さらに VAELoRA を入れると追加で数GB〜数十GB必要になります

※LoRAモデルなどを使用する場合には、上記のチェックポイントモデルに更に追加して使用します。

ノードの追加方法(ComfyUI)

  1. UI画面の空いているところで右クリック
    → メニューが出てきます。
ComfyUIでノードを追加する
  1. その中に「Add Node」という項目があります。
    • search…(検索窓)が開くので、そこに clip と入力すると
      • CLIPTextEncode (Prompt)
      • CLIPTextEncode (Negative Prompt)
        が候補に出ます。

設定

解像度を上げる方法

  • 生成サイズ が小さいと、細部や顔の描写が荒くなりがちです。
  • ComfyUIでの設定例:
    • Width: 512 → 1024
    • Height: 512 → 1024
  • 注意点:VRAM使用量が増えるので、GPUに余裕があるか確認。

ステップ数

  • Sampling Steps(ステップ数) が少ないと画像が荒くなることがあります。
  • 例:
    • 20〜25ステップ → 粗め
    • 30〜50ステップ → 高精細

サンプリング方法の変更

  • Samplerによって結果のシャープさやディテールが変わります。
  • 推奨:
    • Euler a(標準的で安定)
    • DDIM(滑らかで自然)
    • DPM++ SDE Karras(高画質向き)

高解像度修正(High-Res Fix / Upscale)

  • ComfyUIには HiRes Fix ノードESRGANノード がある場合があります。
  • 流れ:
    1. 通常解像度で生成
    2. HiRes Fixで2倍アップスケール
    3. ディテールを補完

LoRA・モデルの品質も影響

  • ベースモデルが荒いと画質改善だけでは限界があります。
  • 高精細向けのモデルや、SDXL系モデルを使うと全体の描写がきれいになります。

画像を生成する

  1. Prompt ノードに任意のプロンプトを入力(例:a cute cat in watercolor
  2. 画面左で「Load」→ ComfyUI/examples/workflows にあるプリセットを選択
     例:simple.txt
  3. ▶ ボタンをクリック
  4. 画像が生成されて表示されます!

ComfyUI でよく使うノード早見表

気に入ったワークフローは名前を付けて保存しておける。
※気に入ったワークフローは、C→File→名前を付けて保存しておける

基本ノードセット(最小構成)

最小限のノードで 画像生成をする場合
Stable Diffusionを初めて触る人は、まずこの構成を理解すればOKです。

ノード名役割補足
Load Checkpointモデル(SD1.5、SDXLなど)を読み込む.safetensors / .ckpt を指定
CLIP Text Encode (Prompt)プロンプトをエンコードポジティブプロンプト用
CLIP Text Encode (Negative Prompt)ネガティブプロンプトをエンコードノイズ抑制・不要要素を除外
KSampler実際の画像生成を実行サンプラー、ステップ、シードを設定
VAE Decode潜在画像 → 通常の画像に変換モデルによっては自動設定も可
Image Save生成画像を保存出力フォルダに保存される

応用ノードセット(LoRA・ControlNetなど)

応用機能を追加したいときに使うノード。
キャラクターの一貫性やポーズ指定、アップスケールなどが可能になります。

ノード名役割よく使う場面
Load LoRALoRAファイルを読み込み絵柄やキャラクター再現
Apply LoRALoRAをテキストエンコード/UNetに適用Load LoRA とセットで使用
ControlNet LoaderControlNetモデルを読み込みOpenPose、Canny、Depthなど
ControlNet ApplyControlNetをUNetに適用構図や線画を反映
Image Loader画像を読み込みControlNetの入力用など
Preprocessor系(Canny, OpenPose, Depthなど)入力画像から線画・骨格・奥行を抽出ControlNetの前処理に必須
Upscaleノード(Latent Upscale、ESRGANなど)高解像度化512px → 1024px など拡大
Preview / Image Displayプレビュー表示ワークフロー途中で確認

基本構成にこれらを組み合わせることで、

  • LoRAで絵柄指定
  • ControlNetでポーズ指定
  • アップスケールで高画質化
    が可能になり、実用レベルの生成環境が完成します。

【LoRA導入】ComfyUI編

現在では、LoRA学習用のテンプレートを選択して使用する事で、解決する事ですが、個別でモデルをダウンロードして使用する場合の方法です。

Step 1:LoRAファイルのダウンロード

  1. Hugging Face、Civitaiなどのサイトから .safetensors 形式のLoRAファイルをダウンロードします
     例:anime_style_lora.safetensors
  2. ファイルを次の場所に移動
ComfyUI\models\lora\

Step 2:ComfyUIでLoRAノードを使う

  1. ComfyUIを起動して、ワークスペースを開く
  2. ノード追加 → 検索窓で「LoRA」と入力
     → Load LoRA を追加
  3. Load LoRA ノードでファイルを選択(プルダウンメニューに出てきます)
  4. Apply LoRA ノードを CLIP Text EncodeCLIP に接続

LoRAは「テキストエンコードとUNet」に適用されるので、2箇所に接続が必要です。

便利な拡張ノードとプラグイン

  • ComfyUI Manager(拡張管理が楽になるアドオン)
  • Impact Pack(便利なノード集)
  • WAS Node Suite(高機能な画像処理ノード集)
  • Efficiency Nodes(軽量化・効率化用)
  • ControlNet Preprocessors(Canny、Depth、OpenPoseなど)

【ControlNet導入】ComfyUI編

使いやすいControlNetノードのテンプレートが沢山ある
QuenとControlNetのテンプレートなども使いやすい。

ControlNetは、Stable Diffusion系モデルに追加できる 条件付けモジュールです。外部画像を入力して、生成画像に「線画」「ポーズ」「マスク」などの形状を反映させる事が出来ます。現在では、使いやすいテンプレートも沢山あるので便利でお薦めです。

Step 1:拡張モデルのダウンロード

ControlNetモデル(例:control_sd15_canny.pth など)はHuggingFaceなどから入手します。
ControlNetモデルは種類が多いので、やりたいこと(ポーズ/線画/深度など)に応じてモデルを選びましょう

よくある用途の例

目的必要なノード例
アニメ風にしたいLoRA (anime style LoRA)
ポーズを再現したいControlNet + OpenPoseノード
線画から着色したいControlNet + Cannyノード

Hugging Faceのリポジトリ

ファイルはcontrolnetフォルダに入れると反映されます。

ComfyUI\models\controlnet\

Step 2:ControlNetノードを使う

  1. ノード追加 → ControlNet Loader を追加
  2. ControlNet Apply ノードも追加し、適用対象を設定(UNetなど)
  3. Image ノードや Canny Detector ノードなどと接続して、元画像から条件を抽出します

例えば「ポーズ」や「線画」などから、ベース画像の構図を維持したまま画像生成ができます。

  • LoRAとControlNetは併用可能。どちらも使うと、精度の高い、意図したスタイルの画像が作れます

ノードで出来る事

  • LoRAやVAEを切り替え
  • ControlNetでポーズや構図を指定
  • 複数の画像を並列生成
  • SDXL+Refinerの高品質連携
  • スライドや動画生成まで1画面で構成

処理を視覚的に理解しながら構築できるので、初心者の学習用にもぴったりです。

画像生成を“理解可能な構造”として扱いたい人に、ComfyUIはぴったりの選択肢です。

2025年8月 v0.3.51のアップデートでさらに使いやすくなったComfyUI

  • 2025年8月20日にComfyUI v0.3.51がリリースされました。
  • [C]キーで開く「Comfyメニュー」から「設定」と「拡張機能の管理」にアクセス可能に。
  • 全体を見渡せるミニマップが追加(クリックでジャンプ)
  • Manager機能の進化
  • 追加された新規ノード(v0.3.51以降)
  • WANノードのV3スキーマ変換:将来の拡張性を高める内部改善
  • ImageScaleToMaxDimension(v0.3.57):画像を指定した最大寸法にスケーリング
  • WanSoundImageToVideoExtend(v0.3.55):音声から生成された動画を手動で延長
  • LatentCut(v0.3.55):潜在表現の一部を切り出し
  • LatentConcat(v0.3.53):複数の潜在表現を連結
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次