【保存版】ComfyUIが急に動かない原因はこれだった!ローカル環境の落とし穴と、クラウドで一発解決できる理由

ComfyUIが突然止まる理由

ComfyUIが急に動かない原因

本記事では、ローカル勢が知らずにハマりがちな 「本当の原因」 を徹底解説しながら、
最後に Docker などのコンテナ環境や、RunPod などのクラウド環境を使用して一発で直す方法 までをまとめました。

目次

ComfyUIが“突然動かなくなる”本当の理由

ComfyUIが昨日まで動いていたのに、ある日突然エラーを出して動かなくなる──この現象はローカル勢なら誰でも一度は経験します。

しかし多くの人が勘違いしています。

原因は ComfyUI 本体ではありません。

ComfyUI は基本的に壊れません。
突然動かなくなる原因の 95%は周辺環境の破損 です。

特に壊れやすいのは以下の部分です

  • Python のバージョン
  • PyTorch のバージョン
  • CUDA のバージョン
  • GPUドライバ
  • Windows Update
  • 他のAIツールとのバージョン衝突
  • pip update による依存関係の破壊
  • ComfyUI Manager の自動更新
  • 古い拡張やノードの残骸

“どれか1つ”がズレるだけで全体が動かなくなります。


ローカル環境が壊れやすい理由:知られざる落とし穴一覧

Python が複数入りすぎてる問題

Anaconda、Miniconda、Ollama 付属の Python、他ツールの Python…
知らないうちに 3〜5個 入っている場合が多いようです。

そして、これが起きると

  • ComfyUI が違う Python で起動
  • 必要な Torch が見つからない
  • インポートエラーが頻発

Python の多重インストールは ComfyUI トラブルの鉄板原因です。


CUDA と GPUドライバが噛み合っていない

Torch は CUDA バージョンと厳密に一致していないと起動しません。

  • Torch が「CUDA 12.1」が必要
  • でもあなたの GPU ドライバは「CUDA 11.8 世代」

→ 起動時にクラッシュ
→ ワークフロー途中で突然落ちる

CUDA mismatch はローカル最大の地雷。


他のAIツールが環境を“勝手に上書き”している

SD GUI(NMKD / Fooocus / InvokeAI)
Video AI
LLM(Ollama / KoboldCPP)
Rembg
などなど…

これらは平気で Python と依存関係を上書きします。

結果
  • ComfyUI の Torch を破壊
  • 古い依存関係が混ざる
  • 特定ノードだけ動かない

特に ComfyUI Manager + 他AIツールの組み合わせ は壊れやすいです。


pip install の連打が依存関係を破壊

pip は依存関係を“最新に揃えよう”とするため、
Python 全体のバージョンが書き換わります。

これが原因で
  • torch が別バージョンになる
  • numpy が ComfyUI と合わなくなる
  • ノードが起動できなくなる

pip update 地獄 =ローカルの宿命。


Windows Update が最強の破壊犯

実はローカル最大の敵。

勝手に GPU ドライバを書き換え
→ CUDA と一致しなくなる
→ 急に ComfyUI が落ちる

ローカル勢の “突然死” のほとんどがこれ。


ComfyUI フォルダの上書きで崩壊

クリーンインストールのつもりで上書きすると・・・

  • 古いノードが残る
  • 依存関係が混ざる
  • ロード順で競合する

結果、何度入れ直しても直らない現象が発生。


ローカルでよく遭遇する“原因不明エラー”の正体

torch not found

→ Python が複数あって Comfy が違う環境で起動している。

CUDA 12.1 じゃないと動かない?

→ ドライバ古い or Torch と CUDA mismatch

なぜ「CUDA 12.1じゃないと動かない」と言われるのか?

多くのユーザーが “CUDA 12.1 用の PyTorch” を入れている

最近の ComfyUI は PyTorch 2.3 / 2.4 を使うことが多い。
そして PyTorch 2.3/2.4 のビルドは 既定 でこうなっている

  • CUDA 12.1
  • CUDA 12.4(PyTorch 2.4 以降)

これが一般的になっているので
「ComfyUI = CUDA 12.1 必須」と誤解されている。“Torch が要求する CUDA バージョン” は ComfyUI が勝手に入れる

ComfyUI Manager で依存関係を更新すると
内部で Torch が自動でインストールされる。

その Torch が CUDA 12.1 版であれば、
あなたの GPU ドライバが対応していないと動かない。

→ ComfyUI が悪いように見える
→ 実際は Torch のバージョン問題

実際に動くパターン一覧(ローカル環境)

◆ Python 3.10 + Torch 2.1 + CUDA 11.8

CUDA 11.8 対応の GPU ドライバで動く
(RTX3000/4000系ほぼOK)

◆ Python 3.10 + Torch 2.3 + CUDA 12.1

CUDA 12.1 対応のドライバが必要
→ 最近の ComfyUI はこれが多い

◆ Python 3.10 + Torch 2.4 + CUDA 12.4

最新ドライバが必要
→ 高めの要件

途中まで動くのに落ちる

→ GPUドライバの不整合

あるノードだけ動かない

→ 依存関係の上書き

全部 ComfyUI が悪いわけじゃなく、環境のズレが原因。


実はComfyUIはクラウドが安定する理由

クラウド が安定するのは、

理由①:毎回「完全にクリーンなGPU環境」が提供される

Python、Torch、CUDA がプリセットでズレない。

理由②:ドライバが勝手に更新されない

Windows Update に破壊される心配ゼロ。

理由③:ComfyUI 専用テンプレがある

ユーザーが環境を汚せない設計。

理由④:壊れたらテンプレ再デプロイで一発復旧

ローカルのように3時間格闘する必要がない。

理由⑤:GPU性能が圧倒的(A40 / L40 / 4090)

重いComfyUIワークフローでも余裕。


Dockerを使えばローカルでも最強に安定する

「でもローカルで環境汚したくない」
という人に必要なのは Docker。

Dockerが解決するもの

  • PythonやCUDAを汚さない
  • バージョン差異の問題ゼロ
  • 勝手に更新されない
  • ComfyUIごと環境を封じ込められる

実質、ローカルでも Dockerを使用すればRunPod 的な使い方が可能。


ローカル vs クラウド(RunPod):比較

ローカル

  • 無料
  • オフライン
  • モデルDLが簡単
  • PC スペックによる

クラウド(RunPod)

  • 環境の安定
  • ハイスペックGPUなら生成が軽い(SDXL/FLUX/動画など)
  • 壊れない
  • 環境構築が楽

結論:ローカルは壊れる。

ローカルWindows環境は、

  • Python
  • CUDA
  • Torch
  • GPUドライバ
  • Windows Update

この5つが常に動的に変わる、
“壊れやすい前提の構造” で動いています。

だから、
ComfyUIが動かなくなってもだれも悪くありません。
むしろそれが普通だったのです。

そして最適解は次のどちらかです。

  • RunPod など安定したクラウド環境を使う
  • Docker でローカルを汚さず安全に使う
未来

この2つを選ぶだけで、
ComfyUI はほぼ壊れなくなりますよ!

よかったらシェアしてね!
  • URLをコピーしました!
目次