【保存版】ComfyUIが急に動かない原因はこれだった!ローカル環境の落とし穴と、クラウドで一発解決できる理由

ComfyUIが急に動かない原因
本記事では、ローカル勢が知らずにハマりがちな 「本当の原因」 を徹底解説しながら、
最後に Docker などのコンテナ環境や、RunPod などのクラウド環境を使用して一発で直す方法 までをまとめました。
目次
ComfyUIが“突然動かなくなる”本当の理由
ComfyUIが昨日まで動いていたのに、ある日突然エラーを出して動かなくなる──この現象はローカル勢なら誰でも一度は経験します。
しかし多くの人が勘違いしています。
原因は ComfyUI 本体ではありません。
ComfyUI は基本的に壊れません。
突然動かなくなる原因の 95%は周辺環境の破損 です。
特に壊れやすいのは以下の部分です
- Python のバージョン
- PyTorch のバージョン
- CUDA のバージョン
- GPUドライバ
- Windows Update
- 他のAIツールとのバージョン衝突
- pip update による依存関係の破壊
- ComfyUI Manager の自動更新
- 古い拡張やノードの残骸
“どれか1つ”がズレるだけで全体が動かなくなります。
ローカル環境が壊れやすい理由:知られざる落とし穴一覧
Python が複数入りすぎてる問題
Anaconda、Miniconda、Ollama 付属の Python、他ツールの Python…
知らないうちに 3〜5個 入っている場合が多いようです。
そして、これが起きると
- ComfyUI が違う Python で起動
- 必要な Torch が見つからない
- インポートエラーが頻発
Python の多重インストールは ComfyUI トラブルの鉄板原因です。
CUDA と GPUドライバが噛み合っていない
Torch は CUDA バージョンと厳密に一致していないと起動しません。
例
- Torch が「CUDA 12.1」が必要
- でもあなたの GPU ドライバは「CUDA 11.8 世代」
→ 起動時にクラッシュ
→ ワークフロー途中で突然落ちる
CUDA mismatch はローカル最大の地雷。
他のAIツールが環境を“勝手に上書き”している
SD GUI(NMKD / Fooocus / InvokeAI)
Video AI
LLM(Ollama / KoboldCPP)
Rembg
などなど…
これらは平気で Python と依存関係を上書きします。
結果
- ComfyUI の Torch を破壊
- 古い依存関係が混ざる
- 特定ノードだけ動かない
特に ComfyUI Manager + 他AIツールの組み合わせ は壊れやすいです。
pip install の連打が依存関係を破壊
pip は依存関係を“最新に揃えよう”とするため、
Python 全体のバージョンが書き換わります。
これが原因で
- torch が別バージョンになる
- numpy が ComfyUI と合わなくなる
- ノードが起動できなくなる
pip update 地獄 =ローカルの宿命。
Windows Update が最強の破壊犯
実はローカル最大の敵。
勝手に GPU ドライバを書き換え
→ CUDA と一致しなくなる
→ 急に ComfyUI が落ちる
ローカル勢の “突然死” のほとんどがこれ。
ComfyUI フォルダの上書きで崩壊
クリーンインストールのつもりで上書きすると・・・
- 古いノードが残る
- 依存関係が混ざる
- ロード順で競合する
結果、何度入れ直しても直らない現象が発生。
ローカルでよく遭遇する“原因不明エラー”の正体
torch not found
→ Python が複数あって Comfy が違う環境で起動している。
CUDA 12.1 じゃないと動かない?
→ ドライバ古い or Torch と CUDA mismatch
なぜ「CUDA 12.1じゃないと動かない」と言われるのか?
多くのユーザーが “CUDA 12.1 用の PyTorch” を入れている
最近の ComfyUI は PyTorch 2.3 / 2.4 を使うことが多い。
そして PyTorch 2.3/2.4 のビルドは 既定 でこうなっている
- CUDA 12.1
- CUDA 12.4(PyTorch 2.4 以降)
これが一般的になっているので
「ComfyUI = CUDA 12.1 必須」と誤解されている。“Torch が要求する CUDA バージョン” は ComfyUI が勝手に入れる
ComfyUI Manager で依存関係を更新すると
内部で Torch が自動でインストールされる。
その Torch が CUDA 12.1 版であれば、
あなたの GPU ドライバが対応していないと動かない。
→ ComfyUI が悪いように見える
→ 実際は Torch のバージョン問題
実際に動くパターン一覧(ローカル環境)
◆ Python 3.10 + Torch 2.1 + CUDA 11.8
→ CUDA 11.8 対応の GPU ドライバで動く
(RTX3000/4000系ほぼOK)
◆ Python 3.10 + Torch 2.3 + CUDA 12.1
→ CUDA 12.1 対応のドライバが必要
→ 最近の ComfyUI はこれが多い
◆ Python 3.10 + Torch 2.4 + CUDA 12.4
→ 最新ドライバが必要
→ 高めの要件
途中まで動くのに落ちる
→ GPUドライバの不整合
あるノードだけ動かない
→ 依存関係の上書き
全部 ComfyUI が悪いわけじゃなく、環境のズレが原因。
実はComfyUIはクラウドが安定する理由
クラウド が安定するのは、
理由①:毎回「完全にクリーンなGPU環境」が提供される
Python、Torch、CUDA がプリセットでズレない。
理由②:ドライバが勝手に更新されない
Windows Update に破壊される心配ゼロ。
理由③:ComfyUI 専用テンプレがある
ユーザーが環境を汚せない設計。
理由④:壊れたらテンプレ再デプロイで一発復旧
ローカルのように3時間格闘する必要がない。
理由⑤:GPU性能が圧倒的(A40 / L40 / 4090)
重いComfyUIワークフローでも余裕。
Dockerを使えばローカルでも最強に安定する
「でもローカルで環境汚したくない」
という人に必要なのは Docker。
Dockerが解決するもの
- PythonやCUDAを汚さない
- バージョン差異の問題ゼロ
- 勝手に更新されない
- ComfyUIごと環境を封じ込められる
実質、ローカルでも Dockerを使用すればRunPod 的な使い方が可能。
あわせて読みたい

【Dockerコンテナ徹底解説】~インストールからDocker対応AIツールまで Dockerコンテナとは? 通常、あるツールやアプリを動かすには「OSの設定・依存ライブラリ・Python・CUDAのバージョン」などを細かく合わせる必要があります。そして、そ…
ローカル vs クラウド(RunPod):比較
ローカル
- 無料
- オフライン
- モデルDLが簡単
- PC スペックによる
クラウド(RunPod)
- 環境の安定
- ハイスペックGPUなら生成が軽い(SDXL/FLUX/動画など)
- 壊れない
- 環境構築が楽
あわせて読みたい

【RunPodの料金と使い方】Stable Diffusionなどで画像生成やLoRA学習をする方法【②実践編】 RunpodでStable Diffusion系画像生成やLoRA学習をする方法 Stable DiffusionやLoRA学習では、長時間GPUをフル稼働させるため、発熱や電源の安定性が大きな課題になりま…
結論:ローカルは壊れる。
ローカルWindows環境は、
- Python
- CUDA
- Torch
- GPUドライバ
- Windows Update
この5つが常に動的に変わる、
“壊れやすい前提の構造” で動いています。
だから、
ComfyUIが動かなくなってもだれも悪くありません。
むしろそれが普通だったのです。
そして最適解は次のどちらかです。
- RunPod など安定したクラウド環境を使う
- Docker でローカルを汚さず安全に使う
未来この2つを選ぶだけで、
ComfyUI はほぼ壊れなくなりますよ!
