【ローカル】【クラウド】【GUI】【CLI】画像生成AIを動かす7つの方法

画像生成AIを動かす7つの方法

私が画像生成AIを始めた頃、最初に触ったのは Hugging Face の Spaces 上で動く Stable Diffusion(Automatic1111系のツール) でした。
そのとき「【ローカル】と【クラウド】という使い方がある」と知ったものの、正直なところピンときませんでした。

なぜなら、当時の私にとって「クラウド=ネット上のアプリを使う感覚」でしかなく、
同じGUIがローカルとクラウドの両方で動くということがすぐには理解できなかったからです。

さらに混乱したのが【GUI】と【CLI】の違いです。
「画像生成なのにUI画面が無い?」「生成された画像はどこに出てくるの?」と、なぜ?どうして?の連続でした。

そこで本記事では、当時の自分に向けて「画像生成AIを動かす7つの方法」を整理しました。
「どんな種類の使い方があるのか?」「結局どれを選べばいいのか?」と迷っている方に、ぜひ読んでいただきたい内容です。

目次

AI画像生成の方法

画像生成の方法には、GUI(グラフィカルユーザーインターフェース)とCLI(コマンドラインインターフェース)があり、
それぞれローカルもしくは、クラウドで操作する方法があります。

※GUIと、CLIとは、コンピュータやツールとユーザーがやりとりする方法の違いを表す基本的な分類です。

GUIとは?

Graphical User Interface=GUIは、画面を見ながらマウスで操作する方法です。
ブラウザでアイコンやボタンを使って表示・操作ができ、視覚的にわかりやすいのが特徴です。
開発向け・自動化には、不向きなことが多いです。

例: Windowsのデスクトップ、iPhoneのアプリ画面、Photoshop、AUTOMATIC1111のWeb画面などの事を指す。

初心者でも直感的に使える
操作の自由度は少ないが、やさしいのが特徴です。

CLIとは?

Command Line Interface=CLIは、ユーザーが文字ベースのコマンドで操作するインターフェースです。
対話的に操作するGUIとは対照的に、コマンドを文字で入力して操作します。(黒い画面で操作)
コマンドの知識が必要ですが、開発向け・自動化が得意です。

最近は、Ollama / Gemma3が、会話しながら画像生成も可能になったと話題になっています。

上級者向けに思われがちですが、実は柔軟で高速で、GUIではできない高度な操作も可能です。

CLI 操作

ローカルCLIは、自分のPC上で動作。自由度が高いが初期設定が必要な場合もあり、Python環境 + GPU などがある人向けです。細かい制御やバッチ処理ができます。

ターミナルでの実行

Jupiter notebook

クラウドCLIは、ブラウザ上のJupyter Notebook(例:Colab、Runpod)や、REST API を curl や Python で叩く方式が一般的。

Jupiter notebook UI画面

このような操作をするツールは「CLIツール」と分類されます。

python mytool.py --input image.png --output result.png

これは PythonスクリプトをCLIとして使っている例 です。正確には「PythonスクリプトをBashなどのコマンドライン上で実行する形式」です。
python:Pythonインタプリタを呼び出すコマンド。
mytool.py:実行したいPythonスクリプトのファイル名。
--input--output:Pythonスクリプトに渡すオプション(コマンドライン引数)。

CLI操作の画像処理ツール例

ツール名実行例分類
Real-ESRGAN(スクリプト)python inference_realesrgan.py -i input.jpgCLI
GFPGAN(スクリプト)
python inference_gfpgan.py -i input.jpg
CLI
Stable Diffusion (diffusers使用)
python txt2img.py --prompt "cat"
CLI

CLIとはいえGUIと併用されるケースもある

  • たとえば AUTOMATIC1111ComfyUI は、CLIで起動してWebブラウザで操作するGUIです。
  • Docker もGUIは持たないが、WebUI付きツールを走らせることが多い。
  • RunPodKaggle はCLIベースのJupyterノートブックです。

この様に、カテゴリー分けが曖昧になりがちな為、初めは、少しわかりづらいなと感じます。

項目GUI(グラフィカルUI)CLI(コマンドラインUI)
表示画面・ボタン・画像・ウィンドウなど黒い画面に文字だけ(ターミナル)
操作方法マウスやタッチ操作で直感的キーボードでコマンド入力
学習コスト低い(初心者向き)高い(慣れが必要)
柔軟性・自由度限られる(操作は決まっている)非常に高い(スクリプト・自動化も可能)
エラー時の対応視覚的にわかりやすいエラー文から読み取る必要あり
Leonardo.ai、AUTOMATIC1111のWeb画面、Photoshopターミナル、Anaconda Prompt、Pythonスクリプト実行

AUTOMATIC1111はインストールは、CLI(Git + Python コマンド)普段の使用は、GUI(ブラウザから操作)。

「Pythonでコマンドラインから実行するツール」は、CLI(Command Line Interface)ツール

画像生成AIを動かす 7つの方法(2025年版)

分類方法操作タイプ具体例特徴
ローカル環境①GUIアプリGUINMKD GUI(Win)、DiffusionBee(Mac)、Stable Diffusion UI、Draw Things(iOS版も有)インストールしてすぐ使える。初心者向けで設定が簡単
②Web UIGUIAUTOMATIC1111、ComfyUI、InvokeAI、Fooocus高機能・拡張性あり。カスタマイズ性が豊富
③コマンドラインCLIHugging Face diffusers、InvokeAI CLI、ComfyUI headless、python generate.py軽量で柔軟。画面はなくスクリプト操作が中心
④WSL+LinuxCLI / GUIWSL2 + diffusers、Docker + AUTOMATIC1111、Linux版ComfyUIWindowsでもLinux環境を利用したい場合に便利
クラウド環境⑤実行環境CLI / GUIRunPod、Google Colab、Kaggle、Paperspace、Lambda LabsクラウドGPUを借りて実行。ローカル性能に依存せず高負荷処理が可能
⑥WebアプリGUIHugging Face Spaces、DreamStudio、Leonardo.Ai、Midjourney(Discord)、Adobe Firefly、Runway ML、Fotor、Canva AIアカウント作成だけで即利用可能。カスタマイズ性は低め
モバイル⑦スマホアプリGUIDraw Things(iOS)、Imagine AI、AI Picasso、Wonder AI、StarryAI、StableArt、Picsart AIモバイル完結。手軽だが制限あり。外出先でも生成可能

①, DiffusionBee(macOS専用)

  • 特徴:Macで使えるGUIツール(Draw Thingsと近いが異なる)
  • メリット
    • ワンクリックで導入可
    • Appleシリコン(M1〜)に最適化
  • 難易度:初心者向け

①, NMKD Stable Diffusion GUI(Windows専用)

  • 特徴:インストーラー形式で手軽に使える完全ローカルGUI。
  • メリット
    • プログラミング不要
    • Windowsユーザーには特にやさしい
  • 難易度:初心者向け

②, WebUI(例:AUTOMATIC1111)

  • 概要・定義
    Webブラウザから操作できるユーザーインターフェース(UI)を備えたAI画像生成ツール。
    代表的なのが「Stable Diffusion WebUI(AUTOMATIC1111)」で、ローカルにインストールして使う。
  • 特徴
    • ボタンや入力欄で操作できるGUI
    • 拡張機能やプラグインが豊富
    • 初心者にも比較的始めやすい
    • Pythonやコマンド操作の知識が少なくても使える

②, InvokeAI

  • 特徴:CLIでもGUIでも操作できるStable Diffusionツール。
  • メリット
    • 複数の生成モード(txt2img, inpainting, etc.)
    • A1111より軽量で安定性あり
  • 難易度:中〜上級者向け

②, ComfyUI

  • 特徴:ノードベースで操作できるWebUI(BlenderやTouchDesignerのような感覚)。
  • メリット
    • 処理の流れを視覚的に設計できる
    • カスタマイズ性が極めて高い
  • 難易度:中級者以上向け(ただしGUI操作)

②, Fooocus

特長:とにかく簡単なのに高精細で大注目

2025年6月の最新版2.5.3 の顔入れ替えの精度とスピード感と自然さはハイグレード。

②, ローカルWeb UIを、コンテナ技術(Docker)で実行する方法

  • 概要・定義
    自分のPC上(ローカル)で、Dockerコンテナ内に画像生成AIの環境(例:AUTOMATIC1111)を構築・実行
    普通の「ローカルWeb UI」は、
    ➡ Python、CUDA、依存パッケージなどを自分のPCに直接インストールして動かす方法。
    Dockerを使った「ローカルWeb UI」は、
    ➡ 必要なソフト一式をコンテナ(箱)の中で用意して動かすので、自分のPCは最低限の操作だけで済む方法です。
  • 特徴
    • 環境の再現性が高い(どこでも同じ環境)
    • セットアップが自動化できる
    • 中〜上級者向け(Dockerの理解が必要)

③, RunPodやKaggleでクラウド実行

  • 概要・定義
    PCに高性能GPUがなくても、外部サービス(クラウドレンタルGPU)を使って画像生成を行う方法です。
    一部ローカルとも併用できるため紹介。
  • 特徴
    • GPUを安価・一時的に利用可能
    • ローカル環境を汚さずに試せる
    • モデルやツールのダウンロードなどの作業無しに、すぐに使える
    • ファイルのアップロード・保存には注意が必要

④, Pythonスクリプトでの実行

  • 概要・定義
    コードベースでStable Diffusionなどのモデルを直接操作する方法。
    Pythonで書かれたスクリプト(例:txt2img.py)を自分で実行する。
  • 特徴
    • 柔軟性が高く、細かい制御が可能
    • 上級者向け(Pythonの知識が必要)
    • 最もカスタマイズ性が高い

⑤, WSL + Linuxツールで実行

  • 概要・定義
    Windowsユーザーが「WSL(Windows Subsystem for Linux)」を使い、Linux環境上で画像生成ツールを動かす方法。
  • 特徴
    • Linux前提のツールも使えるようになる
    • WSL経由でCLI操作が必要
    • PythonスクリプトやDiffusersなどと相性が良い
    • 初心者にはややハードル高め

⑦, ローカルGUIアプリ(例:Draw Things)

  • 概要・定義
    MacやiOSなどに対応した、完全ローカル動作のGUIアプリケーション。インストールするだけですぐ使える。
  • 特徴
    • 簡単・手軽に使える
    • モバイルや非エンジニアにも優しい
    • 機能は限定されることがある
    • モデルの管理やカスタム化はやや制限あり
その他の可能性
  • Jupyter Notebook での実行(ローカル):Diffusersライブラリなどを使い、自分のPCでNotebook形式で動かす
  • ローカルAPI化して外部ツールと連携:例えばローカルで立てたWebUIに他のアプリからリクエストを送る形

用途別おすすめ

目的おすすめの方法
とにかく簡単に始めたいDraw Thingsや RunPod
カスタマイズしたい・プロンプト細かく試したいWebUI(AUTOMATIC1111)
学習済モデルを自分で組み合わせて使いたいローカルCLI or WSL
学習(LoRAなど)やモデル改造もしたいDocker or WSL
WindowsでもLinuxツールを活用したいWSL

それぞれのメリット・デメリット

方法メリットデメリット
WebUIGUIで使いやすい・人気少し重い・初回DLが多い
CLI自由度が高い・軽いコマンド操作が必要
WSLLinuxの環境そのまま初期構築がやや複雑
Docker再現性・切り替えに最適使い方に慣れが必要
RunPodなどGPU不要・DL無し・容易有料・保存制限なども
Draw Things初心者に優しい機能が限られることも

さらに詳しい比較はこちらの記事をご覧ください。

画像補完系(CodeFormer・RestoreFormer)を使いたい場合

  • PythonベースのCLI実行が基本です。
  • Windowsネイティブ or WSL or Docker いずれかで環境構築が必要。
  • pip install -r requirements.txt のような操作が出てきます。
  • URLをコピーしました!
目次