【初心者向け】自作LoRAの作り方|LoRAをKohya_ssで学習する方法|Anaconda + CUDAでローカル環境構築【Windows】

近年、イラストや写真などのスタイルをAIに学習させる「LoRA(Low-Rank Adaptation)」が注目を集めています。
中でも、人気の学習ツール「Kohya_ss」は、最低限のコマンド操作と、細かな設定が可能なWebUI(ブラウザ型GUI)で、多くの生成AIユーザーに支持されています。
この記事では、初心者の方でも安心してLoRA学習を始められるように、Kohya_ssをWindowsでローカル環境に導入する手順を1つずつ丁寧に解説しています。Anacondaのセットアップから、CUDA・PyTorchの対応バージョン確認方法まで網羅しているので、この記事を参考にすれば自分のPCでもLoRA学習ができるようになります!
Anaconda+CUDAでKohya_ssをローカル導入する方法
前提条件
- GPU:NVIDIA
- OS:Windows 10 / 11
- Python:3.10.x(推奨)Python3.10.6のインストール方法はこちら。
- 仮想環境:Anaconda(推奨)後ほど解説 スキップしたい方はこちらをクリックしてください。
- CUDA:*使用するPyTorchバージョンが対応するCUDAバージョンを調べる。(このすぐ下で解説。)
- NVIDIAドライバ:最新版(Studio Driver推奨)(こちらも、この下で解説。)
※最近、NVIDIAは「GeForce Experience」を廃止し、後継として「NVIDIA App」に移行していますので、要確認。
*使用するPyTorchバージョンに対応するCUDAバージョンを調べる方法
PyTorchは、バージョンごとに対応するCUDAのバージョンが決まっています。
PyTorch公式ページにアクセスしますhttps://pytorch.org/get-started/locally/
使用する条件の選択
PyTorchのバージョン(例:2.1.0)
OS(例:Windows)
パッケージ(通常は「Pip」または「Conda」)
言語(Python)
CUDAバージョン(ここに対応するCUDAが表示されます)
選択に応じて、下にインストール用コマンドと一緒に、推奨されるCUDAのバージョンが表示されます。
ポイント
PyTorchとCUDAのバージョンが合っていないと、エラーになることがあります。
CUDA 11.8 を使いたい場合は、PyTorch 2.1 までが対応しています。
最新のPyTorch(2.2以降)では、CUDA 12.x系が主流になっています。
*NVIDIA AppでStudioドライバの確認
NVIDIA App(旧:GeForce Experience)を開く
左メニューまたは上部の「Drivers」タブを選択
「Studio Driver」になっているか確認(必要に応じて切り替え可能)
無い場合は、ダウンロードしておきますNVIDIA公式サイト内/ドライバ:ダウンロードページ
Kohya_ssは依存関係が多いツール
Kohya_ss(LoRA学習GUI)は以下のような依存ライブラリが複雑に絡んでいます
- PyTorch(バージョンやCUDAとの整合性がシビア)
- xformers(PyTorchのバージョンに敏感)
- bitsandbytes(GPU構成によって挙動が変わる)
- Hugging Face Transformers / diffusers
- TensorBoard、WandB などのオプションツール
これらをpip + venvだけで揃えるのは、かなり経験者向けの作業です。
一方、Anacondaならこうした依存関係のバージョン調整が比較的簡単になります。
Kohya_ssのように「PyTorch + CUDA + 特殊ライブラリ」が絡む環境では、Anacondaで仮想環境を切っておくのが一番安全です。
比較項目 | venv (Python標準) | Anaconda (またはMiniconda) |
---|---|---|
環境構築の簡単さ | 自分でPython・CUDA・PyTorchのバージョン整合をとる必要あり | conda が自動で依存関係を解決 |
パッケージの管理 | 基本はpip 頼り。複雑な依存関係で詰まりやすい | conda + pip 両方使えて柔軟&強力 |
CUDAの扱い | CUDA Toolkitを手動インストールしてパス設定が必要 | PyTorch+CUDAをconda install pytorch だけで完結できることが多い |
初心者への安心感 | エラー時の自己解決力が必要 | 失敗しにくい構成。エラーも少ない |
仮想環境の切り替え | source venv/bin/activate など | conda activate 環境名 で統一 |
GPUのCompute Capabilityを確認:NVIDIA公式サイトで自身のGPUのCCを調べる。
CUDAバージョンの選定:使用するPyTorchバージョンが対応するCUDAバージョンを選ぶ。
ドライバの更新:CUDAバージョンに対応するNVIDIAドライバをインストールする。
仮想環境の活用:Anacondaやvenvを使用して、異なる環境を簡単に切り替えられるようにする。
AnacondaでLoRA学習環境を作る
Anacondaのインストール
- 公式ダウンロードページ: anaconda.com


任意のアカウントでログインします。


Anacondaの公式ダウンロードページから、お使いのOSに対応したインストーラーをダウンロードできます。


① Anacondaの準備
インストール手順(Windowsの場合)
- ダウンロードしたインストーラー(例:
Anaconda3-2024.10-1-Windows-x86_64.exe
)をダブルクリックして実行します。


2. インストーラーが起動したら、「Next」をクリックします。
3. ライセンス契約画面で「I Agree」を選択します。
4. インストールタイプの選択では、「Just Me(推奨)」を選び、「Next」をクリックします。
5. インストール先フォルダを確認し、必要に応じて変更後、「Next」をクリックします。
6. 追加タスクの選択では、特に変更がなければそのまま「Install」をクリックします。
7. インストールが完了したら、「Next」をクリックし、最後に「Finish」をクリックしてインストールを終了します。
インストール後、スタートメニューから「Anaconda Prompt」や「Anaconda Navigator」を起動できます。
※Anaconda Navigator(GUI)からアップデートを求められた場合は、基本的にはそのまま「更新」してOKです。ただし、すでに構築済みの仮想環境内でパッケージを更新する場合は、conda update
やpip
のバージョン管理に注意が必要です。
インストール確認
Anaconda Promptを開き、以下のコマンドを入力してPythonのバージョンを確認します。
Anaconda Promptは、WindowsでAnacondaをインストールした後、以下の手順で起動できます。
- スタートメニューを開く
- 「Anaconda Prompt」と検索
- アイコンをクリックして起動
※黒いウィンドウが開き、(base)
と表示されていれば、Anacondaの「base」環境が有効になっています。
もしくは、Windowsターミナルを開き、
タブから” ”下矢印をクリックで、Anaconda Promptを選択(Anacondaインストール後に追加されます。)
ターミナル(Windows Terminal)コマンドプロンプト、PowerShell、の開き方
Windowsの場合は、(※Windows Terminal)を開きます。
※Windows Terminal(ウィンドウズターミナル)の起動方法…
コマンドの実行は、Windows標準の「Windows Terminal」を使って行います。
(※コマンドプロンプト(cmd)やPowerShellでも同様に動作しますが、Windows Terminalの方が操作しやすくおすすめです。)
コマンドプロンプト(Command Prompt)とは、Windowsに搭載されているテキストベースのインターフェースです。マウス操作ではなく、キーボードからコマンド(指示)を入力することで、パソコンを操作できます。
Windows Terminal起動方法
- スタートメニューで、左クリック➡ターミナルを起動もしくは、「Windows Terminal」と検索して起動
- デフォルトでは PowerShell または Command Prompt(cmd)(又は、WindowsPowerShell)が開きます
画像生成用途の場合は、Command Prompt コマンドプロンプト(CMD)と相性が良いです。
pip install
や conda
などのモダン開発向けコマンドは、PowerShellと相性が良いです。
※詳しい使用方法や、Windows Terminalの設定方法は、こちらの記事をご覧ください。
Windows Terminalは、タブを切り替えて複数のシェルを使う事が出来ます
- 上部の
+
ボタンから新しいタブを開けます - PowerShell
- Command Prompt
- WSL(Linuxサブシステム)※インストール済みなら
- Azure Cloud Shell(必要な場合)
をクリックすると以下の選択肢があります
※Microsoft 公式も「Windows Terminal」を推奨しているため、当サイトでも記載するWindowsのコマンド実行場所を、コマンドプロンプト(cmd)から「Windows Terminal」に変更致しました。
コマンド入力は間違えるとエラーになることもありますが、慣れると素早く作業ができる便利なツールです。
Macの場合は、(※ターミナル)を開きます。
※ターミナル(Terminal)の起動方法…
Macには「ターミナル(Terminal)」というアプリがあり、これを使うことで、コマンドを入力してシステムを操作できます。
ターミナル起動方法
- **「Command ⌘ + Space」を押して、「Spotlight検索」**を開く
- 検索バーに「ターミナル」と入力してEnter
または、以下の手順でも開けます:
アプリケーション → ユーティリティ → ターミナル
※Linux のターミナルの起動方法…
Linuxでは「ターミナル」が、コマンド操作の基本です。ウィンドウの中でキーボード入力によりシステムを操作します。
Linuxターミナル起動方法
- 1,:
Ctrl + Alt + T
を同時に押す(多くのLinuxディストリビューションで共通) - 2,:アプリケーション一覧から「ターミナル」または「Terminal」で検索して開く
Ubuntu、Fedora、Debianなど、ほとんどのLinux環境に標準で搭載されています。
Macのターミナルと似た雰囲気で、コマンドの使い方もほぼ共通です。
※PowerShell の起動方法…(Windows)
PowerShell(パワーシェル)**は、Windowsに標準搭載されている、より高度な操作ができるコマンドラインツールです。見た目はコマンドプロンプトと似ていますが、より多機能で、プログラミング的な処理も得意です。
PowerShell起動方法
1,スタートメニューで「PowerShell」と検索してクリック
2,Windowsキー + R を押して「powershell」と入力 → Enter
コマンドプロンプトと同様、キーボードからコマンドを入力して操作します。
たとえば Get-ChildItem
(=フォルダの中身を見る)など、PowerShell独自のコマンドもありますが、通常のコマンド(例:cd
やpython
など)も使えます。
※コマンドプロンプト(cmd)の起動方法…(Windows)
Windowsキー + Rを押す
「cmd」と入力してEnterを押す
または、スタートメニューで「コマンドプロンプト」と検索してもOK!
ターミナル(Windows Terminal)を開き、”○○○(ツール名)”と打ち込むと呼ぶ出してくれます。


python --version
また、Anaconda Navigatorを起動して、GUI上で環境やパッケージの管理ができることを確認してください。
Anaconda Prompt を開いて以下を実行(仮想環境を有効化)
conda create -n kohya python=3.10 -y
conda activate kohya
※このコマンドを実行する事で、kohya_ss 内で仮想環境を使った作業ができる状態になります。
② Git & GitHub からKohya_ssを取得
Gitがインストールされていることを確認
→ git --version
でバージョンが表示されればOK
※インストールされていなければ、公式サイトから入手してください。


Anaconda Prompt または コマンドプロンプトを開く
以下のコマンドでクローンします
git clone https://github.com/bmaltais/kohya_ss.git
kohya_ss
フォルダに移動
cd kohya_ss
cd
+kohya_ss
フォルダのパス。
※たとえば、kohya_ss
という名前のフォルダが C:\Users\あなたの名前\Documents\
にあるとします。
その場合、Anaconda Promptで以下のように入力して移動します。
cd C:\Users\あなたの名前\Documents\kohya_ss
※クローン先のディレクトリに注意(cd
や mkdir
を使って管理)
仮想環境を使う場合は、先に Anaconda Prompt で仮想環境を有効化しておく。
状況の確認
(base) C:\Users\あなたの名前>cd C:\Users\あなたの名前\kohya_ss
(base) C:\Users\あなたの名前\kohya_ss>
このように表示されていれば、今あなたは C:\Users\あなたの名前\kohya_ss
フォルダの中にいます。
③ 依存ライブラリのインストール
pip install -r requirements.txt
を実行
pip install -r requirements.txt
CUDA 11.8 に対応した PyTorch 2.1.0 と torchvision 0.16.0 のインストール
は、以下のコマンドを実行してください
pip install torch==2.1.0 torchvision==0.16.0 --extra-index-url https://download.pytorch.org/whl/cu118
(バージョンは2.2.0の場合) CUDA 11.8 に対応した PyTorch 2.2.0 と torchvision 0.16.0 のインストール
は、以下のコマンドを実行してください
pip install torch==2.2.0+cu118 torchvision==0.16.0+cu118 --extra-index-url https://download.pytorch.org/whl/cu118
※CUDA
、 PyTorch
、 torchvision
のそれぞれのバージョンを指定してください。
④ CUDAとPyTorchの対応確認(重要)
インストールが完了したら、以下の Python コマンドで動作確認できます。
Pythonコードを実行する正しい方法
- Pythonインタプリタを起動する


python
と入力してEnterすると、Pythonの対話モード(>>>)になります。
- そこでPythonコードを入力してください
import torch
print("PyTorchバージョン:", torch.__version__)
print("CUDAが使えるか:", torch.cuda.is_available())
print("使用中のCUDAバージョン:", torch.version.cuda)
- 確認が終わったら、
exit()
またはCtrl+Z
(Windows)でPythonを終了できます。
True
が返ってきたらOK。
⑤ GUIの起動(ローカルブラウザで操作:Anaconda Prompt)
※GUIで作業をする際には、以下のコマンドを実行してGUIを開きます。


仮想環境のアクティベート(必要に応じて)
conda activate kohya # すでに実行済みならスキップ
Kohya_ssのフォルダへ移動
cd C:\Users\Owner\kohya_ss
※Users Owner
この箇所は、ご自身のフォルダ名に置き換えて下さい。
Web UI 起動スクリプトの実行
kohya_gui.py
というスクリプトでGUIを起動できます。
python kohya_gui.py
※GUIが自動でブラウザに表示されない場合は、以下のようなURLが表示されることがあります


Running on local URL: http://127.0.0.1:7860
※このURLをコピーして、ブラウザに貼り付けてhttp://127.0.0.1:7860
を開きます。
よくあるエラー・確認ポイント
症状 | 対処 |
---|---|
ModuleNotFoundError | requirements.txt の再インストールが必要な場合があります。 |
起動後真っ白で何も表示されない | ブラウザのキャッシュをクリア、または別ブラウザで試す |
エラーメッセージが大量に表示される | 一度ターミナルを閉じて、仮想環境を再アクティベートしてから再実行 |
kohya_gui.py
が見当たらない場合
GitHubからの取得が完全でなかった可能性があります。その場合は以下のコマンドで再取得出来ます。
git clone https://github.com/bmaltais/kohya_ss.git
その後、もう一度、移動&仮想環境アクティベート&起動。
GUIの起動(ローカルブラウザで操作:Anaconda Prompt) ⑤
⑥ 画像とcaption(.txt)ファイルについて
LoRA学習をする為の、画像とcaption(.txt)ファイルの用意がまだの方は、下の記事をご覧ください。


dataset
又は、Training
フォルダ内に、にトレーニング用画像フォルダ
を作成し、画像と同名の.txt
ファイルを配置します。
(※トレーニング用画像フォルダの名前は、半角英数字を使用します。)
dataset/トレーニング用画像フォルダ名
├── image_001.png
├── image_001.txt ←プロンプトなどを記述
※ここで大切な事は、dataset
又は、Training
などという、親フォルダの下にトレーニング用画像フォルダ
を作成し、画像と同名の .txt
ファイルしておくという事です。
おすすめのフォルダ構成
C:\Users\Owner\kohya_ss\
├── kohya_data\ ← データ系(学習素材)
│ ├── 10_train\
│ │ ├── img\
│ │ ├── txt\
│ │ └── reg\
│
├── outputs\ ← 出力ファイル(学習済LoRAなど)
│ ├── lora_cat\
│ └── lora_dog\
│
├── configs\ ← 設定ファイルの保存場所(任意)
│
├── venv\ ← 仮想環境(Anacondaなしで動かす場合)
├── GUI起動用のbatファイルやスクリプト
└── READMEなど
/kohya_ss/output/
にLoRAファイル(.safetensors
)が生成されます。.safetensors
は、AUTOMATIC1111 に組み込めば即使用可能です。
上記のような構成で、すべてKohyaフォルダ以下に収めるのがベストです。
注意点
空白や日本語のパスは避ける(例:C:\Users\ユーザー名\マイ ドキュメント\
は非推奨)
Windowsではバックスラッシュ \
を使う(ただしGUIや設定ファイルではスラッシュ /
でも通ることが多い)
手動で読み込ませる方法(上級者向け)
もし別フォルダに置きたい場合は、WebUIの webui-user.bat
や launch.py
を編集して環境変数 --lora-dir
を追加することで、LoRAの読み込み場所を変更できます(ただし一般には非推奨)。
⑦ LoRA用訓練設定
GUI画面から以下を設定
- Model:
runwayml/stable-diffusion-v1-5
(または自前モデル) - Train batch size: 下で記載
- Max train steps: 100〜数千(テストなら少なめで)
- Save trained model as:
safetensors
推奨 - Mixed Precision:
fp16
Train batch size
は、主にGPUのVRAM容量によって決めます。
LoRAなどの学習処理では、以下のデータがVRAMに展開されます
モデルファイル fp16とfp32の違いについてはこちらをクリック
Stable DiffusionなどのAIモデルでは、モデルファイルに「fp16」または「fp32」という表記があることがあります。
これは浮動小数点(floating point)精度の違いを意味しています。
基本的な違い
項目 | fp16(半精度) | fp32(単精度) |
---|---|---|
精度 | 16ビット | 32ビット |
ファイルサイズ | 小さい(例:2GB前後) | 大きい(例:4GB以上) |
メモリ消費 | 少ない(軽い) | 多い(重い) |
処理速度 | 速い(対応GPUなら) | 遅い(より計算コストが高い) |
対応GPU | RTX 20XX以降がおすすめ | すべてのGPUで動作可能 |
精度(品質) | 若干落ちる場合あり(ほぼ差なし) | 高精度(LoRA学習ではこちら推奨) |
fp16のメリット・用途
- 画像生成に向いている
- 軽くて高速、VRAM消費も少なめ
- GPUに
Tensor Core
(例:NVIDIA RTXシリーズ)があると恩恵が大きい - LoRAの**生成(推論)**時はほとんどの場合fp16で十分
fp32のメリット・用途
- 学習(トレーニング)に向いている
- 精度を重視する必要があるときに使用
- LoRAやDreamBoothなどの学習作業にはfp32が安定
- ただし重く、メモリ消費が多い
目的 | おすすめ |
---|---|
画像生成のみ | fp16 |
学習やLoRA作成 | fp32 |
低VRAM環境(8GB未満) | fp16 |
- 入力画像(例:512×512)
- 学習対象のモデル(例:Stable Diffusion v1.5)
- 重みの更新に必要な中間データ(勾配など)
- バッチ全体のデータ(画像の枚数 × 各種情報)
Train batch size
を大きくすると、一度に学習する画像の数が増える=使うVRAMも増えます。
目安(LoRA学習・画像サイズ512×512)
VRAM容量 | 推奨バッチサイズ(batch size) |
---|---|
6GB | 1(低解像度でもギリギリ) |
8GB | 1~2 |
12GB | 2~4 |
16GB | 4~6 |
24GB以上(例:A100) | 8以上も可能 |
※ 実際の上限は学習設定や画像サイズによって前後します。
AUTOMATIC1111との連携
Kohya_ssで作成したLoRAファイルは、AUTOMATIC1111で、使用できます。
- LoRAファイルは
stable-diffusion-webui/models/Lora/
に配置 - WebUIで LoRA名を
"<lora:modelname:weight>"
として使えます。
このフォルダに入っている .safetensors
や .pt
ファイルが、A1111のWebUIで自動的に読み込まれ、モデル選択UIやプロンプト補完で使用可能になるためです。
作成した、.safetensors
や .pt
ファイルの使用方法の詳細は、 下のリンク記事をご覧下さい。


Stable Diffusio(AUTOMATIC1111)のインストール方法については、 こちらの記事をご覧ください。


注意点
- フォルダ名は 「Lora」(Lが大文字)です。
※小文字の「lora」だと読み込まれないことがあります。 - ファイル名に日本語やスペースが入っていると、うまく動作しないことがあるので、半角英数字・アンダーバー推奨です。
設定の保存
「Load/Save Config file」について
「Load/Save Config file」は、Kohya GUI(kohya_ss
)で使う学習設定の保存/読み込み機能です。以下のように使います。
Save Config file(設定の保存)
- 現在GUIで設定した 学習条件(画像フォルダ、出力名、エポック数など) を、
.json
ファイルとして保存できます。 - 次回、同じ学習設定を再利用したいときに便利です。
- 設定をGUIで入力
Save Config file
ボタンをクリック.json
ファイル名を指定して保存
例:lora_cat_config.json
Load Config file(設定の読み込み)
- 以前保存した
.json
の設定ファイルを読み込むと、GUIに自動で値が反映されます。 - 複数のLoRA学習パターンを切り替えて使う時にとても便利です。
Load Config file
をクリック- 以前保存した
.json
ファイルを選択
保存される内容(例)
- 画像フォルダのパス
- 出力名・保存先
- エポック数、バッチサイズ
- 学習率(Learning rate)
- 使用モデルのパス(Pretrained model)
- 正則化や学習スケジュールなどの高度なパラメータも含む
kohya_ss/configs
などに保存されます。
「output name」「model name」について
Kohya GUI の「Training」で、「LoRA」や「DreamBooth」などの学習種類を選ぶと、「Training」や「Basic」タブが表示されます。
この名前が .safetensors
のファイル名になります。
ラベル名例 | 説明 | 例 |
---|---|---|
Output name | 出力されるLoRAの名前(.safetensors ) | lora_cat |
Output directory (出力フォルダ) | 保存先のディレクトリ(/workspace/outputs など) | /workspace/outputs |
output_name = last
- 学習によって出力されるモデル(
.safetensors
など)のファイル名が、last.safetensors
になります。 - これは **「最後のエポックのモデル」**という意味合いで、わかりやすい汎用名です。
- 保存先は通常
/workspace/outputs
や/runpod-volume/outputs
に保存されます。
「Save trained model as」について
指定するのが安心
- 意味:学習後に出力されるモデルファイル(
.safetensors
など)の名前を指定する項目です。 - 指定しない場合:自動的に日付や設定名などが使われた名前になりますが、あとで管理しにくくなることがあります。
- 指定例: コードをコピーする
lora_mycharacter_v1.safetensors
学習した内容に合った名前を自分でつけると、整理しやすく、後からモデルを使うときにも分かりやすくなります。
「Max train epoch」について
デフォルトの「10」は多いかもしれません。使用データ量によって調整します。
- 意味:「何回データセットを繰り返して学習するか」を指定します。
- デフォルトは
10
ですが、以下のように調整するのが一般的です。
画像枚数(×1枚に1タグ付き) | 推奨 Epoch |
---|---|
10〜20枚 | 10〜20回 |
30〜50枚 | 5〜10回 |
100枚以上 | 2〜5回 |
過学習に注意
Epoch が多すぎると、訓練データに特化しすぎて汎用性が下がる「過学習」になります。
Dreambooth/LoRA Dataset Balancingについて
- こちらは**複数のコンセプトフォルダ(例:キャラA、キャラB)**がある場合の補助機能です。
- 学習画像数が極端に偏っているとき、自動でバランスを取ってくれる処理です。
- たとえばこういう構成
/dataset
├── character_A
│ ├── a1.png
│ └── a1.txt
└── character_B
├── b1.png
└── b1.txt
コンセプト数が多く、かつ枚数バランスに偏りがあるときに使用。
出力される2種類の .safetensors
ファイル
① 出力フォルダ名-000004.safetensors
- ✅ エポック番号(チェックポイント付き)
- これは「学習ステップ途中のスナップショット」です。
--save_every_n_epochs
や--save_every_n_steps
を指定していると、自動で一定間隔ごとに保存されます。- 用途:
- 学習の途中経過を検証したいとき
- 精度が最も高かった中間地点に戻したいとき
例:出力フォルダ名-000004.safetensors
→ 4エポック終了時のモデル
② 出力フォルダ名.safetensors
- ✅ 最終エポックまで完了した学習モデル(最終出力)
- 学習がすべて終わった後、自動的に出力されます。
- 最も安定した「完成モデル」として扱われます。
- 用途:
- 実際に画像生成で使うモデル
- Hugging Faceなどで公開するモデル
カスタマイズしたいときの設定項目
項目名 | 説明 |
---|---|
--save_model_as=safetensors | 出力形式(safetensors / ckpt など) |
--output_name=出力フォルダ名 | モデル名の指定。出力ファイル名の先頭に反映されます |
--save_every_n_epochs=1 | 何エポックごとに中間モデルを保存するか(例:毎回保存) |
--max_train_epochs=10 | 最後のエポックで .safetensors (番号なし)が生成 |
注意点
出力フォルダ名.safetensors
は 学習が最後まで正常に完了しないと生成されません。途中で止まった場合
は、番号付き(例:-000004
)しか残らないので、必要に応じてそれを手動でリネームして使うことが可能です。
WebUI(ブラウザ画面)の閉じ方
Kohya_ssでWebUIを使用してローカル学習を行っている場合、作業をいったん終了する際には、ターミナル側とWebUI側の両方で適切に閉じることが重要です。以下にそれぞれの正しい閉じ方を説明します。
WebUIは、Kohya_ssのGUI(ブラウザ)であり、直接的には学習プロセスを制御していません。ただの表示窓のようなものです。
- ブラウザのタブまたはウィンドウを閉じるだけでOKです。
- ChromeやEdgeなどで開いているKohyaのWebUIタブを普通に閉じてください。
- 学習ジョブが実行中でも、ターミナル側で動いていれば裏で進行します。
ターミナル(コマンドプロンプト / Anaconda Promptなど)の正しい閉じ方
ターミナルはKohya_ssのWebUI(gui.py
)を起動している実行プロセスです。
閉じるタイミング
学習をまだ開始していない/完了済みの場合
- ターミナルにフォーカスして、
Ctrl + C
を押す(2回必要な場合あり)Shutdown this Flask server (y/n)?
と出る場合は、y
を入力してEnter。
- コマンドプロンプトがプロンプト(例:
(base) C:\Users\yourname>
)に戻ったら、ターミナルを閉じてOK。
学習中に終了したい場合
- 学習ジョブが進行中に
Ctrl + C
を押すと、途中で学習が止まります。- ログ出力が止まり、「KeyboardInterrupt」と表示されます。
- チェックポイント(途中保存)されていない場合は、データが失われる可能性があるので注意。
※「定期保存(save_every_n_steps
など)を有効にしておく」と、学習途中でもモデルが保存されます。
トラブル・エラー
エラー時の基本チェックポイント
- Training images
→images + .txt
が同じフォルダに入っている → OK
→ フォルダ名output/art_part1
→ OK(英数字とスラッシュのみで問題なし) - Dataset preparation
- 「Dreambooth/LoRA Folder Preparation」または「Dataset Balancing」のどちらかのみを使用する。
- 通常のLoRA学習では「Folder Preparation」で十分。「Dataset Balancing」はデータに偏りがあるとき用。
- 出力先指定(Save trained model as)
→ 設定済みであればOK。空白だと保存されないことがあります。 - ログ出力確認
/kohya_ss/outputs/
に.toml
や.json
が出力される場合、「ボタンは動作しているが学習開始に失敗している」可能性が高い。- エラーが出ないのはPython側でエラーを握り潰している場合あり。
- 学習設定の最小限構成でテスト
- epoch数を1、ステップ数を10程度にして動作確認用にしてみてください(負荷をかけず起動の可否だけチェック)
Start
の前に、GUIの 「Trainタブ」→ 全項目の必須入力欄 は埋まっていますか?- 特に以下のような項目が必要です。
Base model path
Output name
Output directory
Image folder
Caption
ファイル形式(BLIP/DeepBooruなど) or.txt
Save trained model as
(safetensors)Epoch
やbatch size
など
トラブル例 | 対処法 |
---|---|
フォルダ指定でクラッシュする | 「📁マーク」からクリックで選択(ドラッグや手入力は避ける) |
選択後に内容が更新されない | 一度タブを切り替えるか、ページをリロード(F5) |
エラーでフォームが固まる | GUIページを閉じて、再読み込み(または再起動) |
GUIが応答しない | Anacondaで一度Ctrl+C してサーバーを再起動(重要) |
GUIが壊れてしまった場合
kohya_ss
フォルダにあるui-config.json
を削除- Anaconda Prompt で再起動
cd C:\Users\Owner\kohya_ss
python kohya_gui.py
「.toml
」「.json
」「.txt
のみが出力される!
「.toml
」「.json
」「.txt
のみが出力された」という場合
KohyaのLoRA学習を実行したあと、モデルファイル(例:.safetensors
)が出力されなかったという意味です。
これはいくつかの原因が考えられます。以下を順番にチェックしてみてください。
学習エポック数(epoch)が 0 や 1 になっていないか?
Epoch
の数が極端に少ないと、学習がほぼ行われず、モデル出力がスキップされることがあります。- 2〜4以上にして再試行してみてください。
output_name
の指定がない or 無効な名前になっていないか?
- 出力ファイル名が
output_name.safetensors
として作成されるため、ここが空欄だと出力されない場合があります。 - 例:
lora_dog
などの名前を必ず入れておく。
出力フォルダが output_dir
で指定されている場所に .safetensors
が出ているか?
.toml
や.json
は設定保存ファイルです。学習結果(モデル)は.safetensors
で出力されます。- 例:
/workspace/outputs/lora_dog.safetensors
などに出力されているか確認。
Save every N steps
などの中間保存が有効かどうか?
- 学習途中で保存する設定(
save_every_n_steps
など)がないと、学習途中で停止した場合に何も出力されないことも。
コマンド実行時にエラーが出ていたかも?
- 実行ログ(WebUI上部 or Terminal)を確認し、途中で
CUDA out of memory
などのエラーが出ていなかったかチェック。
Start training を押しても無反応な場合
Kohya GUIでは、以下のような必須項目が空白だと、裏側でコマンドが生成されず、Start training を押しても無反応になります。
確認すべき項目(特にLoRAの場合)
Image folder(学習用画像のフォルダ)
Output namePretrained model(ベースのモデルファイル)
Output directoryEpoch(エポック数)や Batch size(バッチサイズ)
どこか赤く縁取りされている項目がないかチェックしてください。
ファイルパスの指定ミス
Pretrained model や Image folder のパスが 存在しないか間違っている と動作しません。
Browse ボタンでGUI経由で選択するのがおすすめ。
ターミナルや htop コマンドで裏側のプロセスが動いているかも確認できます。
CLI Preview(またはログ)にエラーが出ていないか?
Start training 実行後に下部にエラー表示がある場合、それが原因です。
「CLI Preview」ボタンがある場合は、出力されるコマンドを先にチェック。
CLI(コマンドライン)での実行も可
GUIでのトラブルがあまりに多い場合、以下のようにCLI(コマンドライン)でLoRA学習を実行する方法もあります
python train_network.py --config_file="your_config.json"
GUI
は設定の確認用、CLI
は確実に回す用、と使い分けている人も多い。

