【RunPodの使い方と料金】Stable Diffusionなどで画像生成やLoRA学習をする方法【②実践編】

Stable Diffusion系画像生成やLoRA学習をする方法
Stable DiffusionやLoRA学習では、長時間GPUをフル稼働させるため、発熱や電源の安定性が大きな課題になります。
そこで便利なのが RunPod のようなGPUクラウドサービスです。ハイスペックGPUを冷却や電源を気にせず、必要な時間だけ利用可能で、初期投資と環境構築の手間が無く、自身のPCをモデルファイルに圧迫されない点も魅力です。
※本記事では、 RunPodの料金システムの仕組みとアカウント開設から、Web UI(例:AUTOMATIC1111やKohyaなど)で、
画像生成やLoRA学習をする為の設定方法について、解説しています。

Public Endpoints内のWan 2.2 I2V 720pで
左の画像を使用してワンクリック生成した8秒動画。
この、画像からの動画生成では、プロンプトのみを指定した。
生成時間は4分20秒
RunPod公式サイト 以下のリンクからRunPodへアクセスし、アカウント作成後、10ドルを入金すると、
私とあなたへ、5ドルから500ドルまでの1回限りのランダムクレジットボーナスが 付与される、お友達紹介特典付きリンクとなっています。是非、ご活用下さい。
Runpod

Runpod | The cloud built for AI GPU cloud computing made simple. Build, train, and deploy AI faster. Pay only for what you use, billed by the millisecond.
目次
RunPodの「操作体系」
RunPodは、AI開発や動画処理など幅広く使える中でも、Stable Diffusionなどの画像生成やLoRAのトレーニングには特に最適化されており、テンプレートやネットワークストレージなど、作業を効率化する機能が豊富に揃っています。
GUI(基本)
ブラウザで操作する直感的な画面。Podの起動、ファイルのアップロード、Web UI(例:AUTOMATIC1111やKohya)での作業が簡単。初心者でも扱いやすい。
CLI / Jupyter Notebook(オプション)
高度な自動化やPythonベースの処理に向いたコマンドライン操作。テンプレートによってはJupyter LabベースのUIも。
【①解説編】RunPodの概要についてはこちらの記事をご覧下さい。

クラウドGPU”RunPod”とは?画像生成・LoRA学習の最適解?!個人利用の効率よいクラウド環境【①解説編】 Stable Diffusionなどの画像生成も使いやすい Stable Diffusionで「思う存分、画像,動画生成がしたい」「自分の作風を学習させたい」「LoRAやDreamBoothを試してみたい…
RunPodの「料金体系」

うっかり高額請求が来たりしないかも心配・・・。



RunPodは使った時間分だけ引かれる明朗会計だから安心だよ!
RunPodの料金は、ネットワークストレージのメモリ容量+(選ぶGPU×使用した時間)で決まります。


ネットワークストレージは、画像生成をして、すぐに生成画像をダウンロードするという様な使い方の場合は、使用する必要は無いかも知れません。
ですが、LoRAなどで学習をしたり、自分のファイルをアップロードして、自分のPCの様にして、クラウドGPUを使用したい場合には使用すると便利です。
ネットワークストレージに置いてあるデータはPodを停止しても、Podを削除しない限り消える事はありません。
※ネットワークストレージは、1GBあたり0.07ドル~/月です。
RunPodの使い方
使用方法はいくつかありますが、最初は以下の二通りの方法がおすすめです。
- PublicEndpointを使用して生成をおこなう方法
画面左側のPublicEndpointタブ➡ツール選択➡APIエンドポイント(外部アプリやコード)で即時生成可能です。 - Pod Templateを使用して生成をおこなう方法
画面左側のPod Templateタブ➡ツール選択➡Deploy➡Podを起動- RunPodでは、アカウントを作成し、ログインしただけではPod(仮想マシン)は作成されません。
以下の方法でPodを作成・起動する必要があります。
- RunPodでは、アカウントを作成し、ログインしただけではPod(仮想マシン)は作成されません。
Pod起動の流れ
Pod Templateを使用する場合の流れは、以下の通りです。
STEP
ネットワークストレージを使用する場合
ネットワークストレージを作成
使用したいテンプレートで、どのGPUが使えるか確認してボリュームを作成
STEP
Pod Templates
テンプレートから「Kohya」「 LoRA」「Stable Diffusion UI」など、使用したいテンプレートを選択。
(任意のテンプレートをクリックすると、詳細:Readmeページが表示されます。)
※Public Endpointsを使用すると、使いたいテンプレートを探して即生成する事も出来る。
STEP
Deploy
STEP
Podの構成を選択
- Network Volumeを使用する場合は、Deploy a pods内の
Network Volume
でボリュームを選択 - 必要であれば、追加フィルターでGPUを機能で絞って検索
- GPUを選択
STEP
Deploy on Demand
「Deploy on Demand」(オンデマンドで展開)をクリックしてPodsを起動



RunPod内の操作では、設定において、反映されるのに少し時間がかかる事もあります。
Podを起動した後できること
- 状態が「Running」になる
- クラウドと同期が出来る様になる。
- 各Portの起動
.safetensors
ファイルなどを、/models
など任意のフォルダにアップロード(画像、.txt、モデルファイルなど)出来る。- 学習や画像生成の際に、アップロードしたモデルを指定出来るようになる。
RunPodのアカウント設定項目の詳細解説
公式ホームページは、Get startedから、Googleアカウントなどでログインします。


画像右上の三点マークをクリックして翻訳出来ます。(ただし、翻訳しない方が使いやすいです💦)
RunPodのアカウントを作成した直後は、すぐにPodを立ち上げることも可能ですが、以下の項目は最初に設定しておくのがおすすめです。
項目 | 説明 | 必要度 |
---|---|---|
支払い方法の登録 | クレジットカードを登録しないと、基本的にPodを起動できません。 | ★★★★(必須) |
ネットワークストレージ(Volume)の作成 | 画像やモデル、学習データなどを保存するためのストレージ。途中から追加も可能ですが、最初に作っておくとスムーズです。(Pod作成時に選択できます。) | ★★★☆ |
SSH Keyの登録(必要な人のみ) | コマンドラインで直接接続する人向け。Web UIしか使わない場合は不要。 | ★☆☆☆(オプション) |
rcloneで連携したいクラウドの準備 | Google Driveなどと連携したい場合は、rclone設定の前にDrive側の準備が必要です。 | ★★★☆(便利) |
「とりあえず使ってみたい」「AUTOMATIC1111をWebで操作したいだけ」という方は、最低限のクレカ登録だけでPodを起動して使い始めることが出来ます。
Settings(設定)アカウント情報
基本的に、RunPodの登録情報(First Name, Emailなど)は英語(アルファベット)入力推奨のようです。


※請求書やサポート時の確認などにも英語表記が使われるため、統一しておいた方が安心かと思います。
【その他の設定】
パスワード アカウント作成時に登録。
メールアドレス認証 アカウント有効化のために必要(Googleでログインした場合は自動で追加されている)。
APIキー 任意(特定用途のみ)自動スクリプトや外部ツールからRunPodを操作したい合に必要。通常の手動利用では不要。
パスキー 任意 高度なセキュリティを求める場合。現時点では使わなくてもOK。
多要素認証(MFA) 推奨(任意)セキュリティ強化におすすめ。後から設定可能。
※(APIキー・MFA・Passkeyなど)は、後から必要に応じて設定可能です。とくにLoRA作成や画像生成など「手動でPodを立ち上げて作業する」場合は、APIキーは不要です。
【APIキーが必要になるケース】
PythonスクリプトなどでRunPod APIを使ってPodを自動で操作したい
Hugging Faceや自作ツールと連携して使いたい
外部サービスとRunPodを連携する開発をしている
Billing(請求する)設定
RunPodの「支払い方法」について、クラウドGPUサービスだと「使っていないのに月額費がかかる」パターンも多い中で、
RunPodは「使った時間分だけ」課金され、しかもチャージ制で管理できるのが大きな魅力です。


バランス(Balance)=チャージ式
これは前払い制です。
- クレジットカードなどで、一定の金額(たとえば$10や$20など)をチャージ(前払い)します。
- その残高から、Podを動かした時間に応じて使った分だけ引かれていく仕組みです。
- 残高がなくなるとPodが停止します(=課金されません)




自動支払い(Configure Auto-Pay)=後払い or 自動チャージ
これは「残高が一定額を下回ったら、自動でチャージする」設定です。
- たとえば、「残高が$2を切ったら、自動で$10をチャージ」といった設定ができます。
- 実質的にはクレカの自動引き落とし機能と似た仕組みになります


支払いが完了すると、残高が反映され、支払い方法が反映されます。


支払い設定が追加されると、永続ストレージを追加できるようになります。
RunPodテンプレート選択
それでは、早速テンプレートを見てみましょう。
使用したいツールは決まっていますか?決まっていない場合は、Stable Diffusion、Automatic1111、ComfyUI、WebUIなどと検索してみてください。
見方としては、WebUIや、UIなどと付くテンプレートには”UI画面”があります。WebUIや、UIなどの記述の無いものは、クリックして内容を確認します。
Pod Templates
Pod Template
を選択➡検索窓で絞り込み➡テンプレートの種類(Official or Communityなど)を選択できるようになりました。


Pod Templatesを使用する場合は、ComfyUI,Automatic1111,LoRA、Kohya,など、目当てのツール名で絞り込み検索し、クリックして説明画面で内容を確認後、右上のDeproyボタンをクリックするとストレージや、GPUを設定する画面の移るのですが・・・、
使用しない場合はこちら このまま選択したPodを Deploy
します。
ネットワークストレージ(Network Storage)の設定
ネットワークストレージは、Podを止めたり再起動する際に、学習データ・モデル・出力画像などを保存しておくための機能です。
ネットワークストレージに保存したデータは、別のPodでも共有可能です。
事前にStragesで「New Nerwork Volume」を作成しておくと、
Pod作成時に「Volume」や「Nerwork Volume」の欄で、ボリューム(ネットワークストレージ)が選べます。
データセンターの選び方
ここが唯一ややこしい点かも知れません。
というのは、GPUを選ぶ際、それぞれのテンプレートで使用されているCUDAや、PyTorchのバージョンを確認し、互換性のあるGPUを選ぶ必要があるからです。先の、”RunPodテンプレート選択”の項目で選んだテンプレートを、もう一度見ていきましょう。
選んだテンプレートには何が書いてありますか?
CUDAのバージョンを見ていきます。(一枚目の画像では、一番目の赤線部分。)
以下の二つのテンプレートを見て下さい。ここでは、



そして、CUDAのバージョンから、使用できるGPUを絞り込みます。
※CUDAを選択して、互換性のあるGPUを割り出します。Runpod内の全てのGPUが追加されてはいません。目安として使用してください。
GPU別 CUDA & PyTorch 互換対応表(2025年時点)
GPUごとに適したCUDAバージョンが異なるため、テンプレート内で使われているPyTorchのバージョンと合わないと動作しないことがあります。ここでは、よく使われるGPUとそのCUDA対応バージョンの目安をまとめました。テンプレート選びやGPU選択の参考にしてください。
GPU名 | 対応CUDAバージョン | 適したPyTorchバージョン | 備考 |
---|---|---|---|
RTX 3090 | CUDA 11.1 – 11.8 | PyTorch 1.10~2.0系 | VRAM 24GB。PyTorch 2.0系と相性良くLoRA向き。Kohya_ssテンプレがCUDA 12.x前提だと非対応のことも。 |
RTX A6000 | CUDA 11.0 – 12.1 | PyTorch 1.10~2.1系 | 商用向け。VRAM 48GB。Kohya_ssテンプレCUDA 12.4はギリ非対応。 |
RTX 4080 / 4090 | CUDA 12.0 – 12.3 | PyTorch 2.1~2.2系 | CUDA 12.4テンプレは微妙に非対応のことあり。DockerやWheelsで調整が必要。 |
RTX 5000 Ada | CUDA 12.2 | PyTorch 2.1~2.2系 | 古いテンプレではエラーになることも。 |
NVIDIA T4 | CUDA 10.2 – 11.8 | PyTorch 1.9~2.0系 | VRAM 8GB。軽量LoRA学習向け。古いテンプレと相性良いが性能制限あり。 |
NVIDIA L40 | CUDA 12.0 – 12.4 | PyTorch 2.1~2.3系 | 安定動作。Kohya_ss CUDA 12.4テンプレと互換性高。VRAM 24~48GB。 |
H100 NVL | CUDA 12.1 – 12.4+ | PyTorch 2.2~2.3系 | PyTorch nightly推奨。Kohya_ss CUDA 12.4テンプレで対応。超高性能。 |
H100 SXM / PCIe | CUDA 12.1 – 12.4+ | PyTorch 2.2~2.3系 | 高価格だが非常に高速。テンプレもCUDA 12.4以上が必要。 |
RTX 5090 | CUDA 12.8 以降 | PyTorch nightly(cu128対応) | ドライバもバージョン57x以降必須。PyTorch公式whl /cu128 版が必要で、conda環境の手動構築が前提。現状テンプレ非対応のことも多い。 |
逆引き用互換対応表
CUDAバージョン | PyTorch例 | 対応Compute Capability | 対応GPU例 | Python対応目安 |
---|---|---|---|---|
12.1 | 2.1.0〜 | 8.9以降 | RTX 40xx(Ada)、H100 | 3.9〜3.11 |
11.8 | 1.13〜2.0 | 6.1〜8.6 | RTX 20xx, 30xx, A100, V100など | 3.8〜3.10 |
11.3 | 1.10〜1.12 | 6.0〜8.6 | GTX 1080Ti, RTX20xx | 3.7〜3.9 |
10.2 | 1.6〜1.9 | 5.0〜7.5 | GTX 10xxシリーズ, T4 | 3.6〜3.8 |
※あくまで目安です(LoRA学習のような実用環境では、CUDA11.8 + PyTorch2.0 付近が安定)
以下の記事で、GPUの互換について掘り下げて書いています。もし、GPUの互換性について不安な場合は、以下の記事もご覧ください。
あわせて読みたい



RunPod×Kohya_ss GUI|GPU非対応の原因・互換表まとめ【⓪基礎 2.GPU編】 RunPodでKohya_ss guiが動かない?原因はGPU非対応かも! Kohya_ssは学習に特化してる分、ちょっとGPUとの相性がシビアかも…。GPUエラーが多めのツールだよね。 今回は…
1. 使いたいGPUと同じリージョン(データセンター)を選ぶ
左側のStorageから、ネットワークストレージ(New Network Volume)をクリックします。
すると以下の画面が出て来ます。


- 一番大事なポイントです。
- 例:RTX 5090を使いたい → そのGPUが使えるデータセンターにボリュームを作成する
- 違うリージョンだとPodに接続できません。
※注意:L4、T4、A10G、A100などは、幅広く対応するGPUです。RTX5090などは新しいので、テンプレートを使用する場合は注意が必要です。
2. 頻繁に起動するGPUが安定して空いているリージョンを選ぶ
- 「混雑していてなかなかGPUが借りられない」となると非効率なので、なるべく空きやすいリージョンを選ぶのも手。
- 時間帯によって混雑が変わるので、ご自身が作業する時間帯に空きがある地域が理想です。
3. 自身の物理的な居住地に近いリージョン(必須ではない)
- 通信速度を気にする場合のみですが、ネットワーク経由で学習データや画像をアップロード/ダウンロードする際に速度に影響が出ることがある様です。
- 日本在住なら**アジア圏(例:Singaporeなど)**が比較的速いようですが、私はあまり感じたことは無いです。
- ただし、これは学習性能には影響しません(あくまで転送速度のみ)。
ネットワークボリュームを作成するデータセンターを選びます。データセンターを選択すると、使用できるGPU一覧が表示されます。




使用したいGPUが使えるリージョンを選択し、Volume Nameを付け、サイズ(GB)を設定し、Create Network Volumeを押すと自分のネットワークストレージが作成されます。
ボリューム(ネットワークストレージ)の設定基準
最低限のLoRA学習なら20GBでもOK、余裕があれば30〜50GBが安心。
内容 | 容量の目安 |
---|---|
学習画像(100〜200枚) | 100MB〜500MB程度 |
.txtタグファイル | 数MB未満 |
モデル本体(SD1.5やLoRA) | 2〜7GB程度(1モデルあたり) |
出力されたLoRAファイル | 50MB〜200MB/個 |
学習キャッシュ・ログ | 数百MB〜2GB程度 |
設定目安
項目 | 推奨 |
---|---|
最低限 | 20GB(削除に注意) |
おすすめ | 30〜50GB(複数回学習する・ベースモデル複数持つなら) |


作成したストレージは、ストレージに反映されます。(※反映に、少し時間が掛かる場合があります。)
RunPod ネットワークストレージの月額料金目安(日本円換算2025/10記載**為替変動します)
RunPodの「ネットワークストレージ(Network Volume)」は、作成した時点から削除するまで、ずっと課金され続けます。
※課金はPodが停止中でも発生します。
- Podを停止、削除しても、ネットワークストレージが残っていれば料金は発生し続けます
- 料金は GB単位/時間あたり で加算されます(例:$0.0001/GB/時間 など)
容量 | 月額料金(USD) | 月額料金(JPY) |
---|---|---|
10GB | $0.70 | 約 ¥103 |
20GB | $1.40 | 約 ¥206 |
50GB | $3.50 | 約 ¥515 |
ストレージ課金を止めたい場合
「ネットワークストレージ(Network Volume)」自体を削除する
- RunPodの左メニューから「Volumes」を選択
- 削除したいストレージの右側にある「︙」メニューをクリック
- 「Delete」を選択
状況 | おすすめ対策 |
---|---|
一時的に使わない | PodだけStop(停止)、Delete(削除)はしない。 |
しばらく使う予定がない | 必要なデータをバックアップし、Delete(削除)Volume削除 |
コストを最小限にしたい | 作業の都度Delete(削除)、Volumeを作成・削除 |
GPUの選択
RunPodでは一度Pod(GPU)を作成すると、あとからGPUの種類を変更することはできません。変更したい場合は、既存のPodを停止または削除し、新しいGPUを選んで 新しくPodを作成する必要があります。
(※PodはGPUリソースに物理的に紐づいて起動されているため、稼働中のインスタンスではGPUを差し替えできない設計になっています。)
RunPod上のGPU切り替えは「Podを再作成」が前提
現在のRunPodでは、稼働中のPodのGPUタイプを後から変更することはできません。そのため、
- Podを一度停止して削除
- 新しいPodを別のGPUで作成
- 永続ストレージで環境を引き継ぐ
という流れになります。
Pod作成時の注意点
GPU選択は最初の重要なステップです。
使用目的(画像生成、LoRA学習など)に応じて、コストと性能のバランスを考えて選びます。
Podの起動
Pod Templateの選択画面から使用するテンプレートを選んで Deploy pod
ネットワークボリューム(永続ボリューム)の設定を確認 ネットワークストレージを使用する場合


ネットワークストレージを使用する場合は、作成しておいたネットワークストレージで設定したGPUを選択。


使用したいGPUを選択。価格はすべて記載があるのでわかりやすい。
※注意:L4、T4、A10G、A100などは、幅広く対応するGPUです。RTX5090などは新しいので、使用できないテンプレートがあります。


Podに名前を付けて(任意)、Podを起動する。


Running状態になるまで待ちます。
Running状態になると、Connect(接続する)が開けます。
Connect内は、ポート番号で記載されています。ツールは各ポートに紐づけられています。
※紐づけられたポートはテンプレート毎で異なります。詳細は、各Explore(テンプレート内)に記載があります。




Pod内の詳細な使用方法は、 こちらの記事をご覧ください。
SAKASA AI



RunPodの【Podの見方と使い方】と【接続オプションの使い方】【⓪基礎・1.Pod編】 | SAKASA AI レンタルサーバーRunPodの”Podの見方と使用方法、そしてPod内の接続オプションの見方と使用方法”とコツそして、エラー対処方法なども加え、困ったときにいつでも見返せるよ…
【画像・動画生成】と【自作LoRA作成】RunPodの使い方の違い
ここまでは、【画像生成】目的の場合も、【自作LoRA作成】目的の場合も、手順は同じでしたが、ここからは工程が少し違いますので、RunPodの”用途別”に操作手順をおさらいしておきましょう。画像生成が目的の場合は、このままPodのWeb UIを開いて、画像生成に移る事が出来ます。
画像・動画生成目的(一般的な使い方)
- Web UI(AUTOMATIC1111、Comfyなど)を開く
- 使用したいモデル(checkpoints、ControlNet、VAEl、LoRA)があればアップロードする
- 所定のフォルダに配置
- 「Stable Diffusion」タブからベースモデルを選択
- あとはPromptを入力して画像生成!



お疲れさまでした!
Runpod記事の総合リンクページ
Runpodお役立ちリンクページ



【RunPodリンクページ】活用マニュアル|使用方法から注目テンプレートまで 【2025年最新版】RunPodガイド・Stable Diffusionから”今注目のテンプレート”まで 本ページでは、RunPodの使い方や料金、具体的な活用方法などに関する記事をまとめまし…
今の一押し!RunpodでFooocus×SDXLを簡単に使う方法をこちらでご紹介しています
あわせて読みたい



Fooocus 2.5.3(Stable Diffusion)完全ガイド|ComfyUI・Automatic1111比較|SDXL・RunDiffusion・Jugg… Fooocusの使い方 「Fooocus(フーカス)」は Webサービス ではなく、ローカルで動かす画像生成ツール です。今回の最新版2.5.3 では、安定性や速度、アップスケーラーや…
Stable Diffusion記事まとめ
ComfyでWANを使用して動画生成をする方法
SAKASA AI



ComfyUI + Wanで動画生成!i2v・t2vをRunPodで簡単に使う方法 | SAKASA AI ComfyUI + WanでAI動画生成!i2v(画像→動画)、t2v(テキスト→動画)、VACEモデルの使い方をRunPod環境でわかりやすく解説。GPU目安やテンプレート設定も掲載。
ファイルのアップロード方法についての詳細はこちらのアコーディオンをCLICKして展開してください。
少量の画像生成や、ちょっとした学習目的の場合は、アップローダー付きのテンプレートを使用してファイルをアップロード出来ます。
安心な利用には、学習終了直後にローカルへダウンロードする事を忘れないようにしましょう。
方法 | 解説 |
---|---|
ブラウザ | Web UIのFile機能からだけで可(RunPodのPod内の画面からドロップでアップロード出来ます)※画像生成用途、少量の学習など |
SFTP | WinSCP, FileZillaなどで高速転送 |
Google Drive | rcloneで連携/保管する方法 この方法は簡単で便利なので本格使用の方におすすめです。 |
※ここで、”rclone”の設定を行う方の為に、こちらのrcloneの設定方法を解説した記事のリンクは新しいタブで開く仕様になっています。
SAKASA AI



【rclone(アールクローン)】の使い方・クラウド×ローカル【ファイル転送・同期・バックアップ】方法 | SA… RunPodやクラウドAI環境でのLoRAモデル管理に便利なrcloneの導入方法を初心者向けに解説。「rclone 入らない」「rclone パスが通らない」「rclone version が効かない」な…
ブラウザで、直接画像のアップロードを行う場合の目安
条件 | 内容 |
---|---|
画像枚数が少ない | 例:8枚〜40枚程度 |
ファイルサイズが小さい | PNG・WEBP・JPEGなどで数MB以下 |
毎回作業環境を大きく構成し直さない | 一時的にアップ → 処理してDLして終了 |



学習目的の場合は、ここから学習用データのアップロードと設定をしていきます。あと少し、がんばって!
LoRA学習目的の場合
学習目的の場合は、学習専用テンプレートを使うのがベストです。
LoRA学習に最適なテンプレート:例
RunPodのテンプレート: Kohya、 LoRA 、DreamBooth 、Trainerなどで検索
これらのテンプレートには、以下が入っています。
- Kohya_ss GUI(LoRA学習に特化したツール)
- 必要なライブラリ
- Web UI付きでわかりやすい
※これらのテンプレートを選べば、LoRAの学習設定ができますが、先にLoRA学習の流れを見てみましょう。


LoRA学習の大きな流れ(RunPod上)おさらい
ステップ |
---|
1. (例)Kohya_ss GUIのテンプレートでPod起動 |
2. *学習用データセット をアップロード(例:/training/dataset/ ) |
3. *ベースモデルを /models に入れる(例:Anything-v4.5.safetensors ) |
4. Kohya GUIでパラメータ設定(学習ステップ、学習率など) |
5. 学習開始→ .safetensors ファイルとしてLoRA完成 |
6. そのLoRAを他のWeb UIに移して画像生成に使う |
*学習用データセットとは、LoRAで学習を行う際に使用する画像データとタグのセットの事を指しています。
学習用データセットの作成方法については、 こちらの記事をご覧ください。
学習用データセットの作成方法



【自作イラストをLoRA化】画像とテキストタグ(キャプション)の準備からフォルダ構成まで徹底解説 学習用データセットの作り方 LoRA(Low-Rank Adaptation)は、既存のAIモデルに対して、自分のイラストや作風を学習させられる技術です。でもいざ始めようとすると── 「…
*ベースモデルについては、この後で解説しています。
モデルをアップロードする場所(例)
モデルの種類 | アップロード先フォルダ(RunPodのWeb UI) |
---|---|
ベースモデル | /stable-diffusion-webui/models/Stable-diffusion/ |
LoRAモデル | /stable-diffusion-webui/models/Lora/ |
VAEモデル | /stable-diffusion-webui/models/VAE/ |
Podが起動したら、Web UIやFile Managerから上記の場所にアップロードします。
UI付きのテンプレートでアップロードする方法は、テンプレートによってまちまちですが、主に、File UploaderかJupiterLabを使用します。
あわせて読みたい



「RunPodでのJupyterLabの使い方:workspaceとの違いも解説」【⓪基礎・3.JupyterLab編】 RunPodでテンプレートを使っていると、よくパッケージされている「JupyterLab(Jupyter Notebook)」や「workspace」。この2つは何が違うのか?そして、Notebookは何が…
拡張子
.safetensors
(推奨).ckpt
.pt
(LoRAモデルやVAEに多い)
ベースモデル探し
Stable Diffusion 1.5、あるいは、SDXL 1.0 baseの基本的なモデルのみで、別のモデル(例:アニメ特化、写真特化など)を使用せず、
Kohya LoRA DreamBooth Trainerなどを使用して、画像生成やLoRA学習をするという目的の場合は、自身の作品の”学習用データセット(リサイズ済み+タグ付け済)”をRunPodにアップロードして学習を始めます。
テンプレートに入っていないモデルを使用して学習をしたい場合
ベースとなるモデルは以下の方法で用意します。
- Civitai(https://civitai.com)などのモデル配布サイト
Civitaiについて、詳しくはこちらの記事をご覧ください - Hugging FaceなどのGitHub/公開リポジトリ
Higging Faceについて、詳しくはこちらの記事をご覧ください - 自分で学習したLoRA(後でアップロード)
自分の作品に合う作風か、確認(必要なら画像生成テスト)をしておきます。
比較項目 | Hugging Face | Civitai |
---|---|---|
用途 | 公式モデル(SD1.5、SDXLなど)や研究系モデルが中心 | ユーザーが公開したカスタムモデルやLoRAを探すのに便利 |
モデル例 | runwayml/stable-diffusion-v1-5 | line-art-anime-LoRA , realisticVision , Deliberate , etc |
検索性 | やや専門的で開発者向き | 画像付きで直感的に探せる(UIも一般ユーザー向け) |
URL | Hugging Face公式ページ | Civitai公式ページ |
※ セキュリティと読み込みの安定性のため.ckpt
よりも .safetensors
形式が推奨されています。
主なモデルの種類
種類 | ファイル拡張子 | 用途 |
---|---|---|
ベースモデル | .safetensors / .ckpt | 画像生成の核(例:animefull-final-pruned.safetensors ) |
LoRAモデル | .safetensors / .pt | 特定のスタイルやキャラクター学習結果を追加するための拡張 |
VAE | .vae.pt | 画像のクオリティや色調に影響を与える補助モデル |
学習目的の場合
LoRAは「既存の大きなモデル(例:Stable Diffusion)」に対して、「自分の個性(画像・タグ)」を後から追加学習していく仕組みです。
LoRAは「共通語に自分の方言を追加する」ようなイメージで学習させていきますので、ベースモデル選びにおいては、それほど慎重になる必要はありません。
注意すべき点(補足)
- LoRA学習に他人の著作物を使用した場合 → その著作物のライセンスが商用OKである必要があります。
- 再配布やLoRAの販売時 → ベースモデルを含めない形で(LoRAだけを)配布すればOKです。
※商用利用とライセンスについての詳細は
こちらの記事をご覧ください。 SAKASA AI



Hugging Face Hub(全体)と Spaces(Webアプリ)の商用利用とライセンスの見方 | SAKASA AI 「AIで画像を作ってSNSやブログに使うだけだから大丈夫」と思いがちですが、実はその画像がライセンス違反になる可能性があります。商用利用NGのツールを使うリスクと、ど…
準備手順(ベースモデル編)
- ベースモデルを選ぶ
- Hugging Faceまたは Civitai から
.safetensors
ファイルを探す - 作品に合う画風を画像生成テストなどを行い選択
- Hugging Faceまたは Civitai から
- ベースモデルをRunPodにアップロード
- 起動したPodの
/models
または/pretrained_models
フォルダにアップロード - 学習目的の場合は、Kohya GUIの「学習設定画面」で指定するベースモデルとして選択
- 起動したPodの
実際の使い方例
ステップ1:Hugging Faceからベースモデル(ここでは、SD1.5)をダウンロード
今回は、stable-diffusion-v1-5で解説していきます。他のモデルを使用される場合も手順は同じですので、一緒に進めていきましょう。
※「runwayml/stable-diffusion-v1-5」のリンクは、現在アクセスできない状態です。このモデルは2024年8月以降、Hugging Faceから削除されている為、直接検索すると、下の様な表示になってしまいます。


代替の公式アーカイブ:Comfy-Org/stable-diffusion-v1-5-archive
現在は、Comfy-OrgというHugging Faceのユーザーが、元のモデルとハッシュ値が一致する完全なアーカイブを提供していますので、こちらからダウンロードしていきましょう。Hugging Face(HuggingFaceにアクセスして、Comfy-Org/stable-diffusion-v1-5-archiveを検索して、ファイルとバージョンからダウンロード出来ます。)
Comfy-Org/stable-diffusion-v1-5-archive


このページには、以下のファイルが含まれています
v1-5-pruned-emaonly.safetensors
(元のモデルと同一)v1-5-pruned-emaonly-fp16.safetensors
(FP16形式に変換されたバージョン)Hugging Face
これらは、元のRunwayMLモデルと完全に同一の内容で、LoRA学習や画像生成に安心して使用できます 。
FP16(Half Precision)とは?
FP16(16-bit浮動小数点)は、通常のFP32(32-bit浮動小数点)に比べて、以下のような特徴があります
項目 | FP32(通常版) | FP16(軽量版) |
---|---|---|
精度 | 高(学習に向く) | 低め(ただし十分な場合が多い) |
ファイルサイズ | 大(例:4GB) | 小(例:2GB程度) |
VRAM使用量 | 多い(8GB以上を推奨) | 少ない(4GB〜8GBでも動く) |
処理速度 | 普通〜遅い | 速い(対応GPUなら高速化される) |
使用場面 | 高精度な学習やLoRAトレーニング | 軽量推論・低VRAM環境でのLoRA作成 |
FP16を選んだ方が良い場合
- VRAMが 8GB以下 など リソースが限られている(今回はRunPodを使用するのでVRAMは関係ありません)
- LoRAの 軽量トレーニング をしたい(Kohyaテンプレートでの使用など)
- 高速な推論を重視している(ただしGPUがFP16に対応している必要があります)
注意点
- 精度が少し下がるため、LoRAを本格的に学習したい場合や細かな差異にこだわる場合は、FP32(通常版)の方が安心です。
- 一部のツールやUI(例:AUTOMATIC1111)では、FP16モデルが正しく読み込めないこともあるため、注意が必要です。
おすすめの使い分け
用途 | 推奨モデル |
---|---|
画像生成(テストや試作) | FP16 |
LoRA軽量学習(VRAM 8GB以下) | FP16 |
本格的なLoRA学習 | FP32(pruned-emaonly) |
環境(VRAMやGPU性能)に合わせて、どちらを使うか選ぶとよいでしょう。必要なら、両方ダウンロードして切り替えて使う事も可能です。
LoRA学習の手順と細かな設定や配置については、 こちらの記事で詳しく解説しています。
この後、モデルと自分の画像をフォルダに配置して、Kohya_ssを使用してLoRA学習をしていきます。続きは【3⃣ 応用編】です。
【③ 応用編】Kohya_ssを使用してLoRA学習をする方法



【RunPod】で”Kohya_ss”を使用して”LoRA学習”をする方法【③応用編】 本記事では、クラウドGPUのRunPod内で、 ”Kohya_ss”のテンプレートを使用して、”LoRA学習”をする方法を解説しています。 RunPodの基本的な使用方法については、 こちら…
【⓪-1 Podの見方と使い方】



RunPodの【Podの見方と使い方】と【接続オプションの使い方】【⓪基礎・1.Pod編】 RunPodの大まかな使用方法、流れは こちらの記事でまとめています。 ”RunPodの使用方法と手順”については、上の記事でかなり細かくまとめたつもりでいました。しかし、…
【⓪ -2 GPUの選び方】



RunPod×Kohya_ss GUI|GPU非対応の原因・互換表まとめ【⓪基礎 2.GPU編】 RunPodでKohya_ss guiが動かない?原因はGPU非対応かも! Kohya_ssは学習に特化してる分、ちょっとGPUとの相性がシビアかも…。GPUエラーが多めのツールだよね。 今回は…
【① 解説編】



クラウドGPU”RunPod”とは?画像生成・LoRA学習の最適解?!個人利用の効率よいクラウド環境【①解説編】 Stable Diffusionなどの画像生成も使いやすい Stable Diffusionで「思う存分、画像,動画生成がしたい」「自分の作風を学習させたい」「LoRAやDreamBoothを試してみたい…