【RunPodの使い方と料金】Stable Diffusionなどで画像生成やLoRA学習をする方法【②実践編】

RunPodでWebUIを使用する方法

Stable Diffusion系画像生成やLoRA学習をする方法

Stable DiffusionやLoRA学習では、長時間GPUをフル稼働させるため、発熱や電源の安定性が大きな課題になります。

そこで便利なのが RunPod のようなGPUクラウドサービスです。ハイスペックGPUを冷却や電源を気にせず、必要な時間だけ利用可能で、初期投資と環境構築の手間が無く、自身のPCをモデルファイルに圧迫されない点も魅力です。

※本記事では、 RunPodの料金システムの仕組みとアカウント開設から、Web UI(例:AUTOMATIC1111やKohyaなど)で、
画像生成やLoRA学習をする為の設定方法について、解説しています。

SAKASA 元画

右は、Runpodに最近追加された
Public Endpoints内のWan 2.2 I2V 720pで
左の画像を使用してワンクリック生成した8秒動画。
この、画像からの動画生成では、プロンプトのみを指定した。
生成時間は4分20秒

RunPod公式サイト 以下のリンクからRunPodへアクセスし、アカウント作成後、10ドルを入金すると、
私とあなたへ、5ドルから500ドルまでの1回限りのランダムクレジットボーナスが 付与される、お友達紹介特典付きリンクとなっています。是非、ご活用下さい。

目次

RunPodの「操作体系」

RunPodは、AI開発や動画処理など幅広く使える中でも、Stable Diffusionなどの画像生成やLoRAのトレーニングには特に最適化されており、テンプレートやネットワークストレージなど、作業を効率化する機能が豊富に揃っています。

GUI(基本)

ブラウザで操作する直感的な画面。Podの起動、ファイルのアップロード、Web UI(例:AUTOMATIC1111やKohya)での作業が簡単。初心者でも扱いやすい。

CLI / Jupyter Notebook(オプション)

高度な自動化やPythonベースの処理に向いたコマンドライン操作。テンプレートによってはJupyter LabベースのUIも。

RunPodの「料金体系」

未来

うっかり高額請求が来たりしないかも心配・・・。

SAKASA

RunPodは使った時間分だけ引かれる明朗会計だから安心だよ!

RunPodの料金は、ネットワークストレージのメモリ容量+(選ぶGPU×使用した時間)で決まります。

GPU料金
引用元:RunPod

ネットワークストレージは、画像生成をして、すぐに生成画像をダウンロードするという様な使い方の場合は、使用する必要は無いかも知れません。
ですが、LoRAなどで学習をしたり、自分のファイルをアップロードして、自分のPCの様にして、クラウドGPUを使用したい場合には使用すると便利です。
ネットワークストレージに置いてあるデータはPodを停止しても、Podを削除しない限り消える事はありません。

※ネットワークストレージは、1GBあたり0.07ドル~/月です。

RunPodの使い方

使用方法はいくつかありますが、最初は以下の二通りの方法がおすすめです。

  • PublicEndpointを使用して生成をおこなう方法
    画面左側のPublicEndpointタブ➡ツール選択➡APIエンドポイント(外部アプリやコード)で即時生成可能です。
  • Pod Templateを使用して生成をおこなう方法
    画面左側のPod Templateタブ➡ツール選択➡Deploy➡Podを起動
    • RunPodでは、アカウントを作成し、ログインしただけではPod(仮想マシン)は作成されません。
      以下の方法でPodを作成・起動する必要があります。

Pod起動の流れ

Pod Templateを使用する場合の流れは、以下の通りです。

STEP
RunPodにログイン
  • RunPod公式サイト にアクセスしてログイン
  • 各種設定(パスワード、支払い方法、連携したいクラウドの準備(*後にスクショ付き解説あります))
STEP
ネットワークストレージを使用する場合

ネットワークストレージを作成
使用したいテンプレートで、どのGPUが使えるか確認してボリュームを作成

STEP
Pod Templates

テンプレートから「Kohya」「 LoRA」「Stable Diffusion UI」など、使用したいテンプレートを選択
(任意のテンプレートをクリックすると、詳細:Readmeページが表示されます。)
※Public Endpointsを使用すると、使いたいテンプレートを探して即生成する事も出来る。

STEP
Deploy
STEP
Podの構成を選択
  • Network Volumeを使用する場合は、Deploy a pods内のNetwork Volumeでボリュームを選択
  • 必要であれば、追加フィルターでGPUを機能で絞って検索
  • GPUを選択
STEP
Deploy on Demand

「Deploy on Demand」(オンデマンドで展開)をクリックしてPodsを起動

未来

RunPod内の操作では、設定において、反映されるのに少し時間がかかる事もあります。

Podを起動した後できること
  • 状態が「Running」になる
  • クラウドと同期が出来る様になる。
  • 各Portの起動
  • .safetensorsファイルなどを、/models など任意のフォルダにアップロード(画像、.txt、モデルファイルなど)出来る。
  • 学習や画像生成の際に、アップロードしたモデルを指定出来るようになる。

RunPodのアカウント設定項目の詳細解説

RunPodアカウント作成
画面デザインが度々変更されるRunPod。

公式ホームページは、Get startedから、Googleアカウントなどでログインします。

Google翻訳

画像右上の三点マークをクリックして翻訳出来ます。(ただし、翻訳しない方が使いやすいです💦)
RunPodのアカウントを作成した直後は、すぐにPodを立ち上げることも可能ですが、以下の項目は最初に設定しておくのがおすすめです。

項目説明必要度
支払い方法の登録クレジットカードを登録しないと、基本的にPodを起動できません★★★★(必須)
ネットワークストレージ(Volume)の作成画像やモデル、学習データなどを保存するためのストレージ。途中から追加も可能ですが、最初に作っておくとスムーズです。(Pod作成時に選択できます。★★★☆
SSH Keyの登録(必要な人のみ)コマンドラインで直接接続する人向け。Web UIしか使わない場合は不要。★☆☆☆(オプション)
rcloneで連携したいクラウドの準備Google Driveなどと連携したい場合は、rclone設定の前にDrive側の準備が必要です。★★★☆(便利)

「とりあえず使ってみたい」「AUTOMATIC1111をWebで操作したいだけ」という方は、最低限のクレカ登録だけでPodを起動して使い始めることが出来ます。

Settings(設定)アカウント情報

基本的に、RunPodの登録情報(First Name, Emailなど)は英語(アルファベット)入力推奨のようです。

アカウント設定①

※請求書やサポート時の確認などにも英語表記が使われるため、統一しておいた方が安心かと思います。

その他の設定
パスワード アカウント作成時に登録。
メールアドレス認証 アカウント有効化のために必要(Googleでログインした場合は自動で追加されている)。
APIキー 任意(特定用途のみ)自動スクリプトや外部ツールからRunPodを操作したい合に必要。通常の手動利用では不要。
パスキー 任意 高度なセキュリティを求める場合。現時点では使わなくてもOK。
多要素認証(MFA) 推奨(任意)セキュリティ強化におすすめ。後から設定可能。

※(APIキー・MFA・Passkeyなど)は、後から必要に応じて設定可能です。とくにLoRA作成や画像生成など「手動でPodを立ち上げて作業する」場合は、APIキーは不要です。

APIキーが必要になるケース
PythonスクリプトなどでRunPod APIを使ってPodを自動で操作したい
Hugging Faceや自作ツールと連携して使いたい
外部サービスとRunPodを連携する開発をしている

Billing(請求する)設定

RunPodの「支払い方法」について、クラウドGPUサービスだと「使っていないのに月額費がかかる」パターンも多い中で、
RunPodは「使った時間分だけ」課金され、しかもチャージ制で管理できるのが大きな魅力です。

支払い設定

バランス(Balance)=チャージ式

これは前払い制です。

  • クレジットカードなどで、一定の金額(たとえば$10や$20など)をチャージ(前払い)します。
  • その残高から、Podを動かした時間に応じて使った分だけ引かれていく仕組みです。
  • 残高がなくなるとPodが停止します(=課金されません)
カード支払い
クレジットカード
paypal
cryptocurrency(暗号通貨/暗号資産

自動支払い(Configure Auto-Pay)=後払い or 自動チャージ

これは「残高が一定額を下回ったら、自動でチャージする」設定です。

  • たとえば、「残高が$2を切ったら、自動で$10をチャージ」といった設定ができます。
  • 実質的にはクレカの自動引き落とし機能と似た仕組みになります
チャージ完了

支払いが完了すると、残高が反映され、支払い方法が反映されます。

支払い方法の追加と反映

支払い設定が追加されると、永続ストレージを追加できるようになります。

RunPodテンプレート選択

それでは、早速テンプレートを見てみましょう。
使用したいツールは決まっていますか?決まっていない場合は、Stable Diffusion、Automatic1111、ComfyUI、WebUIなどと検索してみてください。

見方としては、WebUIや、UIなどと付くテンプレートには”UI画面”があります。WebUIや、UIなどの記述の無いものは、クリックして内容を確認します。

Pod Templates

Pod Templateを選択➡検索窓で絞り込み➡テンプレートの種類(Official or Communityなど)を選択できるようになりました。

RunPodのテンプレート選択画面

Pod Templatesを使用する場合は、ComfyUI,Automatic1111,LoRA、Kohya,など、目当てのツール名で絞り込み検索し、クリックして説明画面で内容を確認後、右上のDeproyボタンをクリックするとストレージや、GPUを設定する画面の移るのですが・・・、

ネットワークストレージを使用する場合は、ネットワークストレージをあらかじめ設定しておく必要があります。
使用しない場合はこちら このまま選択したPodを Deploy します。

ネットワークストレージ(Network Storage)の設定

ネットワークストレージは、Podを止めたり再起動する際に、学習データ・モデル・出力画像などを保存しておくための機能です。
ネットワークストレージに保存したデータは、別のPodでも共有可能です。

事前にStragesで「New Nerwork Volume」を作成しておくと、
Pod作成時に「Volume」や「Nerwork Volume」の欄で、ボリューム(ネットワークストレージ)が選べます。

データセンターの選び方

ここが唯一ややこしい点かも知れません。

というのは、GPUを選ぶ際、それぞれのテンプレートで使用されているCUDAや、PyTorchのバージョンを確認し、互換性のあるGPUを選ぶ必要があるからです。先の、”RunPodテンプレート選択”の項目で選んだテンプレートを、もう一度見ていきましょう。

選んだテンプレートには何が書いてありますか?

以下の二つのテンプレートを見て下さい。ここでは、CUDAのバージョンを見ていきます。(一枚目の画像では、一番目の赤線部分。)

バージョン確認
Kohya内容

そして、CUDAのバージョンから、使用できるGPUを絞り込みます。

以下は、ドロップダウンから互換性のあるGPUを絞り込めるように作成したものです。
※CUDAを選択して、互換性のあるGPUを割り出します。Runpod内の全てのGPUが追加されてはいません。目安として使用してください。

GPU別 CUDA & PyTorch 互換対応表(2025年時点)

GPUごとに適したCUDAバージョンが異なるため、テンプレート内で使われているPyTorchのバージョンと合わないと動作しないことがあります。ここでは、よく使われるGPUとそのCUDA対応バージョンの目安をまとめました。テンプレート選びやGPU選択の参考にしてください。

GPU名対応CUDAバージョン適したPyTorchバージョン備考
RTX 3090CUDA 11.1 – 11.8PyTorch 1.10~2.0系VRAM 24GB。PyTorch 2.0系と相性良くLoRA向き。Kohya_ssテンプレがCUDA 12.x前提だと非対応のことも。
RTX A6000CUDA 11.0 – 12.1PyTorch 1.10~2.1系商用向け。VRAM 48GB。Kohya_ssテンプレCUDA 12.4はギリ非対応。
RTX 4080 / 4090CUDA 12.0 – 12.3PyTorch 2.1~2.2系 CUDA 12.4テンプレは微妙に非対応のことあり。DockerやWheelsで調整が必要。
RTX 5000 AdaCUDA 12.2PyTorch 2.1~2.2系古いテンプレではエラーになることも。
NVIDIA T4CUDA 10.2 – 11.8PyTorch 1.9~2.0系 VRAM 8GB。軽量LoRA学習向け。古いテンプレと相性良いが性能制限あり。
NVIDIA L40CUDA 12.0 – 12.4PyTorch 2.1~2.3系安定動作。Kohya_ss CUDA 12.4テンプレと互換性高。VRAM 24~48GB。
H100 NVLCUDA 12.1 – 12.4+PyTorch 2.2~2.3系PyTorch nightly推奨。Kohya_ss CUDA 12.4テンプレで対応。超高性能。
H100 SXM / PCIeCUDA 12.1 – 12.4+PyTorch 2.2~2.3系高価格だが非常に高速。テンプレもCUDA 12.4以上が必要。
RTX 5090CUDA 12.8 以降PyTorch nightly(cu128対応)ドライバもバージョン57x以降必須。PyTorch公式whl /cu128 版が必要で、conda環境の手動構築が前提。現状テンプレ非対応のことも多い。

逆引き用互換対応表

CUDAバージョンPyTorch例対応Compute Capability対応GPU例Python対応目安
12.12.1.0〜8.9以降RTX 40xx(Ada)、H1003.9〜3.11
11.81.13〜2.06.1〜8.6RTX 20xx, 30xx, A100, V100など3.8〜3.10
11.31.10〜1.126.0〜8.6GTX 1080Ti, RTX20xx3.7〜3.9
10.21.6〜1.95.0〜7.5GTX 10xxシリーズ, T43.6〜3.8

※あくまで目安です(LoRA学習のような実用環境では、CUDA11.8 + PyTorch2.0 付近が安定)

以下の記事で、GPUの互換について掘り下げて書いています。もし、GPUの互換性について不安な場合は、以下の記事もご覧ください。

1. 使いたいGPUと同じリージョン(データセンター)を選ぶ

左側のStorageから、ネットワークストレージ(New Network Volume)をクリックします。
すると以下の画面が出て来ます。

ネットワークボリューム データセンター
  • 一番大事なポイントです。
  • 例:RTX 5090を使いたい → そのGPUが使えるデータセンターにボリュームを作成する
  • 違うリージョンだとPodに接続できません。

※注意:L4、T4、A10G、A100などは、幅広く対応するGPUです。RTX5090などは新しいので、テンプレートを使用する場合は注意が必要です。

2. 頻繁に起動するGPUが安定して空いているリージョンを選ぶ

  • 「混雑していてなかなかGPUが借りられない」となると非効率なので、なるべく空きやすいリージョンを選ぶのも手。
  • 時間帯によって混雑が変わるので、ご自身が作業する時間帯に空きがある地域が理想です。

3. 自身の物理的な居住地に近いリージョン(必須ではない)

  • 通信速度を気にする場合のみですが、ネットワーク経由で学習データや画像をアップロード/ダウンロードする際に速度に影響が出ることがある様です。
  • 日本在住なら**アジア圏(例:Singaporeなど)**が比較的速いようですが、私はあまり感じたことは無いです。
  • ただし、これは学習性能には影響しませんあくまで転送速度のみ)。

ネットワークボリュームを作成するデータセンターを選びます。データセンターを選択すると、使用できるGPU一覧が表示されます。

ネットワークボリュームの設定

使用したいGPUが使えるリージョンを選択し、Volume Nameを付け、サイズ(GB)を設定し、Create Network Volumeを押すと自分のネットワークストレージが作成されます。

ボリューム(ネットワークストレージ)の設定基準

最低限のLoRA学習なら20GBでもOK、余裕があれば30〜50GBが安心。

内容容量の目安
学習画像(100〜200枚)100MB〜500MB程度
.txtタグファイル数MB未満
モデル本体(SD1.5やLoRA)2〜7GB程度(1モデルあたり)
出力されたLoRAファイル50MB〜200MB/個
学習キャッシュ・ログ数百MB〜2GB程度

設定目安

項目推奨
最低限20GB(削除に注意)
おすすめ30〜50GB(複数回学習する・ベースモデル複数持つなら)
ストレージ設定

作成したストレージは、ストレージに反映されます。(※反映に、少し時間が掛かる場合があります。)

RunPod ネットワークストレージの月額料金目安(日本円換算2025/10記載**為替変動します)

RunPodの「ネットワークストレージ(Network Volume)」は、作成した時点から削除するまで、ずっと課金され続けます。
※課金はPodが停止中でも発生します。

  • Podを停止、削除しても、ネットワークストレージが残っていれば料金は発生し続けます
  • 料金は GB単位/時間あたり で加算されます(例:$0.0001/GB/時間 など)
容量月額料金(USD)月額料金(JPY)
10GB$0.70約 ¥103
20GB$1.40約 ¥206
50GB$3.50約 ¥515

ストレージ課金を止めたい場合

「ネットワークストレージ(Network Volume)」自体を削除する

  1. RunPodの左メニューから「Volumes」を選択
  2. 削除したいストレージの右側にある「︙」メニューをクリック
  3. Delete」を選択
状況おすすめ対策
一時的に使わないPodだけStop(停止)、Delete(削除)はしない。
しばらく使う予定がない必要なデータをバックアップし、Delete(削除)Volume削除
コストを最小限にしたい作業の都度Delete(削除)、Volumeを作成・削除

GPUの選択

RunPodでは一度Pod(GPU)を作成すると、あとからGPUの種類を変更することはできません。変更したい場合は、既存のPodを停止または削除し、新しいGPUを選んで 新しくPodを作成する必要があります。
(※PodはGPUリソースに物理的に紐づいて起動されているため、稼働中のインスタンスではGPUを差し替えできない設計になっています。)

RunPod上のGPU切り替えは「Podを再作成」が前提

現在のRunPodでは、稼働中のPodのGPUタイプを後から変更することはできません。そのため、

  • Podを一度停止して削除
  • 新しいPodを別のGPUで作成
  • 永続ストレージで環境を引き継ぐ

という流れになります。

Pod作成時の注意点

GPU選択は最初の重要なステップです。
使用目的(画像生成、LoRA学習など)に応じて、コストと性能のバランスを考えて選びます。

Podの起動

Pod Templateの選択画面から使用するテンプレートを選んで Deploy pod
ネットワークボリューム(永続ボリューム)の設定を確認 ネットワークストレージを使用する場合

Network Strage

ネットワークストレージを使用する場合は、作成しておいたネットワークストレージで設定したGPUを選択。

Runpod GPU

使用したいGPUを選択。価格はすべて記載があるのでわかりやすい。
※注意:L4、T4、A10G、A100などは、幅広く対応するGPUです。RTX5090などは新しいので、使用できないテンプレートがあります。

名前を付ける

Podに名前を付けて(任意)、Podを起動する。

Podを起動

Running状態になるまで待ちます。
Running状態になると、Connect(接続する)が開けます。

Connect内は、ポート番号で記載されています。ツールは各ポートに紐づけられています。
※紐づけられたポートはテンプレート毎で異なります。詳細は、各Explore(テンプレート内)に記載があります。

バージョン確認
Pod内ターミナル

Pod内の詳細な使用方法は、こちらの記事をご覧ください。

【画像・動画生成】と【自作LoRA作成】RunPodの使い方の違い

ここまでは、【画像生成】目的の場合も、【自作LoRA作成】目的の場合も、手順は同じでしたが、ここからは工程が少し違いますので、RunPodの”用途別”に操作手順をおさらいしておきましょう。画像生成が目的の場合は、このままPodのWeb UIを開いて、画像生成に移る事が出来ます。

画像・動画生成目的(一般的な使い方)

  1. Web UI(AUTOMATIC1111、Comfyなど)を開く
  2. 使用したいモデル(checkpoints、ControlNet、VAEl、LoRA)があればアップロードする
  3. 所定のフォルダに配置
  4. 「Stable Diffusion」タブからベースモデルを選択
  5. あとはPromptを入力して画像生成!
未来

お疲れさまでした!

Runpod記事の総合リンクページ

今の一押し!RunpodでFooocus×SDXLを簡単に使う方法をこちらでご紹介しています

Stable Diffusion記事まとめ

ComfyでWANを使用して動画生成をする方法

ファイルのアップロード方法についての詳細はこちらのアコーディオンをCLICKして展開してください。

少量の画像生成や、ちょっとした学習目的の場合は、アップローダー付きのテンプレートを使用してファイルをアップロード出来ます。
安心な利用には、学習終了直後にローカルへダウンロードする事を忘れないようにしましょう。

方法解説
ブラウザWeb UIのFile機能からだけで可(RunPodのPod内の画面からドロップでアップロード出来ます)※画像生成用途、少量の学習など
SFTPWinSCP, FileZillaなどで高速転送
Google Drivercloneで連携/保管する方法この方法は簡単で便利なので本格使用の方におすすめです。

※ここで、”rclone”の設定を行う方の為に、こちらのrcloneの設定方法を解説した記事のリンクは新しいタブで開く仕様になっています。

ブラウザで、直接画像のアップロードを行う場合の目安

条件内容
画像枚数が少ない例:8枚〜40枚程度
ファイルサイズが小さいPNG・WEBP・JPEGなどで数MB以下
毎回作業環境を大きく構成し直さない一時的にアップ → 処理してDLして終了

SAKASA

学習目的の場合は、ここから学習用データのアップロードと設定をしていきます。あと少し、がんばって!

LoRA学習目的の場合

学習目的の場合は、学習専用テンプレートを使うのがベストです。
LoRA学習に最適なテンプレート:例

RunPodのテンプレート: Kohya、 LoRA 、DreamBooth 、Trainerなどで検索

これらのテンプレートには、以下が入っています。

  • Kohya_ss GUI(LoRA学習に特化したツール)
  • 必要なライブラリ
  • Web UI付きでわかりやすい

※これらのテンプレートを選べば、LoRAの学習設定ができますが、先にLoRA学習の流れを見てみましょう。

Kohya_ss絞り込み

LoRA学習の大きな流れ(RunPod上)おさらい

ステップ
1. (例)Kohya_ss GUIのテンプレートでPod起動
2. *学習用データセット をアップロード(例:/training/dataset/
3. *ベースモデルを /models に入れる(例:Anything-v4.5.safetensors
4. Kohya GUIでパラメータ設定(学習ステップ、学習率など)
5. 学習開始→ .safetensors ファイルとしてLoRA完成
6. そのLoRAを他のWeb UIに移して画像生成に使う

*学習用データセットとは、LoRAで学習を行う際に使用する画像データとタグのセットの事を指しています。
学習用データセットの作成方法については、こちらの記事をご覧ください。


*ベースモデルについては、この後で解説しています

モデルをアップロードする場所(例)

モデルの種類アップロード先フォルダ(RunPodのWeb UI)
ベースモデル/stable-diffusion-webui/models/Stable-diffusion/
LoRAモデル/stable-diffusion-webui/models/Lora/
VAEモデル/stable-diffusion-webui/models/VAE/

Podが起動したら、Web UIやFile Managerから上記の場所にアップロードします。

UI付きのテンプレートでアップロードする方法は、テンプレートによってまちまちですが、主に、File UploaderかJupiterLabを使用します。

拡張子

  • .safetensors(推奨)
  • .ckpt
  • .pt(LoRAモデルやVAEに多い)

ベースモデル探し

Stable Diffusion 1.5、あるいは、SDXL 1.0 baseの基本的なモデルのみで、別のモデル(例:アニメ特化、写真特化など)を使用せず、
Kohya LoRA DreamBooth Trainerなどを使用して、画像生成やLoRA学習をするという目的の場合は、自身の作品の”学習用データセット(リサイズ済み+タグ付け済)”をRunPodにアップロードして学習を始めます。

テンプレートに入っていないモデルを使用して学習をしたい場合

ベースとなるモデルは以下の方法で用意します。

  1. Civitai(https://civitai.com)などのモデル配布サイト
    Civitaiについて、詳しくはこちらの記事をご覧ください
  2. Hugging FaceなどのGitHub/公開リポジトリ
    Higging Faceについて、詳しくはこちらの記事をご覧ください
  3. 自分で学習したLoRA(後でアップロード)

自分の作品に合う作風か、確認(必要なら画像生成テスト)をしておきます。

比較項目Hugging FaceCivitai
用途公式モデル(SD1.5、SDXLなど)や研究系モデルが中心ユーザーが公開したカスタムモデルやLoRAを探すのに便利
モデル例runwayml/stable-diffusion-v1-5line-art-anime-LoRA, realisticVision, Deliberate, etc
検索性やや専門的で開発者向き画像付きで直感的に探せる(UIも一般ユーザー向け)
URLHugging Face公式ページCivitai公式ページ

※ セキュリティと読み込みの安定性のため.ckpt よりも .safetensors形式が推奨されています。

主なモデルの種類

種類ファイル拡張子用途
ベースモデル.safetensors / .ckpt画像生成の核(例:animefull-final-pruned.safetensors
LoRAモデル.safetensors / .pt特定のスタイルやキャラクター学習結果を追加するための拡張
VAE.vae.pt画像のクオリティや色調に影響を与える補助モデル

学習目的の場合
LoRAは「既存の大きなモデル(例:Stable Diffusion)」に対して、「自分の個性(画像・タグ)」を後から追加学習していく仕組みです。
LoRAは「共通語に自分の方言を追加する」ようなイメージで学習させていきますので、ベースモデル選びにおいては、それほど慎重になる必要はありません。

注意すべき点(補足)

  • LoRA学習に他人の著作物を使用した場合 → その著作物のライセンスが商用OKである必要があります。
  • 再配布やLoRAの販売時 → ベースモデルを含めない形で(LoRAだけを)配布すればOKです。

※商用利用とライセンスについての詳細はこちらの記事をご覧ください。

準備手順(ベースモデル編)

  1. ベースモデルを選ぶ
    • Hugging Faceまたは Civitai から .safetensors ファイルを探す
    • 作品に合う画風を画像生成テストなどを行い選択
  2. ベースモデルをRunPodにアップロード
    • 起動したPodの /models または /pretrained_models フォルダにアップロード
    • 学習目的の場合は、Kohya GUIの「学習設定画面」で指定するベースモデルとして選択

実際の使い方例

ステップ1:Hugging Faceからベースモデル(ここでは、SD1.5)をダウンロード

今回は、stable-diffusion-v1-5で解説していきます。他のモデルを使用される場合も手順は同じですので、一緒に進めていきましょう。

※「runwayml/stable-diffusion-v1-5」のリンクは、現在アクセスできない状態です。このモデルは2024年8月以降、Hugging Faceから削除されている為、直接検索すると、下の様な表示になってしまいます。

「runwayml/stable-diffusion-v1-5」のリンク

代替の公式アーカイブ:Comfy-Org/stable-diffusion-v1-5-archive

現在は、Comfy-OrgというHugging Faceのユーザーが、元のモデルとハッシュ値が一致する完全なアーカイブを提供していますので、こちらからダウンロードしていきましょう。Hugging Face(HuggingFaceにアクセスして、Comfy-Org/stable-diffusion-v1-5-archiveを検索して、ファイルとバージョンからダウンロード出来ます。)

Comfy-Org/stable-diffusion-v1-5-archive
Comfy-Org/stable-diffusion-v1-5-archive

このページには、以下のファイルが含まれています

  • v1-5-pruned-emaonly.safetensors(元のモデルと同一)
  • v1-5-pruned-emaonly-fp16.safetensors(FP16形式に変換されたバージョン)Hugging Face

これらは、元のRunwayMLモデルと完全に同一の内容で、LoRA学習や画像生成に安心して使用できます 。

FP16(Half Precision)とは?

FP16(16-bit浮動小数点)は、通常のFP32(32-bit浮動小数点)に比べて、以下のような特徴があります

項目FP32(通常版)FP16(軽量版)
精度高(学習に向く)低め(ただし十分な場合が多い)
ファイルサイズ大(例:4GB)小(例:2GB程度)
VRAM使用量多い(8GB以上を推奨)少ない(4GB〜8GBでも動く)
処理速度普通〜遅い速い(対応GPUなら高速化される)
使用場面高精度な学習やLoRAトレーニング軽量推論・低VRAM環境でのLoRA作成

FP16を選んだ方が良い場合

  • VRAMが 8GB以下 など リソースが限られている(今回はRunPodを使用するのでVRAMは関係ありません)
  • LoRAの 軽量トレーニング をしたい(Kohyaテンプレートでの使用など)
  • 高速な推論を重視している(ただしGPUがFP16に対応している必要があります)

注意点

  • 精度が少し下がるため、LoRAを本格的に学習したい場合細かな差異にこだわる場合は、FP32(通常版)の方が安心です。
  • 一部のツールやUI(例:AUTOMATIC1111)では、FP16モデルが正しく読み込めないこともあるため、注意が必要です。

おすすめの使い分け

用途推奨モデル
画像生成(テストや試作)FP16
LoRA軽量学習(VRAM 8GB以下)FP16
本格的なLoRA学習FP32(pruned-emaonly)

環境(VRAMやGPU性能)に合わせて、どちらを使うか選ぶとよいでしょう。必要なら、両方ダウンロードして切り替えて使う事も可能です。

LoRA学習の手順と細かな設定や配置については、こちらの記事で詳しく解説しています。

この後、モデルと自分の画像をフォルダに配置して、Kohya_ssを使用してLoRA学習をしていきます。続きは【3⃣ 応用編】です。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次