【RunPodの使い方と料金】Stable Diffusionを使用して画像生成とLoRA学習をする方法【2⃣実践編】

RunPodでWebUIを使用する方法

画像生成LoRA学習では、長時間GPUをフル稼働させることになる為、発熱量も多くなり、冷却の安定性が超重要です。
そのため、AIO水冷の導入や、可能であればGPU自体も水冷モデルにするなど、冷却への投資が必要になることもあります。

しかし、RunPodのようなGPUクラウドサービスを使えば、そうしたハードウェア面の心配は不要です。ハイスペックなGPUを、冷却や電源を気にせず、必要な時間だけ借りて使うことができます。

とはいえ、「レンタルGPUプラットフォームって、うっかり高額請求が来たりしない?」と不安になる方も多いかもしれません。RunPodはチャージ式自動支払い式、2種類の支払い方法が選べたり、その上で、更に限度額の設定も可能なので、とても安心できる課金システムだと思います。

※本記事では、RunPodの使い方とWeb UI(例:AUTOMATIC1111やKohya)で、画像生成とLoRA学習をする方法(実践)について、解説しています。

RunPod公式サイト 以下のリンクは、RunPodへアクセスし、サインアップ後、10ドルを入金すると、
私とあなたへ、5ドルから500ドルまでの1回限りのランダムクレジットボーナスが 付与される、お友達紹介特典付きリンクとなっています。是非、ご活用下さい。

目次

RunPodの「操作体系」

RunPodは、AI開発や動画処理など幅広く使える中でも、Stable Diffusionなどの画像生成やLoRAのトレーニングには特に最適化されており、テンプレートや永続ストレージなど、作業を効率化する機能が豊富に揃っています。そして、操作体系が柔軟なのも魅力です。

GUI(基本)ブラウザで操作する直感的な画面。Podの起動、ファイルのアップロード、Web UI(例:AUTOMATIC1111やKohya)での作業が簡単。初心者でも扱いやすい。
CLI / Jupyter Notebook(オプション)高度な自動化やPythonベースの処理に向いたコマンドライン操作。テンプレートによってはJupyter NotebookベースのUIになることも。

RunPodの「料金体系」

RunpodのGPU価格表
引用元:RunPod

RunPodの料金システムは、永続ストレージのメモリ容量+(選ぶGPU×使用した時間)で決まります。

永続ストレージは、画像生成をして、すぐに生成画像をダウンロードするという様な使い方の場合は、使用する必要は無いかも知れません。
ですが、LoRAなどで学習をしたり、自分のファイルをアップロードして、自分のPCの様にして、クラウドGPUを使用したい場合は、必ず使用します。
永続ストレージに置いてあるデータはPodを停止しても、Podを削除しない限り消える事はありません。

永続ストレージは、1GBあたり0.07ドル~/月です。

RunPodのPodの使い方

RunPodでは、アカウントを作成し、ログインしただけではPod(仮想マシン)は作成されません。
手動でPodを作成・起動する必要があります。

そして、安心な利用には、学習終了直後にローカルへダウンロードする必要があります。

ファイルのアップロード方法

方法解説
ブラウザWeb UIのFile機能からだけで可(RunPodのPod内の画面からドロップでアップロード出来ます)※画像生成用途、少量の学習など
SFTPWinSCP, FileZillaなどで高速転送
Google Drivercloneで連携/保管する方法この方法は簡単で便利なのでおすすめです

※ここで、”rclone”の設定を行う方の為に、こちらのrcloneの設定方法を解説した記事のリンクは新しいタブで開く仕様になっています。

ブラウザで、直接画像のアップロードを行う場合の目安

条件内容
画像枚数が少ない例:8枚〜40枚程度
ファイルサイズが小さいPNG・WEBP・JPEGなどで数MB以下
毎回作業環境を大きく構成し直さない一時的にアップ → 処理してDLして終了

注意点

  • Podを作成・起動すると、課金が始まります(1分単位でGPU時間が消費される)
  • 起動後にファイルのアップロード、学習・生成などが可能になります

Pod作成の流れ

使用の流れは、以下の通りです。

  1. RunPodにログイン
    • RunPod公式サイト にアクセスしてログイン
    • 各種設定(パスワード、支払い方法、連携したいクラウドの準備(*後にスクショ付き解説あります))
  2. Storage(ストレージ)新しいネットワークボリュームを作成
    • 使用したいGPUが使えるか確認してボリュームを作成
  3. Explore(探検する)Explore RunPod Templatesテンプレートから「Kohya」「 LoRA」「Stable Diffusion UI」など、使用したいテンプレートを選択。又は、RunPod Hubから使いたいテンプレートを探す
    (任意のテンプレートをクリックすると、詳細ページが表示されます。)
  4. 「Deploy」ボタンをクリック
  5. Podの構成を選択
    • Deploy a podsでNetwork Volumeでボリュームを選択
    • 必要であれば、追加フィルターでGPUを機能で絞って検索
    • GPUを選択
  6. 「Deploy on Demand」(オンデマンドで展開)をクリックして作成・起動
未来

RunPod内の操作では、それぞれの設定において、反映されるのに少し時間がかかる事があります。

Podを起動した後できること

  • 状態が「Running」になる
  • クラウドと同期が出来る様になります。
  • 「Connect」から、Kohya LoRAテンプレートやStable Diffusion UIテンプレートでPodを起動
  • 「Files」から、ダウンロードした.safetensorsファイルを、RunPodのPod内の/models または /pretrained_models/ディレクトリにアップロード(画像、.txt、モデルファイルなど)
  • 学習や画像生成の際に、アップロードしたモデルを指定出来るようになる。

RunPodのアカウント設定項目

RunPodアカウント作成

公式ホームページは、Get startedから、Googleアカウントなどでログインします。

RunPod公式サイト 以下のリンクは、RunPodへアクセスし、サインアップ後、10ドルを入金すると、
私とあなたへ、5ドルから500ドルまでの1回限りのランダムクレジットボーナスが 付与される、お友達紹介特典付きリンクとなっています。是非、ご活用下さい。

Google翻訳

画像右上の三点マークをクリックして翻訳出来ます。
RunPodのアカウントを作成した直後は、すぐにPodを立ち上げることも可能ですが、以下の項目は最初に設定しておくのがおすすめです。

項目説明必要度
支払い方法の登録クレジットカードを登録しないと、基本的にPodを起動できません★★★★☆(必須)
永続ストレージ(Volume)の作成画像やモデル、学習データなどを保存するためのストレージ。途中から追加も可能ですが、最初に作っておく方がスムーズです。(Pod作成時に設定できます。★★★☆
SSH Keyの登録(必要な人のみ)コマンドラインで直接接続する人向け。Web UIしか使わない場合は不要。★☆☆☆(オプション)
rcloneで連携したいクラウドの準備Google Driveなどと連携したい場合は、rclone設定の前にDrive側の準備が必要です。★★★☆(便利)

「とりあえず使ってみたい」「AUTOMATIC1111をWebで操作したいだけ」という方は、最低限のクレカ登録だけでPodを起動して使い始めることが可能です

Settings(設定)アカウント情報

基本的に、RunPodの登録情報(First Name, Emailなど)は英語(アルファベット)入力推奨のようです。

アカウント設定①
項目日本語でもOK?備考
First Name / Last Name❌ 推奨されないアルファベットで入力(例:Taro Yamada)。念のため。
Company Name(任意)⭕ 任意で日本語OK記載しなくても大丈夫。必要に応じて会社名などを書く場合は日本語でもOK。
Billing Address(請求先住所)⭕ 可能だが英語が望ましい国際サービスなので、英語表記(例:1-2-3 Shibuya, Tokyo, Japan)の方が無難です。

※請求書やサポート時の確認などにも英語表記が使われるため、統一しておいた方が安心です

その他の設定
パスワード アカウント作成時に登録。
メールアドレス認証 アカウント有効化のために必要(Googleでログインした場合は自動で追加されている)。
APIキー 任意(特定用途のみ)自動スクリプトや外部ツールからRunPodを操作したい合に必要。通常の手動利用では不要。
パスキー 任意 高度なセキュリティを求める場合。現時点では使わなくてもOK。
多要素認証(MFA) 推奨(任意)セキュリティ強化におすすめ。後から設定可能。
※(APIキー・MFA・Passkeyなど)は、後から必要に応じて設定すれば大丈夫です。とくにLoRA作成や画像生成など「手動でPodを立ち上げて作業する」場合は、APIキーは不要です。

APIキーが必要になるケース
PythonスクリプトなどでRunPod APIを使ってPodを自動で操作したい
Hugging Faceや自作ツールと連携して使いたい
外部サービスとRunPodを連携する開発をしている

Billing(請求する)設定

RunPodの「支払い方法」について、クラウドGPUサービスだと「使っていないのに月額費がかかる」パターンも多い中で、
RunPodは「使った時間分だけ」課金され、しかもチャージ制で管理できるのが大きな魅力です。

支払い設定

バランス(Balance)=チャージ式

これは前払い制です。

  • クレジットカードなどで、一定の金額(たとえば$10や$20など)をチャージ(前払い)します。
  • その残高から、Podを動かした時間に応じて使った分だけ引かれていく仕組みです。
  • 残高がなくなるとPodが停止します(=課金されません)
カード支払い
クレジットカード
paypal
cryptocurrency(暗号通貨/暗号資産

限度額(Spend Limit)

RunPodでは、たとえチャージ式でも意図しない使いすぎ(計算ミスや放置)を防ぐために「このセッションでいくらまで使っていいか」のセーフティ制限を設けることができます。

限度額の例

  • 残高に$50チャージしていても、「このPodセッションでは最大$10まで」と制限できます。
  • そうすることで、例えば一晩放置して大きな請求になるのを防げます。

自動支払い(Configure Auto-Pay)=後払い or 自動チャージ

これは「残高が一定額を下回ったら、自動でチャージする」設定です。

  • たとえば、「残高が$2を切ったら、自動で$10をチャージ」といった設定ができます。
  • 実質的にはクレカの自動引き落とし機能と似た仕組みになります
チャージ完了

支払いが完了すると、残高が反映され、支払い方法が反映されます。

支払い方法の追加と反映

支払い設定が追加されると、永続ストレージを追加できるようになります。

永続ストレージ(Persistent Volume)の設定

永続ストレージは、Podを止めたり再起動する際に、学習データ・モデル・出力画像などを保存しておくための機能です。
永続ストレージに保存したデータは、別のPodでも共有可能です。

事前にStragesで「New Nerwork Volume」を作成しておくと、
Pod作成時に「Volume」や「Nerwork Volume」の欄で、ボリューム(永続ストレージ)が選べます。

データセンターの選び方

1. 使いたいGPUと同じリージョン(データセンター)を選ぶ

左側のStorageから、New Network Volumeをクリックします。
すると以下の画面が出て来ます。

ネットワークボリューム データセンター
  • 一番大事なポイントです。
  • 例:RTX 5090を使いたい → そのGPUが使えるデータセンターを調べて、同じ場所にボリュームを作成する
  • 違うリージョンだとPodに接続できません。

※注意:L4、T4、A10G、A100などは、幅広く対応するGPUです。RTX5090などは新しいので、テンプレートを使用する場合は注意が必要です。

2. 頻繁に起動するGPUが安定して空いているリージョンを選ぶ

  • 「混雑していてなかなかGPUが借りられない」となると非効率なので、なるべく空きやすいリージョンを選ぶのも手。
  • 時間帯によって混雑が変わるので、ご自身が作業する時間帯に空きがある地域が理想です。

3. 自身の物理的な居住地に近いリージョン(必須ではない)

  • 通信速度を気にする場合のみですが、ネットワーク経由で学習データや画像をアップロード/ダウンロードする際に速度に影響が出ることがあります。
  • 日本在住なら**アジア圏(例:Singaporeなど)**が比較的速いです。
  • ただし、これは学習性能には影響しません(あくまで転送速度のみです)。

ネットワークボリュームを作成するデータセンターを選びます。データセンターを選択すると、使用できるGPU一覧が表示されます。

ネットワークボリュームの設定

使用したいGPUが使えるリージョンを選択し、Volume Nameを付け、サイズ(GB)を設定し、Create Network Volumeを押すと自分の永続ボリュームが作成されます。

ボリューム(永続ストレージ)の選び方基準

最低限のLoRA学習なら20GBでもOK、余裕があれば30〜40GBが安心。

内容容量の目安
学習画像(100〜200枚)100MB〜500MB程度
.txtタグファイル数MB未満
モデル本体(SD1.5やLoRA)2〜7GB程度(1モデルあたり)
出力されたLoRAファイル50MB〜200MB/個
学習キャッシュ・ログ数百MB〜2GB程度

設定目安

項目推奨
最低限20GB(削除に注意)
おすすめ30〜50GB(複数回学習する・ベースモデル複数持つなら)
安心運用Auto-shutdown設定 + 永続ストレージあり

具体的なポイント

作成したストレージは、ストレージに反映されます。(反映に、少し時間が掛かる場合があります。)

永続ストレージ追加

RunPodの「永続ストレージ(Network Volume)」は、作成した時点から削除するまで、ずっと課金され続けます。
※課金はPodが停止中でも発生します。

  • Podを停止・削除しても、永続ストレージが残っていれば料金は発生し続けます
  • 料金は GB単位/時間あたり で加算されます(例:$0.0001/GB/時間 など)

ストレージ課金を止めたい場合

「永続ストレージ(Network Volume)」自体を削除する

  1. RunPodの左メニューから「Volumes」を選択
  2. 削除したいストレージの右側にある「︙」メニューをクリック
  3. Delete」を選択

削除時の注意点

  • 削除すると中のデータ(学習モデル、学習ログ、画像など)もすべて消えます
  • rcloneや外部ストレージと連携してバックアップしてから削除するのが安心です
状況おすすめ対策
一時的に使わないPodだけStop(停止)、Delete(削除)はしない。
しばらく使う予定がない必要なデータをバックアップし、Delete(削除)Volume削除
コストを最小限にしたい作業の都度Delete(削除)、Volumeを作成・削除

Stop(停止)だけすれば、GPU課金は止まります。次回Startすれば、再び同じ環境でタスクを継続できます。

GPUの選択

RunPodでは一度Pod(GPU)を作成すると、あとからGPUの種類を変更することはできません。変更したい場合は、既存のPodを停止または削除し、新しいGPUを選んで 新しくPodを作成する必要があります。
(※PodはGPUリソースに物理的に紐づいて起動されているため、稼働中のインスタンスではGPUを差し替えできない設計になっています。)

例:
RunPodで 一度RTX5090で作業、途中でPodを止めて、後でRTX4090で再開する というような運用をする場合、以下を確認・準備しておく必要があります。

永続ストレージを使用していること

一番重要なのは、「永続ストレージ(Persistent Volume)」を使っているかどうかです。

  • 使用していればOK
    5090で作成・保存した学習途中のデータやスクリプト、モデル、ログなどは永続ストレージ上に残っているので、別のPod(4090)からも再利用可能です。
  • 使っていない場合は注意
    Podを削除するとデータも一緒に消えるため、次の作業で使えません。永続ストレージをマウントしておくことで回避できます。

GPUをまたいで作業を再開する時のポイント

項目内容
学習スクリプトや環境の互換性スクリプトによっては、4090/5090間で問題なく続きが実行できます。PyTorchのバージョンなどに依存しないよう注意しましょう。
重みファイルの保存先永続ストレージか、Google Drive連携を使って保存しておくと安全です。
Podテンプレートが違う場合テンプレートが異なると必要なライブラリや環境構成が違うことがあるので、なるべく同じテンプレートを使うのが理想です。
マウント設定新しいPodを立てるときに、以前使っていた「永続ストレージ」を同じようにマウントする必要があります。

RunPod上のGPU切り替えは「Podを再作成」が前提

現在のRunPodでは、稼働中のPodのGPUタイプを後から変更することはできません。そのため、

  • Podを一度停止して削除
  • 新しいPodを別のGPUで作成
  • 永続ストレージで環境を引き継ぐ

という流れになります。

Pod作成時の注意点

GPU選択は最初の重要なステップです。
使用目的(画像生成、LoRA学習など)に応じて、コストと性能のバランスを考えて選びます。

RunPodテンプレート選択


Explore RunPod Templates

絞り込み検索

Explore RunPod Templatesの場合は、ComfyUI,Automatic1111,LoRA、Kohya,など、目当てのツール名で絞り込み検索します。

バージョン確認

特徴

RunPodユーザーや開発者が公開したテンプレート集
Exploreメニューからアクセスでき、Hubと似たUIだが出どころが異なる
多くはDockerイメージ+スクリプト形式で提供されている

メリット

  • Hubにない用途(特殊なAIツール、軽量UI、独自パッケージ)もあり
  • カスタマイズ可能な構成が多く、詳細設定もいじれる
  • 例:MiniGPT、ComfyUI拡張系、LoRA-CLI系など

デメリット

  • 作者次第で品質にバラつきあり(動作しない場合も
  • セキュリティや安定性の保証はない
  • Web UIが付属しないこともある(CLI起動式など)

Custom Templates

自分でカスタマイズしたPod構成(コンテナイメージ・起動コマンド・GPUタイプなど)を、保存しておいて再利用できる仕組みです。

どんな時に使う?

シーン活用例
SD + LoRA + 特定モデル + 自作スクリプトを使う自分のAI画像生成環境をテンプレ化しておく
Kohya_ss + rclone + 永続ストレージマウント付きLoRA学習用の環境を再デプロイしやすくする
Whisper + 独自GUI + 自分の推論コード音声処理の自作ワーカーを共有・再利用可能に

機能まとめ

機能説明
Save as TemplatePodの設定をテンプレ化して保存できる
My Templates(左メニュー)自分が保存したテンプレ一覧
Deploy from Templateそのテンプレを元にすぐにPodを作成できる

Custom Templates の作り方(例)

  1. いつも使っているPod(例:Kohya_ss+rclone)を手動で構成
  2. 正常に動作することを確認
  3. RunPodのPod詳細画面 → 「Save as Template」
  4. テンプレ名、説明、プライベート/公開設定を入力して保存

公開と非公開の違い

種類見える範囲用途
Private自分だけ個人環境の再利用用
Public全体に公開される自作ワーカーを他人にもシェアしたいとき

Custom Templates vs Community Templates の違い

項目Custom TemplatesCommunity Templates
誰が作る?自分他のユーザー・RunPod公式
どこで使う?自分のアカウント中心全RunPodユーザーで共有可
編集可能?✅ 完全自由❌ 他人のものは編集不可
公開可?✅ 任意で可能✅ すでに公開状態

メリット

  • 完全自由(複数ツールを合体させた環境など)
  • 研究・商用開発など柔軟な利用が可能

デメリット

  • DockerやLinux、AIツールの知識が必要
  • 初心者には難易度が高い

推奨パッケージと依存関係の注意点

1. 推奨環境(2025年6月時点)

パッケージバージョン備考
torch2.5.0+cu124 または 2.6.0+cu124torchvisionxformers との互換性に注意
torchvision0.20.0+cu124 または 0.21.0+cu124torch に依存(バージョンが一致していないとインストールエラー)
xformers0.0.29.post3torch==2.6.0 を要求。2.5.0 とは非互換なので注意
diffusers0.32.2diffusers[torch] としてインストール。torch との整合性を確認
bitsandbytes0.45.5軽量化に使用されるが CUDA バージョンと互換性が必要
transformers4.44.2sentencepiece(T5系)との連携で使用されることが多い
safetensors0.4.4モデル読み込み時に必要
huggingface-hub0.29.3diffuserstransformers に依存

2. 依存関係エラーと対処法例

Explore RunPod Templatesの場合は、エラーが出るテンプレートもあります。

❌ エラー例1:xformers のインストールが失敗する

  • 原因xformers 0.0.29.post3torch==2.6.0 を要求。2.5.0 では互換性がない。
  • 対策
    • torch==2.6.0+cu124 にアップグレードする
    • または xformers==0.0.27 にバージョンダウンして torch==2.5.0 と合わせる

❌ エラー例2:ERROR: ./sd-scripts is not a valid editable requirement.

  • 原因requirements.txt-e ./sd-scripts があるが、実際のパスが存在しないか壊れている。
  • 対策
    • kohya_ss ディレクトリ直下に sd-scripts/ が存在するか確認
    • パスが相対パスとして機能していない場合、絶対パスに書き換えるか一度手動で pip install する

❌ エラー例3:pip install 時に再帰参照エラー

  • 原因requirements_runpod.txt 内で -r requirements.txt を参照しており、その中にも -r requirements_runpod.txt がある
  • 対策
    • 循環参照を解消:どちらか一方だけが参照するように修正(例:requirements_runpod.txt にだけ統合)

使用したいテンプレートを選択し、内容を確認して良ければ実行します。
右上などにDeployのボタンをクリックすると、Podの設定画面が開きます。

Podの起動

Podの設定では、ネットワークボリューム(永続ボリューム)の設定を忘れず確認しましょう。(※ネットワークボリューム(永続ボリューム)を使用する場合)

ボリュームストレージを選ぶ

作成しておいたネットワークボリュームの中から使用したいものを選択。

GPUを選択

使用したいGPUを選択。価格は、GPUによって変わります。価格もすべて記載してあるので選びやすい。
※注意:L4、T4、A10G、A100などは、幅広く対応するGPUです。RTX5090などは新しいので、使用できないテンプレートがあります。テンプレートを使用する場合は注意が必要です。

名前を付ける

Podに名前を付けて、Podを起動する。

Podを起動
Pod

Running状態になるまで待ちます。
Running状態になると、Connect(接続する)が開けます。

バージョン確認

Connect内は、ポート番号で記載されています。ツールは各ポートに紐づけられています。
※紐づけられたポートはテンプレート毎で異なります。詳細は、各Explore(テンプレート内)に記載があります。

Connect(接続する)

上の画像のテンプレートのConnect内では、ターミナルは二か所から開く事が出来ます。

Pod内の詳細な使用方法は、こちらの記事をご覧ください。

【画像生成】と【自作LoRA作成】RunPodの使い方の違い

ステップ共通する操作内容
① RunPodテンプレート選択Stable Diffusion UI テンプレートを選択
② GPU選択A10G、T4、L4などを選択(A10G以上推奨)
③ Pod起動スタートすればWeb UIにアクセス可能
④アップロード必要であればベースモデルやLoRAファイルをアップロード

ここまでは、【画像生成】目的の場合も、【自作LoRA作成】目的の場合も、手順は同じでしたが、ここからは操作方法が違いますので、RunPodの”用途別”に操作手順をおさらいしておきましょう。画像生成が目的の場合は、このままPodWeb UIを開いて、画像生成に移る事が出来ます。

画像生成目的(一般的な使い方)

  1. Web UI(AUTOMATIC1111など)を開く
  2. 「Stable Diffusion」タブからベースモデルを選択
  3. (使う場合は、)「Lora」や「Additional networks」など選択
  4. あとはPromptを入力して画像生成!
未来

お疲れさまでした!

SAKASA

学習目的の場合は、ここから学習用データのアップロードと設定があります。あと少し、がんばって!

LoRA学習目的の場合

学習目的の場合は、学習専用テンプレートを使うのがベストです。
LoRA学習に最適なテンプレート:例

RunPodのテンプレート: Kohya、 LoRA 、DreamBooth 、Trainerなどで検索

これらのテンプレートには、以下が入っています。

  • Kohya_ss GUI(LoRA学習に特化したツール)
  • 必要なライブラリ
  • Web UI付きでわかりやすい

※これらのテンプレートを選べば、簡単にLoRAの学習設定ができます、まずは絞り込み検索をしてテンプレートを選びましょう。

絞り込み検索Kohya

LoRA学習の大きな流れ(RunPod上)おさらい

ステップ
1. (例)Kohya_ss GUIのテンプレートでPod起動
2. *学習用データセット をアップロード(例:/training/dataset/
3. *ベースモデルを /models に入れておく(例:Anything-v4.5.safetensors
4. Kohya GUIでパラメータ設定(学習ステップ、学習率など)
5. 学習開始→ .safetensors ファイルとしてLoRA完成
6. そのLoRAを他のWeb UIに移して画像生成に使う

*学習用データセットとは、LoRAで学習を行う際に使用する画像データとタグのセットの事を指しています。
学習用データセットの作成方法については、こちらの記事をご覧ください。


*ベースモデルについては、この後で解説しています

(例)Kohya_ssでLoRA学習する場合

  • (例)Kohya_ss GUI上で、「Base model」 にアップロードした ファイル(例:.safetensorsなど)を指定
  • 学習用のデータセットフォルダ(例:/training/dataset/)を選択
  • 学習用データセット(タグ付き画像(例:.jpg + .txt))を配置して学習開始

学習用データセットとは、自身の学習用画像にタグ付けをしたものです(例:.jpg + .txt

モデルをアップロードする場所

モデルの種類アップロード先フォルダ(RunPodのWeb UI)
ベースモデル/stable-diffusion-webui/models/Stable-diffusion/
LoRAモデル/stable-diffusion-webui/models/Lora/
VAEモデル/stable-diffusion-webui/models/VAE/

Podが起動したら、Web UIや左側のFile Managerからこの場所にアップロードします。

拡張子

  • .safetensors(推奨)
  • .ckpt
  • .pt(LoRAモデルやVAEに多い)

ベースモデル探し

Stable Diffusion 1.5、あるいは、SDXL 1.0 baseの基本的なモデルのみで、別のモデル(例:アニメ特化、写真特化など)を使用せず、
且つ、画像生成のみをしたい。という場合は、最初からRunPod内の /models/Stable-diffusion フォルダに入っていることが多いので、直接RunPodにログインして画像生成を始める事が出来ます。
又、Kohya LoRA DreamBooth Trainerなどを使用して、画像生成やLoRA学習をするという目的の場合も、RunPod内ですぐに始める事が出来ます。

しかし、RunPodのStable Diffusion UI(例:AUTOMATIC1111やInvokeAIなど)を使用し、自身の絵を使用して、LoRA学習をするという目的の場合には、まず、自身の絵柄に合った「学習済みモデル(.safetensors, .ckptなど)」を読み込んで、自身の作品を”学習用データセット(リサイズ済み+タグ付け済)”としてRunPodにアップロードして学習を始めます。

その為、RunPodでWebUIを使用する前に、画像生成や学習を行う為の”モデル”を以下の方法で探しておくと良いです。

ベースとなるモデルは以下の方法で用意できます。

  1. Civitai(https://civitai.com)などのモデル配布サイト
    Civitaiについて、詳しくはこちらの記事をご覧ください
  2. Hugging FaceなどのGitHub/公開リポジトリ
    Higging Faceについて、詳しくはこちらの記事をご覧ください
  3. 自分で学習したLoRA(後でアップロード)

自分の作品に合う作風か、確認(必要なら画像生成テスト)をしておきます。

比較項目Hugging FaceCivitai
用途公式モデル(SD1.5、SDXLなど)や研究系モデルが中心ユーザーが公開したカスタムモデルやLoRAを探すのに便利
モデル例runwayml/stable-diffusion-v1-5line-art-anime-LoRA, realisticVision, Deliberate, etc
検索性やや専門的で開発者向き画像付きで直感的に探せる(UIも一般ユーザー向け)
URLHugging Face公式ページCivitai公式ページ

※ セキュリティと読み込みの安定性のため.ckpt よりも .safetensors形式が推奨されています。

ベースモデル(例)

モデルが多く存在し、探すのも大変💦ですので、もしよろしければ下のリストも参考にしてみて下さい。

モデル名特徴向いている用途
Stable Diffusion 1.5最も基本的。軽量・広く対応抽象〜写実までバランス型
Anything v4.5アニメ寄り。曲線的で繊細線画や柔らかいイラスト
Realistic Vision v5写実系。人物表現が得意顔・人間に寄せたい場合
MeinaMix絵画・水彩風な雰囲気も水彩の再解釈をさせたい時
PastelMix淡く、やさしい色使い雰囲気がやわらかい抽象画向け
未来

私のおすすめベースモデル5選(LoRA学習用)

PastelMix (v2.5/v3) 淡くて幻想的。抽象+人物も得意 ★★★★☆ Civitai – PastelMix
MeinaMix 芸術的で水彩画風。繊細なタッチ ★★★★☆ Civitai – MeinaMix
Analog Diffusion アナログ写真のような質感と陰影 ★★★☆☆ 写真的な抽象画の再現向き
Anything v4.5 / v5 線画・シルエットがきれい。非写実 ★★★★★ 形の曖昧な人物表現に最適
DreamShaper v8 リアルと幻想の中間。万能型 ★★★★☆ 顔を描きすぎない調整も可

主なモデルの種類

種類ファイル拡張子用途
ベースモデル.safetensors / .ckpt画像生成の核(例:animefull-final-pruned.safetensors
LoRAモデル.safetensors / .pt特定のスタイルやキャラクター学習結果を追加するための拡張
VAE.vae.pt画像のクオリティや色調に影響を与える補助モデル

学習目的の場合
LoRAは「既存の大きなモデル(例:Stable Diffusion)」に対して、「自分の個性(画像・タグ)」を後から追加学習していく仕組みです。例えるなら、ベースモデルが「共通語の辞書」で、自分の画像が「方それ程
LoRAは「共通語に自分の方言を追加する」ようなイメージで学習させていきますので、ベースモデル選びにおいては、それほど慎重になる必要はありません。

最初は Stable Diffusion 1.5 など基本モデルから試して、学習の効果を確認するのがおすすめです。

商用利用のポイント(Stable Diffusion 1.5)

項目内容
商用利用OK(学習したLoRA、生成画像の販売、NFT、グッズ展開など)
ライセンスCreativeML Open RAIL-M License
クレジット表記(推奨)「Base model: Stable Diffusion v1.5」など明記するとより丁寧(義務ではないが信頼性が上がる)
禁止事項暴力・差別・違法な用途での利用は禁止されています(RAILライセンス共通の倫理的ガイドライン)
派生作品の利用あなた自身がLoRAなどで再学習した派生モデルも自由に利用・販売可能です(同じくRAIL-Mに準拠)

クレジット表記例

Generated using Stable Diffusion v1.5 (CreativeML Open RAIL-M)
Base model: Stable Diffusion v1.5

注意すべき点(補足)

  • LoRA学習に他人の著作物を使用した場合 → その著作物のライセンスが商用OKである必要があります。
  • 再配布やLoRAの販売時 → ベースモデルを含めない形で(LoRAだけを)配布すればOKです。

※商用利用とライセンスについての詳細はこちらの記事をご覧ください。

準備手順(ベースモデル編)

  1. ベースモデルを選ぶ
    • Hugging Faceまたは Civitai から .safetensors ファイルを探す
    • 作品に合う画風を画像生成テストなどを行い選択
  2. ベースモデルをRunPodにアップロード
    • 起動したPodの /models または /pretrained_models フォルダにアップロード
    • 学習目的の場合は、Kohya GUIの「学習設定画面」で指定するベースモデルとして選択

実際の使い方例

ステップ1:Hugging Faceからベースモデル(ここでは、SD1.5)をダウンロード

今回は、stable-diffusion-v1-5で実践していきます。他のモデルを使用される場合も手順は同じですので、一緒に進めていきましょう。

※「runwayml/stable-diffusion-v1-5」のリンクは、現在アクセスできない状態です。このモデルは2024年8月以降、Hugging Faceから削除されている為、直接検索すると、下の様な表示になってしまいます。

「runwayml/stable-diffusion-v1-5」のリンク

代替の公式アーカイブ:Comfy-Org/stable-diffusion-v1-5-archive

現在は、Comfy-OrgというHugging Faceのユーザーが、元のモデルとハッシュ値が一致する完全なアーカイブを提供していますので、こちらからダウンロードしていきましょう。Hugging Face(HuggingFaceにアクセスして、Comfy-Org/stable-diffusion-v1-5-archiveを検索して、ファイルとバージョンからダウンロード出来ます。)

Comfy-Org/stable-diffusion-v1-5-archive
Comfy-Org/stable-diffusion-v1-5-archive

このページには、以下のファイルが含まれています

  • v1-5-pruned-emaonly.safetensors(元のモデルと同一)
  • v1-5-pruned-emaonly-fp16.safetensors(FP16形式に変換されたバージョン)Hugging Face

これらは、元のRunwayMLモデルと完全に同一の内容で、LoRA学習や画像生成に安心して使用できます 。

FP16(Half Precision)とは?

FP16(16-bit浮動小数点)は、通常のFP32(32-bit浮動小数点)に比べて、以下のような特徴があります

項目FP32(通常版)FP16(軽量版)
精度高(学習に向く)低め(ただし十分な場合が多い)
ファイルサイズ大(例:4GB)小(例:2GB程度)
VRAM使用量多い(8GB以上を推奨)少ない(4GB〜8GBでも動く)
処理速度普通〜遅い速い(対応GPUなら高速化される)
使用場面高精度な学習やLoRAトレーニング軽量推論・低VRAM環境でのLoRA作成

FP16を選んだ方が良い場合

  • VRAMが 8GB以下 など リソースが限られている(今回はRunPodを使用するのでVRAMは関係ありません)
  • LoRAの 軽量トレーニング をしたい(Kohyaテンプレートでの使用など)
  • 高速な推論を重視している(ただしGPUがFP16に対応している必要があります)

注意点

  • 精度が少し下がるため、LoRAを本格的に学習したい場合細かな差異にこだわる場合は、FP32(通常版)の方が安心です。
  • 一部のツールやUI(例:AUTOMATIC1111)では、FP16モデルが正しく読み込めないこともあるため、注意が必要です。

おすすめの使い分け

用途推奨モデル
画像生成(テストや試作)FP16
LoRA軽量学習(VRAM 8GB以下)FP16
本格的なLoRA学習FP32(pruned-emaonly)

環境(VRAMやGPU性能)に合わせて、どちらを使うか選ぶとよいでしょう。必要なら、両方ダウンロードして切り替えて使う事も可能です。

LoRA学習の手順と細かな設定や配置については、こちらの記事で詳しく解説しています。

この後、モデルと自分の画像をフォルダに配置して、Kohya_ssを使用してLoRA学習をしていきます。続きは【3⃣ 応用編】です。

  • URLをコピーしました!
目次