RunPodの使い方とStable Diffusionを使用して画像生成とLoRA学習をする方法

RunPodでWebUIを使用する方法

画像生成LoRA学習では、長時間GPUをフル稼働させることになる為、発熱量も多くなり、冷却の安定性が超重要です。
そのため、AIO水冷の導入や、可能であればGPU自体も水冷モデルにするなど、冷却への投資が必要になることもあります。

でも、大丈夫。

RunPodのようなGPUクラウドサービスを使えば、そうしたハードウェア面の心配は一切不要。
ハイスペックなGPUを、冷却や電源を気にせず、必要な時間だけ借りて使うことができます。

RunPodは、“クラウドでGPUを使える” レンタルGPUプラットフォーム
とはいえ、「レンタルGPUって、うっかり高額請求が来たりしない?」と不安になる方も多いかもしれません。
でも安心してください。
RunPodにはチャージ式自動支払い式、2種類の支払い方法があり、限度額の設定も可能。
初心者にもやさしい、ユーザーフレンドリーな課金システムが整っています。

※本記事では、RunPodの使い方とWeb UI(例:AUTOMATIC1111やKohya)で、画像生成とLoRA学習をする方法について、解説しています。

目次

RunPodの「操作体系」

RunPodは、AI開発や動画処理など幅広く使える中でも、Stable Diffusionなどの画像生成やLoRAのトレーニングには特に最適化されており、テンプレートや永続ストレージなど、作業を効率化する機能が豊富に揃っています。そして、操作体系が柔軟なのも魅力です。

GUI(基本)ブラウザで操作する直感的な画面。Podの起動、ファイルのアップロード、Web UI(例:AUTOMATIC1111やKohya)での作業が簡単。初心者でも扱いやすい。
CLI / Jupyter Notebook(オプション)高度な自動化やPythonベースの処理に向いたコマンドライン操作。テンプレートによってはJupyter NotebookベースのUIになることも。

RunPodのPodの使い方

RunPodでは、アカウントを作成しログインしただけではPod(仮想マシン)は自動では作成されません。
自分で手動でPodを作成・起動する必要があります。

そして、安心な利用には、学習終了直後にローカルへダウンロードする必要があります。
又、RunPodでは「元画像のアップロード」や「生成画像のダウンロード」に時間がかかることもあります

その為、事前ブラウザ/SFTP/Google Driveなどの外部連携を準備しておくと便利です。

方法解説
ブラウザWeb UIのFile機能からだけで可
SFTPWinSCP, FileZillaなどで高速転送
Google Drivercloneで連携/保管する方法この方法は簡単なのでとてもおすすめです

※ここで、”rclone”の設定を行う方の為に、こちらのrcloneの設定方法を解説した記事のリンクは新しいタブで開く仕様になっています。

注意点

  • Podを作成・起動すると、課金が始まります(1分単位でGPU時間が消費される)
  • 起動後にファイルのアップロード、学習・生成などが可能になります

Pod作成の流れ

RunPod公式サイト

未来

RunPod内の操作では、それぞれの設定において、反映されるのに少し時間がかかる事があります。
設定した項目が反映されていない時は少し時間をおいてから確認してみて下さい。

  1. RunPodにログイン
    • RunPod公式サイト にアクセスしてログイン
    • 各種設定(パスワード、支払い方法、連携したいクラウドの準備(*後にスクショ付き解説あります))
  2. Explore(探検する)Explore RunPod Templatesテンプレートから「Kohya」「 LoRA」「Stable Diffusion UI」など、使用したいテンプレートを選択
    • 今回は、LORAと検索して、LoRA training – Diffusion Pipe -All inOneを使ってみました。
    • 「 Details」でテンプレートの説明を確認
  3. 「Deploy」ボタンをクリック
  4. Storage(ストレージ)新しいネットワークボリュームを作成
    • 使用したいGPUが使えるか確認してボリュームを作成
  5. Podの構成を選択
    • Podsを開く
    • 必要であれば、追加フィルターでGPUを機能で絞って検索
    • GPUを選択
  6. 「Deploy on Demand」(オンデマンドで展開)をクリックして作成・起動

Podを起動した後できること

  • 状態が「Running」になる
  • クラウドと同期が出来る様になります。
  • 「Connect」から、Kohya LoRAテンプレートやStable Diffusion UIテンプレートでPodを起動
  • 「Files」から、ダウンロードした.safetensorsファイルを、RunPodのPod内の/models または /pretrained_models/ディレクトリにアップロード(画像、.txt、モデルファイルなど)
  • 学習や画像生成の際に、アップロードしたモデルを指定

RunPodのアカウント設定項目

RunPodアカウント作成

公式ホームページは、Get startedから、Googleアカウントなどでログインします。

Google翻訳

画像右上の三点マークをクリックして翻訳出来ます。
RunPodのアカウントを作成した直後は、すぐにPodを立ち上げることも可能ですが、以下の項目は最初に設定しておくのがおすすめです。

項目説明必要度
支払い方法の登録クレジットカードを登録しないと、基本的にPodを起動できません。★★★★☆(必須)
永続ストレージ(Volume)の作成画像やモデル、学習データなどを保存するためのストレージ。途中から追加も可能ですが、最初に作っておく方がスムーズです。(Pod作成時に設定できます。★★★☆
SSH Keyの登録(必要な人のみ)コマンドラインで直接接続する人向け。Web UIしか使わないなら不要。★☆☆☆(オプション)
rcloneで連携したいクラウドの準備Google Driveなどと連携したい場合は、rclone設定の前にDrive側の準備が必要です。★★★☆(便利)

「とりあえず使ってみたい」「AUTOMATIC1111をWebで操作したいだけ」という方は、最低限のクレカ登録だけでPodを起動して使い始めることが可能です

Settings(設定)アカウント情報

基本的に、RunPodの登録情報(First Name, Emailなど)は英語(アルファベット)入力推奨のようです。

アカウント設定①
項目日本語でもOK?備考
First Name / Last Name❌ 推奨されないアルファベットで入力(例:Taro Yamada)。日本語だと認識されない可能性がある。
Company Name(任意)⭕ 任意で日本語OK記載しなくても大丈夫。必要に応じて会社名などを書く場合は日本語でもOK。
Billing Address(請求先住所)⭕ 可能だが英語が望ましい国際サービスなので、英語表記(例:1-2-3 Shibuya, Tokyo, Japan)の方が無難です。

※請求書やサポート時の確認などにも英語表記が使われるため、統一しておいた方が安心です

その他の設定
パスワード アカウント作成時に登録。
メールアドレス認証 アカウント有効化のために必要(Googleでログインした場合は自動で追加されている)。
APIキー 任意(特定用途のみ)自動スクリプトや外部ツールからRunPodを操作したい合に必要。通常の手動利用では不要。
パスキー 任意 高度なセキュリティを求める場合。現時点では使わなくてもOK。
多要素認証(MFA) 推奨(任意)セキュリティ強化におすすめ。後から設定可能。
※(APIキー・MFA・Passkeyなど)は、後から必要に応じて設定すれば大丈夫です。とくにLoRA作成や画像生成など「手動でPodを立ち上げて作業する」場合は、APIキーは不要です。

APIキーが必要になるケース
PythonスクリプトなどでRunPod APIを使ってPodを自動で操作したい
Hugging Faceや自作ツールと連携して使いたい
外部サービスとRunPodを連携する開発をしている

Billing(請求する)設定

RunPodの「支払い方法」について、クラウドGPUサービスだと「使っていないのに月額費がかかる」パターンも多い中で、
RunPodは「使った時間分だけ」課金され、しかもチャージ制で管理できるのが大きな魅力です。

支払い設定

バランス(Balance)=チャージ式

これは前払い制です。

  • クレジットカードなどで、一定の金額(たとえば$10や$20など)をチャージ(前払い)します。
  • その残高から、Podを動かした時間に応じて使った分だけ引かれていく仕組みです。
  • 残高がなくなるとPodが停止します(=課金されません)
カード支払い
クレジットカード
paypal
cryptocurrency(暗号通貨/暗号資産

限度額(Spend Limit)

RunPodでは、たとえチャージ式でも意図しない使いすぎ(計算ミスや放置)を防ぐために「このセッションでいくらまで使っていいか」のセーフティ制限を設けることができます。

限度額の例

  • 残高に$50チャージしていても、「このPodセッションでは最大$10まで」と制限できます。
  • そうすることで、例えば一晩放置して大きな請求になるのを防げます。

自動支払い(Configure Auto-Pay)=後払い or 自動チャージ

これは「残高が一定額を下回ったら、自動でチャージする」設定です。

  • たとえば、「残高が$2を切ったら、自動で$10をチャージ」といった設定ができます。
  • 実質的にはクレカの自動引き落とし機能と似た仕組みになります
チャージ完了

支払いが完了すると、残高が反映され、支払い方法が反映されます。

支払い方法の追加と反映

支払い設定が追加されると、永続ストレージを追加できるようになります。

永続ストレージ(Persistent Volume)の設定

永続ストレージは、Podを止めたり再起動する際に、学習データ・モデル・出力画像などを保存しておくための機能です。
永続ストレージに保存したデータは、別のPodでも共有可能です。

事前にStragesで「New Nerwork Volume」を作成しておくと、
Pod作成時に「Volume」や「Nerwork Volume」の欄で、ボリューム(永続ストレージ)が選べます。

データセンターの選び方

1. 使いたいGPUと同じリージョン(データセンター)を選ぶ

  • 一番大事なポイントです。
  • 例:RTX 5090を使いたい → そのGPUが使えるデータセンターを調べて、同じ場所にボリュームを作成する
  • 違うリージョンだとPodに接続できません。

2. 頻繁に起動するGPUが安定して空いているリージョンを選ぶ

  • 「混雑していてなかなかGPUが借りられない」となると非効率なので、なるべく空きやすいリージョンを選ぶのも手。
  • 時間帯によって混雑が変わるので、ご自身が作業する時間帯に空きがある地域が理想です。

3. 自身の物理的な居住地に近いリージョン(必須ではない)

  • 通信速度を気にする場合のみですが、ネットワーク経由で学習データや画像をアップロード/ダウンロードする際に速度に影響が出ることがあります。
  • 日本在住なら**アジア圏(例:Singaporeなど)**が比較的速いです。
  • ただし、これは学習性能には影響しません(あくまで転送速度のみです)。
ネットワークボリューム データセンター

ネットワークボリュームを作成するデータセンターを選びます。

ネットワークボリュームの設定

ボリューム(永続ストレージ)の選び方基準

最低限のLoRA学習なら20GBでもOK、余裕があれば30〜40GBが安心。

内容容量の目安
学習画像(100〜200枚)100MB〜500MB程度
.txtタグファイル数MB未満
モデル本体(SD1.5やLoRA)2〜7GB程度(1モデルあたり)
出力されたLoRAファイル50MB〜200MB/個
学習キャッシュ・ログ数百MB〜2GB程度

設定目安

項目推奨
最低限20GB(削除に注意)
おすすめ30〜50GB(複数回学習する・ベースモデル複数持つなら)
安心運用Auto-shutdown設定 + 永続ストレージあり

GPUの選択

RunPodでは一度Pod(GPU)を作成すると、あとからGPUの種類を変更することはできません。変更したい場合は、既存のPodを停止または削除し、新しいGPUを選んで 新しくPodを作成する必要があります。
(※PodはGPUリソースに物理的に紐づいて起動されているため、稼働中のインスタンスではGPUを差し替えできない設計になっています。)

例:
RunPodで 一度RTX5090で作業、途中でPodを止めて、後でRTX4090で再開する というような運用をする場合、以下を確認・準備しておく必要があります。

永続ストレージを使用していること

一番重要なのは、「永続ストレージ(Persistent Volume)」を使っているかどうかです。

  • 使用していればOK
    5090で作成・保存した学習途中のデータやスクリプト、モデル、ログなどは永続ストレージ上に残っているので、別のPod(4090)からも再利用可能です。
  • 使っていない場合は注意
    Podを削除するとデータも一緒に消えるため、次の作業で使えません。永続ストレージをマウントしておくことで回避できます。

GPUをまたいで作業を再開する時のポイント

項目内容
学習スクリプトや環境の互換性スクリプトによっては、4090/5090間で問題なく続きが実行できます。PyTorchのバージョンなどに依存しないよう注意しましょう。
重みファイルの保存先永続ストレージか、Google Drive連携を使って保存しておくと安全です。
Podテンプレートが違う場合テンプレートが異なると必要なライブラリや環境構成が違うことがあるので、なるべく同じテンプレートを使うのが理想です。
マウント設定新しいPodを立てるときに、以前使っていた「永続ストレージ」を同じようにマウントする必要があります。

具体的な手順(例)

  1. RTX 5090 で作業・学習(例:LoRAの途中まで)
  2. 学習中のチェックポイント(.safetensorsなど)を 永続ストレージに保存
  3. Podを停止・削除(データは永続ストレージに残る)
  4. 新しく RTX 4090 のPodをテンプレートから作成
  5. 作成時に「同じ永続ストレージ」をマウント
  6. 残りの学習を再開

RunPod上のGPU切り替えは「Podを再作成」が前提

現在のRunPodでは、稼働中のPodのGPUタイプを後から変更することはできません。そのため、

  • Podを一度停止して削除
  • 新しいPodを別のGPUで作成
  • 永続ストレージで環境を引き継ぐ

という流れになります。

Pod作成時の注意点

GPU選択は最初の重要なステップです。
使用目的(画像生成、LoRA学習など)に応じて、コストと性能のバランスを考えて選びましょう。

よろしければこちらの記事も参考にして下さい。

具体的なポイント

永続ストレージ追加

RunPodの「永続ストレージ(Network Volume)」は、作成した時点から削除するまで、ずっと課金され続けます。
※課金は使用中のPodがなくても発生します。

  • Podを停止・削除しても、永続ストレージが残っていれば料金は発生し続けます
  • 料金は GB単位/時間あたり で加算されます(例:$0.0001/GB/時間 など)

ストレージ課金を止めたい場合

「永続ストレージ(Network Volume)」自体を削除する

  1. RunPodの左メニューから「Volumes」を選択
  2. 削除したいストレージの右側にある「︙」メニューをクリック
  3. Delete」を選択

削除時の注意点

  • 削除すると中のデータ(学習モデル、学習ログ、画像など)もすべて消えます
  • rcloneや外部ストレージと連携してバックアップしてから削除するのが安心です
状況おすすめ対策
一時的に使わないPodだけ停止、Volumeは残す
しばらく使う予定がない必要なデータをバックアップし、Volume削除
コストを最小限にしたい作業の都度Volumeを作成・削除

RunPodテンプレート選択

テンプレート検索

テンプレートが豊富ですので、きっと好みのものが見つかると思います。
ComfyUI,Automatic1111,LoRA、Kohya,目当てのツール名で検索します。

Kohya内容

使用したいテンプレートを選択し、内容を確認して良ければ実行します。
右上などにDeployのボタンがあると思いますので、ここをクリックすると、Podが開きます。

Podの起動

Podの設定では、忘れずにネットワークボリューム(永続ボリューム)を設定しましょう。

ボリュームストレージを選ぶ

【画像生成】と【自作LoRA作成】RunPodの使い方の違い

ステップ共通する操作内容
① RunPodテンプレート選択Stable Diffusion UI テンプレートを選択
② GPU選択A10G、T4、L4などを選択(A10G以上推奨)
③ Pod起動スタートすればWeb UIにアクセス可能
④アップロード必要であればベースモデルやLoRAファイルをアップロード

ここまでは、【画像生成】目的の場合も、【自作LoRA作成】目的の場合も、手順は同じでしたが、ここからは操作方法が違いますので、RunPodの”用途別”に操作手順をおさらいしておきましょう。画像生成が目的の場合は、このままPodの作成、アップロードの実践に移る事が出来ます。

画像生成目的(一般的な使い方)

  1. Web UI(AUTOMATIC1111など)を開く(例:https://<your-runpod-ID>.runpod.run/
  2. 「Stable Diffusion」タブからベースモデルを選択
  3. (使う場合は、)「Lora」や「Additional networks」など選択
  4. あとはPromptを入力して画像生成!
未来

お疲れさまでした!

SAKASA

学習目的の場合は、ここから学習用データのアップロードと設定があります。あと少し、がんばって!

LoRA学習目的の場合

学習目的の場合は、学習専用テンプレートを使うのがベストです。
LoRA学習に最適なテンプレート:例

RunPodのテンプレート名: Kohya LoRA DreamBooth Trainer

これらのテンプレートには、以下が入っています。

  • Kohya_ss GUI(LoRA学習に特化したツール)
  • 必要なライブラリが最初からインストール済
  • Web UI付きでわかりやすい

※これらのテンプレートを選べば、簡単にLoRAの学習設定ができますので、絞り込み検索をしてテンプレートを選びましょう。

絞り込み検索

LoRA学習の大きな流れ(RunPod上)おさらい

ステップ
1. (例)Kohya_ss GUIのテンプレートでPod起動
2. *学習用データセット をアップロード(例:/training/dataset/
3. *ベースモデルを /models に入れておく(例:Anything-v4.5.safetensors
4. Kohya GUIでパラメータ設定(学習ステップ、学習率など)
5. 学習開始→ .safetensors ファイルとしてLoRA完成
6. そのLoRAを他のWeb UIに移して画像生成に使う

*学習用データセットとは、LoRAで学習を行う際に使用する画像データとタグのセットの事を指しています。
*ベースモデルについては、この後で解説しています

(例)Kohya_ssでLoRA学習する場合

  • (例)Kohya_ss GUI上で、「Base model」 にアップロードした ファイル(例:.safetensorsなど)を指定
  • 学習用のデータセットフォルダ(例:/training/dataset/)を選択
  • 学習用データセット(タグ付き画像(例:.jpg + .txt))を配置して学習開始

学習用データセットとは、自身の学習用画像にタグ付けをしたものです(例:.jpg + .txt

モデルをアップロードする場所

モデルの種類アップロード先フォルダ(RunPodのWeb UI)
ベースモデル/stable-diffusion-webui/models/Stable-diffusion/
LoRAモデル/stable-diffusion-webui/models/Lora/
VAEモデル/stable-diffusion-webui/models/VAE/

Podが起動したら、Web UIや左側のFile Managerからこの場所にアップロードします。

拡張子

  • .safetensors(推奨)
  • .ckpt
  • .pt(LoRAモデルやVAEに多い)

ベースモデル探し

Stable Diffusion 1.5、あるいは、SDXL 1.0 baseの基本的なモデルのみで、別のモデル(例:アニメ特化、写真特化など)を使用せず、
且つ、画像生成のみをしたい。という場合は、最初からRunPod内の /models/Stable-diffusion フォルダに入っていることが多いので、直接RunPodにログインして画像生成を始める事が出来ます。
又、Kohya LoRA DreamBooth Trainerなどを使用して、画像生成やLoRA学習をするという目的の場合も、RunPod内ですぐに始める事が出来ます。

しかし、RunPodのStable Diffusion UI(例:AUTOMATIC1111やInvokeAIなど)を使用し、自身の絵を使用して、LoRA学習をするという目的の場合には、まず、自身の絵柄に合った「学習済みモデル(.safetensors, .ckptなど)」を読み込んで、自身の作品を”学習用データセット(リサイズ済み+タグ付け済)”としてRunPodにアップロードして学習を始めます。

その為、RunPodでWebUIを使用する前に、画像生成や学習を行う為の”モデル”を以下の方法で探しておくと良いです。

ベースとなるモデルは以下の方法で用意できます。

  1. Civitai(https://civitai.com)などのモデル配布サイト
  2. 自分で学習したLoRA(後でアップロード)
  3. Hugging FaceなどのGitHub/公開リポジトリ

自分の作品に合う作風か、確認(必要なら画像生成テスト)をしておきます。

比較項目Hugging FaceCivitai
用途公式モデル(SD1.5、SDXLなど)や研究系モデルが中心ユーザーが公開したカスタムモデルやLoRAを探すのに便利
モデル例runwayml/stable-diffusion-v1-5line-art-anime-LoRA, realisticVision, Deliberate, etc
検索性やや専門的で開発者向き画像付きで直感的に探せる(UIも一般ユーザー向け)
URLhttps://huggingface.co/https://civitai.com/

※ セキュリティと読み込みの安定性のため.ckpt よりも .safetensors形式が推奨されています。

ベースモデル(例)

モデルが多く存在し、探すのも大変💦ですので、もしよろしければ下のリストも参考にしてみて下さい。

モデル名特徴向いている用途
Stable Diffusion 1.5最も基本的。軽量・広く対応抽象〜写実までバランス型
Anything v4.5アニメ寄り。曲線的で繊細線画や柔らかいイラスト
Realistic Vision v5写実系。人物表現が得意顔・人間に寄せたい場合
MeinaMix絵画・水彩風な雰囲気も水彩の再解釈をさせたい時
PastelMix淡く、やさしい色使い雰囲気がやわらかい抽象画向け
未来

私のおすすめベースモデル5選(LoRA学習用)

PastelMix (v2.5/v3) 淡くて幻想的。抽象+人物も得意 ★★★★☆ Civitai – PastelMix
MeinaMix 芸術的で水彩画風。繊細なタッチ ★★★★☆ Civitai – MeinaMix
Analog Diffusion アナログ写真のような質感と陰影 ★★★☆☆ 写真的な抽象画の再現向き
Anything v4.5 / v5 線画・シルエットがきれい。非写実 ★★★★★ 形の曖昧な人物表現に最適
DreamShaper v8 リアルと幻想の中間。万能型 ★★★★☆ 顔を描きすぎない調整も可

主なモデルの種類

種類ファイル拡張子用途
ベースモデル.safetensors / .ckpt画像生成の核(例:animefull-final-pruned.safetensors
LoRAモデル.safetensors / .pt特定のスタイルやキャラクター学習結果を追加するための拡張
VAE.vae.pt画像のクオリティや色調に影響を与える補助モデル

学習目的の場合
LoRAは「既存の大きなモデル(例:Stable Diffusion)」に対して、「自分の個性(画像・タグ)」を後から追加学習していく仕組みです。例えるなら、ベースモデルが「共通語の辞書」で、自分の画像が「方それ程
LoRAは「共通語に自分の方言を追加する」ようなイメージで学習させていきますので、ベースモデル選びにおいては、それほど慎重になる必要はありません。

最初は Stable Diffusion 1.5 など基本モデルから試して、学習の効果を確認するのがおすすめです。

商用利用のポイント(Stable Diffusion 1.5)

項目内容
商用利用OK(学習したLoRA、生成画像の販売、NFT、グッズ展開など)
ライセンスCreativeML Open RAIL-M License
クレジット表記(推奨)「Base model: Stable Diffusion v1.5」など明記するとより丁寧(義務ではないが信頼性が上がる)
禁止事項暴力・差別・違法な用途での利用は禁止されています(RAILライセンス共通の倫理的ガイドライン)
派生作品の利用あなた自身がLoRAなどで再学習した派生モデルも自由に利用・販売可能です(同じくRAIL-Mに準拠)

クレジット表記例

Generated using Stable Diffusion v1.5 (CreativeML Open RAIL-M)
Base model: Stable Diffusion v1.5

注意すべき点(補足)

  • LoRA学習に他人の著作物を使用した場合 → その著作物のライセンスが商用OKである必要があります。
  • 再配布やLoRAの販売時 → ベースモデルを含めない形で(LoRAだけを)配布すればOKです。

※商用利用とライセンスについての詳細はこちらの記事をご覧ください。

準備手順(ベースモデル編)

  1. ベースモデルを選ぶ
    • Hugging Faceまたは Civitai から .safetensors ファイルを探す
    • 作品に合う画風を画像生成テストなどを行い選択
  2. ベースモデルをRunPodにアップロード
    • 起動したPodの /models または /pretrained_models フォルダにアップロード
    • 学習目的の場合は、Kohya GUIの「学習設定画面」で指定するベースモデルとして選択

実際の使い方例

ステップ1:Hugging Faceからベースモデル(ここでは、SD1.5)をダウンロード

今回は、stable-diffusion-v1-5で実践していきます。他のモデルを使用される場合も手順は同じですので、一緒に進めていきましょう。

※「runwayml/stable-diffusion-v1-5」のリンクは、現在アクセスできない状態です。このモデルは2024年8月以降、Hugging Faceから削除されている為、直接検索すると、下の様な表示になってしまいます。

「runwayml/stable-diffusion-v1-5」のリンク

代替の公式アーカイブ:Comfy-Org/stable-diffusion-v1-5-archive

現在は、Comfy-OrgというHugging Faceのユーザーが、元のモデルとハッシュ値が一致する完全なアーカイブを提供していますので、こちらからダウンロードしていきましょう。Hugging Face(HuggingFaceにアクセスして、Comfy-Org/stable-diffusion-v1-5-archiveを検索して、ファイルとバージョンからダウンロード出来ます。)

Comfy-Org/stable-diffusion-v1-5-archive
Comfy-Org/stable-diffusion-v1-5-archive

このページには、以下のファイルが含まれています

  • v1-5-pruned-emaonly.safetensors(元のモデルと同一)
  • v1-5-pruned-emaonly-fp16.safetensors(FP16形式に変換されたバージョン)Hugging Face

これらは、元のRunwayMLモデルと完全に同一の内容で、LoRA学習や画像生成に安心して使用できます 。

FP16(Half Precision)とは?

FP16(16-bit浮動小数点)は、通常のFP32(32-bit浮動小数点)に比べて、以下のような特徴があります

項目FP32(通常版)FP16(軽量版)
精度高(学習に向く)低め(ただし十分な場合が多い)
ファイルサイズ大(例:4GB)小(例:2GB程度)
VRAM使用量多い(8GB以上を推奨)少ない(4GB〜8GBでも動く)
処理速度普通〜遅い速い(対応GPUなら高速化される)
使用場面高精度な学習やLoRAトレーニング軽量推論・低VRAM環境でのLoRA作成

FP16を選んだ方が良い場合

  • VRAMが 8GB以下 など リソースが限られている(今回はRunPodを使用するのでVRAMは関係ありません)
  • LoRAの 軽量トレーニング をしたい(Kohyaテンプレートでの使用など)
  • 高速な推論を重視している(ただしGPUがFP16に対応している必要があります)

注意点

  • 精度が少し下がるため、LoRAを本格的に学習したい場合細かな差異にこだわる場合は、FP32(通常版)の方が安心です。
  • 一部のツールやUI(例:AUTOMATIC1111)では、FP16モデルが正しく読み込めないこともあるため、注意が必要です。

おすすめの使い分け

用途推奨モデル
画像生成(テストや試作)FP16
LoRA軽量学習(VRAM 8GB以下)FP16
本格的なLoRA学習FP32(pruned-emaonly)

環境(VRAMやGPU性能)に合わせて、どちらを使うか選ぶとよいでしょう。必要なら、両方ダウンロードして切り替えて使う事も可能です。

  • URLをコピーしました!
目次