ローカルCLI(Pythonスクリプト)の為の【PyTorch+CUDA】のインストール手順

PyTorch + CUDA のインストール
GPUとCUDAの互換性確認
GPUとCUDAの互換性を確認するには、以下の3つのステップで簡単にチェックできます。これは、PyTorch・Stable Diffusion・ComfyUIなどGPUを使うAIツールを動かす際の最初の重要ポイントです。
ステップ① 自分のGPUの型番を調べる
【Windowsの場合】
方法A:タスクマネージャーで確認
Ctrl + Shift + Esc
でタスクマネージャーを開く- 「パフォーマンス」タブ →「GPU」を選択
- 右上に「GeForce RTX 3060」などの型番が表示されます
方法B:コマンドで確認(より確実)
Windowsキー + R
→「cmd」と入力 → Enter- 以下のコマンドを実行します
nvidia-smi
例:
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 537.13 Driver Version: 537.13 CUDA Version: 12.2 |
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| 0 NVIDIA GeForce RTX 3060 Off | 00000000:01:00.0 Off | N/A |
+-----------------------------------------------------------------------------+
「GPU Name」が使っているGPUの正式名称です。
「CUDA Version」はドライバが対応しているCUDAバージョンです(重要!)
ステップ② 自分のGPUがCUDA対応かを確認する
以下のNVIDIA公式ページで、あなたのGPUがCUDA対応かどうか確認できます。
ページ内で「GeForce RTX 3060」などの型番を検索して、CUDA Compute Capabilityが表示されていれば対応しています。
目安:GeForce GTX 750以降のほとんどのGPUはCUDA対応です。
ステップ③ 自分のGPUに適したCUDAバージョンを確認する
CUDAにはバージョンがあり、使用するツール(例:PyTorch)やドライバと整合性が取れている必要があります。
参考表(主なGPUと対応CUDA)
GPU型番 | CUDA Compute Capability | 対応CUDAバージョン |
---|---|---|
GeForce GTX 1060 | 6.1 | CUDA 10.x~11.x |
GeForce RTX 2060 | 7.5 | CUDA 10.x~12.x |
GeForce RTX 3060 | 8.6 | CUDA 11.x~12.x |
GeForce RTX 4070 | 8.9 | CUDA 12.x |
PyTorch + CUDA のインストールコマンド
”PyTorch + CUDA のインストールコマンド”とは、
ローカルCLI(Pythonスクリプト) で画像補完ツール(例:CodeFormerなど)を使う場合に必要な環境構築の一部で、
PyTorch(AIフレームワーク)を自分のPC環境に合った形でインストールするためのコマンドです。
「GPU + PyTorch + CUDA」は、 高速・高品質なAI画像処理のゴールデンコンビです。
PyTorch + CUDA を使用する代表的なツール・アプリ
ツール名 | 主な用途 | 特徴 |
---|---|---|
Stable Diffusion(AUTOMATIC1111など) | 画像生成(テキスト → 画像) | PyTorchベースの生成AI。CUDA対応で高速化 |
ComfyUI | ノードベース画像生成 | PyTorch + CUDAが必要。リアルタイム性に優れる |
Real-ESRGAN | 画像の高画質化(超解像) | GPU対応で数倍~数十倍高速に動作 |
GFPGAN | 顔画像の修復・補完 | Real-ESRGANと連携可。PyTorch製 |
CodeFormer | 顔修復AIの一種 | GFPGANの代替として人気。PyTorch製 |
Waifu2x-Extension-GUI(PyTorch版) | アニメ画像高画質化・ノイズ除去 | PyTorchベースのGUI。CUDAで高速動作 |
ESRGAN(本家版) | 超解像 | PyTorch + CUDAを使用。訓練やカスタムモデルに対応 |
DreamBooth / LoRA訓練 | 画像生成モデルのファインチューニング | PyTorchで学習処理を行い、CUDAで高速化 |
DeepFaceLab / FaceFusion | 顔の入れ替え・ディープフェイク | PyTorch + CUDAでリアルタイム化可能 |
YOLOv5 / YOLOv8 | 物体検出 | PyTorch製の物体認識AI。GPU推論で高速動作 |
Segment Anything(SAM) | 画像領域の自動分割 | Meta社のPyTorch製セグメンテーションモデル |
共通する特徴
- すべて PyTorch で作られており、GPU(=CUDA)を使うと圧倒的に高速に動作します。
- 多くは NVIDIA製GPU前提で設計されているため、CUDAとドライバの設定が重要です。
- CPUでも動作は可能ですが、処理時間が数十倍になるケースもあります。
PyTorch には「たくさんのバリエーション(種類)」があります。
その理由は、PCの環境(OS・GPUの有無・CUDAのバージョンなど)によって最適なものが異なるからです。
PyTorchの「種類」は何で分かれるのか?
大きく分けると、以下のポイントで種類が変わります
分類軸 | 説明 |
---|---|
インストール方法 | pip / conda など |
対応OS | Windows / Linux / macOS |
GPU対応の有無 | GPU(CUDA)対応版 or CPU専用版 |
CUDAのバージョン | 11.7 / 11.8 / 12.1 など、NVIDIAのドライバやツールキットに対応 |
- PyTorchはGPUで爆速に動くのが強み
- でも、GPUの種類やドライバとの相性がある
- なので、「環境にピッタリのPyTorch」が必要になる
たとえば、
Windowsで
NVIDIAのGPUがあって
CUDA 11.8がインストールされている
という人と、
macOSで
GPUはない(CPUのみ)
という人では、インストールするPyTorchが全く異なります。
PyTorchのインストール
最適なPyTorchの選び方
PyTorch公式サイトにある”ローカルから始めるのガイドがとても便利です。


こんな画面で選べます
画面の見方と操作手順
設定項目 | 説明 |
---|---|
PyTorch ビルド | 基本は「Stable(安定版)」を選べばOK |
あなたの OS | Windows / Linux / macOS から選択 |
パッケージ | Pythonユーザーは「pip」または「conda」 (pipが一番シンプル) |
言語 | Python を使っていればそのままでOK |
コンピューティングプラットホーム | GPUあり→CUDAのバージョンを選択 GPUなし→「CPU」 を選ぶ |
上の表に沿って順に選んでいくと、環境に合ったインストールコマンドが自動で表示されます!
PyTorchとCUDAのバージョン対応表
PyTorch | 対応するCUDAバージョン | pip install の末尾 |
---|---|---|
2.1.x | 11.8 / 12.1 | cu118 , cu121 |
2.0.x | 11.7 | cu117 |
1.13.x | 11.6 | cu116 |
例:Windows + pip + CUDA 11.8の場合
選択はこのようになります
- PyTorch Build:
Stable
- Your OS:
Windows
- Package:
pip
- Language:
Python
- Compute Platform:
CUDA 11.8
すると、下にこのようなコマンドが表示されます
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
cu118
は CUDA 11.8 を意味します。PyTorchとCUDAのバージョンの組み合わせは慎重に。
このコマンドをコピーして、ターミナル(BashやPowerShell)に貼り付けて実行すれば完了です。(※ターミナル、コマンドプロンプトの起動方法は
こちら)ターミナル(Windows Terminal)コマンドプロンプト、PowerShell、の開き方
Windowsの場合は、(※Windows Terminal)を開きます。
※Windows Terminal(ウィンドウズターミナル)の起動方法…
コマンドの実行は、Windows標準の「Windows Terminal」を使って行います。
(※コマンドプロンプト(cmd)やPowerShellでも同様に動作しますが、Windows Terminalの方が操作しやすくおすすめです。)
コマンドプロンプト(Command Prompt)とは、Windowsに搭載されているテキストベースのインターフェースです。マウス操作ではなく、キーボードからコマンド(指示)を入力することで、パソコンを操作できます。
Windows Terminal起動方法
- スタートメニューで、左クリック➡ターミナルを起動もしくは、「Windows Terminal」と検索して起動
- デフォルトでは PowerShell または Command Prompt(cmd)(又は、WindowsPowerShell)が開きます
画像生成用途の場合は、Command Prompt コマンドプロンプト(CMD)と相性が良いです。
pip install
や conda
などのモダン開発向けコマンドは、PowerShellと相性が良いです。
※詳しい使用方法や、Windows Terminalの設定方法は、こちらの記事をご覧ください。
Windows Terminalは、タブを切り替えて複数のシェルを使う事が出来ます
- 上部の
+
ボタンから新しいタブを開けます - PowerShell
- Command Prompt
- WSL(Linuxサブシステム)※インストール済みなら
- Azure Cloud Shell(必要な場合)
をクリックすると以下の選択肢があります
※Microsoft 公式も「Windows Terminal」を推奨しているため、当サイトでも記載するWindowsのコマンド実行場所を、コマンドプロンプト(cmd)から「Windows Terminal」に変更致しました。
コマンド入力は間違えるとエラーになることもありますが、慣れると素早く作業ができる便利なツールです。
Macの場合は、(※ターミナル)を開きます。
※ターミナル(Terminal)の起動方法…
Macには「ターミナル(Terminal)」というアプリがあり、これを使うことで、コマンドを入力してシステムを操作できます。
ターミナル起動方法
- **「Command ⌘ + Space」を押して、「Spotlight検索」**を開く
- 検索バーに「ターミナル」と入力してEnter
または、以下の手順でも開けます:
アプリケーション → ユーティリティ → ターミナル
※Linux のターミナルの起動方法…
Linuxでは「ターミナル」が、コマンド操作の基本です。ウィンドウの中でキーボード入力によりシステムを操作します。
Linuxターミナル起動方法
- 1,:
Ctrl + Alt + T
を同時に押す(多くのLinuxディストリビューションで共通) - 2,:アプリケーション一覧から「ターミナル」または「Terminal」で検索して開く
Ubuntu、Fedora、Debianなど、ほとんどのLinux環境に標準で搭載されています。
Macのターミナルと似た雰囲気で、コマンドの使い方もほぼ共通です。
※PowerShell の起動方法…(Windows)
PowerShell(パワーシェル)**は、Windowsに標準搭載されている、より高度な操作ができるコマンドラインツールです。見た目はコマンドプロンプトと似ていますが、より多機能で、プログラミング的な処理も得意です。
PowerShell起動方法
1,スタートメニューで「PowerShell」と検索してクリック
2,Windowsキー + R を押して「powershell」と入力 → Enter
コマンドプロンプトと同様、キーボードからコマンドを入力して操作します。
たとえば Get-ChildItem
(=フォルダの中身を見る)など、PowerShell独自のコマンドもありますが、通常のコマンド(例:cd
やpython
など)も使えます。
※コマンドプロンプト(cmd)の起動方法…(Windows)
Windowsキー + Rを押す
「cmd」と入力してEnterを押す
または、スタートメニューで「コマンドプロンプト」と検索してもOK!
ターミナル(Windows Terminal)を開き、”○○○(ツール名)”と打ち込むと呼ぶ出してくれます。
インストール確認
PyTorchがGPUを認識しているかを確認するには、以下のPythonコードを実行します。
import torch
print(torch.cuda.is_available()) # TrueならGPUが使える
自分に合ったCUDAが分からない場合
調べる方法(Windowsの場合)
- NVIDIA製のGPUがあるか確認する方法
- スタートメニュー → 「デバイスマネージャ」 →「ディスプレイアダプタ」
- CUDAのバージョン確認
Win + R
→cmd
→ 以下のコマンドを入力
nvcc --version
もしくは、
nvidia-smi
→ ここに CUDA Version
の記載があります。
🚫 現時点での制限
多くのAI画像生成ツール(Stable Diffusion、ComfyUI、InvokeAI、CodeFormerなど)は… CUDA 11.8 や CUDA 12.1 に最適化されています。
画像生成には「CUDA 11.8 or 12.1」が安定!
CUDAバージョン | 安定性 | 対応ツール | コメント |
---|---|---|---|
11.8 | ◎ 高い | 多くのツール対応 | 最も推奨される |
12.1 | ○ 良好 | 一部ツール対応 | 対応広がりつつある |
12.8 | △ 限定的 | 対応少ない | まだ不安定、要注意 |
CUDA 11.8 、 CUDA 12.1以外の場合の対応策については、こちらをClick!
PyTorch が使う CUDA バージョンと、あなたの PC にインストールされている NVIDIA ドライバがその CUDA に対応していれば、CUDA Toolkit のインストールは基本的に不要です。
逆に、ドライバのバージョンが合っていない場合や、他のツールで CUDA をビルド・開発に使いたい場合には、CUDA Toolkit のインストールが必要になることがあります。
CUDA Toolkit とは、GPU 上での並列計算を行うために必要な以下のような要素をまとめた「開発者向けの総合セット」です
開発用ヘッダファイルやドキュメント
コンパイラ(nvcc
)
ライブラリ(cuBLAS, cuDNNなど)
サンプルコードやデバッグツール
状況 | CUDA Toolkit必要? | 理由 |
---|---|---|
PyTorchやComfyUIを使いたい(pipでインストール) | ❌ 基本不要(PyTorchが内部で処理) | PyTorchのCUDAバージョンとドライバが合っていればOK |
自作のCUDAコードを書く・ビルドする | ✅ 必須 | nvcc やヘッダが必要 |
特定のアプリが「Toolkit必須」と明記している | ✅ 必須 | 一部のツールでは依存あり |
バージョン調整のため、古いCUDAを使いたい(このパターンの方に有効な手段です) | ✅ 推奨 | 複数バージョンの共存が可能になる |
方法①:CUDA Toolkitを ダウングレードして使う方法(推奨)
- 【おすすめ】CUDA 11.8 を別途インストールして、それに対応したPyTorchを使う方法。
- 環境が安定しやすく、多くのツールが対応済み。
注意:CUDAのバージョン ≠ GPUのドライバ
CUDA Toolkitのバージョンをインストールしても、GPUのドライバはそれに合わせる必要はありません。
→ この方法は、、PyTorch 側も CUDA 11.8 対応ビルドをインストールし、CUDA 11.8 Toolkitを手動で入れるパターンです。
手順まとめ(Windows / Linux 共通の考え方)
① CUDA 11.8 Toolkit のインストール
- NVIDIA公式サイトからダウンロード
https://developer.nvidia.com/cuda-11-8-0-download-archive - OSを選択し、インストール方法に従ってセットアップ
- インストール後、以下コマンドで確認
Windows
nvcc --version
Linux
nvcc --version
これで release 11.8
と出ればOKです。
② PyTorch(CUDA 11.8対応ビルド)のインストール
PyTorch 公式のインストールページからコマンドを生成できます
https://pytorch.org/get-started/locally/
以下は一例(pip使用、Python 3.10環境の場合)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
cu118
= CUDA 11.8対応ビルド
③ NVIDIAドライバの互換性を確認
PyTorch + CUDA 11.8を使うには、NVIDIAドライバがバージョン ≥ 512.0 である必要があります。
確認方法
Windows
nvidia-smi
Linux
nvidia-smi
出力の Driver Version
をチェックしましょう。
使用確認(PyTorchがGPU + CUDA 11.8を使っているか)
import torch
print(torch.version.cuda) # → '11.8'
print(torch.cuda.is_available()) # → True(ならOK)
print(torch.cuda.get_device_name(0)) # GPU名表示
補足:Toolkitが必要なケースとは?
- PyTorchをビルドする(=開発者向け)
- 他のC++/CUDAベースのAIツール(例:TensorRT、xformersなど)を自分でビルドする
nvcc
やlibcudart
などが必要なツールを使う
単純に PyTorch + GPU 推論だけなら、Toolkitなしでも PyTorch の cu118
ビルドで完結します。
方法②:CUDA 12.1 に対応するPyTorch「CUDAバージョン付きビルド」をインストールする方法
「CUDAバージョン付きビルド」とはPyTorch公式が「このバージョンのPyTorchは、このCUDAバージョンで動作するようにビルドされていますよ」と用意している事前ビルド済みパッケージのことです。「CUDAバージョン付きビルド」を使えば、Toolkitも不要
CUDA 12.1 にも対応できるなら、この方法もOKです。
※一部機能やツールとの互換性に注意が必要です。
PyTorch公式からインストールコマンドを選ぶ場合の設定(おすすめ)
項目 | 選択例 |
---|---|
PyTorch Build | Stable |
OS | 環境に合わせて(例:Windows) |
Package | pip |
Language | Python |
Compute Platform | CUDA 11.8 (または CPU でもOK) |
生成されたコマンドの例
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
このように cu121
(=CUDA 12.1)版を明示すれば、PyTorch内部で必要なランタイム「CUDAランタイム(*.dllなど)」が用意されるため、Toolkitインストールは不要で、CUDA Toolkitを別途インストールしなくても、PyTorch内部でCUDAが動くようになります。
注意点:ほかのソフトと共存する環境では、明示的にToolkitを使う方が安定することも。
方法③:WSL(Linux仮想環境)を使う ※Windowsユーザーの場合
Windows上でLinuxを“仮想環境”として動かせる機能”WSL(Windows Subsystem for Linux)は、「Windowsの中でLinuxが動く箱」を実際にLinuxをインストールせずに使うイメージです。
WSLとは?
WSLは「WindowsでLinux専用ツールを動かすための橋渡し」です。
項目 | 内容 |
---|---|
正式名 | Windows Subsystem for Linux |
対応OS | Windows 10(Ver.2004以降)、Windows 11 |
何ができる? | UbuntuなどのLinux環境をWindows内で使える |
どう便利? | Linux用のコマンドやツールがそのまま使える(しかも高速) |
WSLでできること(画像生成やAI用途向け)
- PythonやPyTorchをLinux環境で扱える
- UbuntuなどのLinuxディストリビューションをWindows上で起動できる
- 通常のLinuxコマンド(
pip
,apt
,git
,python
など)が使える - GPU(NVIDIA製)を持っていれば、WSL + CUDA対応で高速処理も可能(WSL2 + GPU対応ドライバ必須)
- Gitなどの開発ツールをLinux用に使える
- CUDA対応のモデルも動かせる(WSL2 + GPU対応ドライバが必要)
- コンテナ(Docker)で環境管理しやすい ←画像生成系では便利!
WSLのざっくり構成イメージ
┌─────────────────────┐
│ Windows 11 │
│ ┌─────────────┐ │
│ │ WSL2 (Ubuntu) │ ← Linux環境(ここでAIモデル実行)
│ └─────────────┘ │
│ ↕ ファイル共有可 │
└─────────────────────┘
WSLを使うメリット
- LinuxのAIツールがそのまま使える
- Windowsに環境を汚さず構築できる
- 複数のLinux環境を切り替え可能
- GPU対応もOK(NVIDIAの専用ドライバで)
WSLの注意点
- 最初に少しセットアップが必要(でも1回やればOK)
- WSL2(最新版)+GPUドライバが必要(GPUを使うなら)
- Linuxコマンドに少し慣れると快適
WSL導入の流れ
- PowerShellを管理者権限で開く
wsl --install
- 再起動 → Ubuntuなどを選択
- Linuxの初期設定(ユーザー名など)
- 必要なツールやAIライブラリをインストール(PyTorch、CUDAなど
ローカルCLIで使うための基本ステップ
- Python 環境 をインストール(3.9〜3.10など)
- CUDA対応のPyTorch をインストール(GPU使いたい場合)
git clone
でツールを取得(Gitでコードをダウンロード)pip install -r requirements.txt
で依存ライブラリを一括インストール- コマンドラインで実行(例:
python inference_codeformer.py ...
)
PyTorch + CUDA のインストールコマンド(Windows or Linux)
PyTorch公式サイトで推奨されている形で、以下のようにインストールします
例:CUDA 11.8 + pip の場合(最もよく使われる構成)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
※上記は pip
で CUDA 11.8 対応版を入れるコマンドです。
PyTorch、Torchvision(画像用)、Torchaudio(音声用)を一緒にインストールします。ストールします。
CUDAバージョン別インストールコマンド(参考)
CUDAバージョン | インストールコマンド例 |
---|---|
CUDA 11.7 | --index-url https://download.pytorch.org/whl/cu117 |
CUDA 11.8 | --index-url https://download.pytorch.org/whl/cu118 |
CPU版(GPUなし) | --index-url https://download.pytorch.org/whl/cpu |
確認方法
インストール後、Pythonで以下を実行すると正常に入ったか確認できます
import torch
print(torch.__version__)
print(torch.cuda.is_available()) # TrueならGPUが使えています!
注意点
- PyTorchのバージョンとCUDAのバージョンは対応している必要があります
- CUDA Toolkit(NVIDIA公式)が別途インストールされている必要があります
- NVIDIAドライバも最新にしておきましょう
PyTorch+CUDAのインストールをせずにDockerを使用する方法はコチラ

