ローカルCLI(Pythonスクリプト)の為の【PyTorch+CUDA】のインストール手順

ローカルCLI PyTorch+CUDAのインストールコマンド

PyTorch + CUDA のインストール

目次

GPUとCUDAの互換性確認

GPUとCUDAの互換性を確認するには、以下の3つのステップで簡単にチェックできます。これは、PyTorch・Stable Diffusion・ComfyUIなどGPUを使うAIツールを動かす際の最初の重要ポイントです。

ステップ① 自分のGPUの型番を調べる

【Windowsの場合】

方法A:タスクマネージャーで確認

  1. Ctrl + Shift + Esc でタスクマネージャーを開く
  2. 「パフォーマンス」タブ →「GPU」を選択
  3. 右上に「GeForce RTX 3060」などの型番が表示されます

方法B:コマンドで確認(より確実)

  1. Windowsキー + R →「cmd」と入力 → Enter
  2. 以下のコマンドを実行します
nvidia-smi

例:

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 537.13     Driver Version: 537.13       CUDA Version: 12.2      |
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
|  0   NVIDIA GeForce RTX 3060            Off  | 00000000:01:00.0 Off |      N/A |
+-----------------------------------------------------------------------------+

GPU Name」が使っているGPUの正式名称です。
CUDA Version」はドライバが対応しているCUDAバージョンです(重要!)

ステップ② 自分のGPUがCUDA対応かを確認する

以下のNVIDIA公式ページで、あなたのGPUがCUDA対応かどうか確認できます。

🔗 CUDA対応GPU一覧(NVIDIA公式)

ページ内で「GeForce RTX 3060」などの型番を検索して、CUDA Compute Capabilityが表示されていれば対応しています。

目安:GeForce GTX 750以降のほとんどのGPUはCUDA対応です。

ステップ③ 自分のGPUに適したCUDAバージョンを確認する

CUDAにはバージョンがあり、使用するツール(例:PyTorch)やドライバと整合性が取れている必要があります

参考表(主なGPUと対応CUDA)

GPU型番CUDA Compute Capability対応CUDAバージョン
GeForce GTX 10606.1CUDA 10.x~11.x
GeForce RTX 20607.5CUDA 10.x~12.x
GeForce RTX 30608.6CUDA 11.x~12.x
GeForce RTX 40708.9CUDA 12.x

PyTorch + CUDA のインストールコマンド

PyTorch + CUDA のインストールコマンド”とは、
ローカルCLI(Pythonスクリプト) で画像補完ツール(例:CodeFormerなど)を使う場合に必要な環境構築の一部で、
PyTorch(AIフレームワーク)を自分のPC環境に合った形でインストールするためのコマンドです。

特に NVIDIA製GPUを使って高速に処理するためには CUDA対応版のPyTorch を選んで入れる必要があります。
「GPU + PyTorch + CUDA」は、 高速・高品質なAI画像処理のゴールデンコンビです。

PyTorch + CUDA を使用する代表的なツール・アプリ

ツール名主な用途特徴
Stable Diffusion(AUTOMATIC1111など)画像生成(テキスト → 画像)PyTorchベースの生成AI。CUDA対応で高速化
ComfyUIノードベース画像生成PyTorch + CUDAが必要。リアルタイム性に優れる
Real-ESRGAN画像の高画質化(超解像)GPU対応で数倍~数十倍高速に動作
GFPGAN顔画像の修復・補完Real-ESRGANと連携可。PyTorch製
CodeFormer顔修復AIの一種GFPGANの代替として人気。PyTorch製
Waifu2x-Extension-GUI(PyTorch版)アニメ画像高画質化・ノイズ除去PyTorchベースのGUI。CUDAで高速動作
ESRGAN(本家版)超解像PyTorch + CUDAを使用。訓練やカスタムモデルに対応
DreamBooth / LoRA訓練画像生成モデルのファインチューニングPyTorchで学習処理を行い、CUDAで高速化
DeepFaceLab / FaceFusion顔の入れ替え・ディープフェイクPyTorch + CUDAでリアルタイム化可能
YOLOv5 / YOLOv8物体検出PyTorch製の物体認識AI。GPU推論で高速動作
Segment Anything(SAM)画像領域の自動分割Meta社のPyTorch製セグメンテーションモデル

共通する特徴

  • すべて PyTorch で作られており、GPU(=CUDA)を使うと圧倒的に高速に動作します。
  • 多くは NVIDIA製GPU前提で設計されているため、CUDAとドライバの設定が重要です。
  • CPUでも動作は可能ですが、処理時間が数十倍になるケースもあります

PyTorch には「たくさんのバリエーション(種類)」があります

その理由は、PCの環境(OS・GPUの有無・CUDAのバージョンなど)によって最適なものが異なるからです。

PyTorchの「種類」は何で分かれるのか?

大きく分けると、以下のポイントで種類が変わります

分類軸説明
インストール方法pip / conda など
対応OSWindows / Linux / macOS
GPU対応の有無GPU(CUDA)対応版 or CPU専用版
CUDAのバージョン11.7 / 11.8 / 12.1 など、NVIDIAのドライバやツールキットに対応
  • PyTorchはGPUで爆速に動くのが強み
  • でも、GPUの種類やドライバとの相性がある
  • なので、「環境にピッタリのPyTorch」が必要になる

たとえば、

Windowsで
NVIDIAのGPUがあって
CUDA 11.8がインストールされている

という人と、

macOSで
GPUはない(CPUのみ)

という人では、インストールするPyTorchが全く異なります

PyTorchのインストール

最適なPyTorchの選び方

PyTorch公式サイトにあるローカルから始めるガイドがとても便利です。

PyTorch公式Install Guideページ

インストール画面

こんな画面で選べます

画面の見方と操作手順

設定項目説明
PyTorch ビルド基本は「Stable(安定版)」を選べばOK
あなたの OSWindows / Linux / macOS から選択
パッケージPythonユーザーは「pip」または「conda」
(pipが一番シンプル)
言語Python を使っていればそのままでOK
コンピューティングプラットホームGPUあり→CUDAのバージョンを選択
GPUなし→「CPU」 を選ぶ

上の表に沿って順に選んでいくと、環境に合ったインストールコマンドが自動で表示されます!

PyTorchとCUDAのバージョン対応表

PyTorch対応するCUDAバージョンpip install の末尾
2.1.x11.8 / 12.1cu118, cu121
2.0.x11.7cu117
1.13.x11.6cu116

例:Windows + pip + CUDA 11.8の場合

選択はこのようになります

  • PyTorch Build: Stable
  • Your OS: Windows
  • Package: pip
  • Language: Python
  • Compute Platform: CUDA 11.8

すると、下にこのようなコマンドが表示されます

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

cu118 は CUDA 11.8 を意味します。PyTorchとCUDAのバージョンの組み合わせは慎重に。

このコマンドをコピーして、ターミナル(BashやPowerShell)に貼り付けて実行すれば完了です。(※ターミナル、コマンドプロンプトの起動方法はこちら)

ターミナル(Windows Terminal)コマンドプロンプト、PowerShell、の開き方

Windowsの場合は、(※Windows Terminal)を開きます。

Windows Terminal(ウィンドウズターミナルの起動方法…

コマンドの実行は、Windows標準の「Windows Terminal」を使って行います。
(※コマンドプロンプト(cmd)やPowerShellでも同様に動作しますが、Windows Terminalの方が操作しやすくおすすめです。)
コマンドプロンプト(Command Prompt)とは、Windowsに搭載されているテキストベースのインターフェースです。マウス操作ではなく、キーボードからコマンド(指示)を入力することで、パソコンを操作できます。

Windows Terminal起動方法

  1. スタートメニューで、左クリック➡ターミナルを起動もしくは、「Windows Terminal」と検索して起動
  2. デフォルトでは PowerShell または Command Prompt(cmd)(又は、WindowsPowerShell)が開きます

画像生成用途の場合は、Command Prompt コマンドプロンプト(CMD)と相性が良いです。

pip installconda などのモダン開発向けコマンドは、PowerShellと相性が良いです。

※詳しい使用方法や、Windows Terminalの設定方法は、こちらの記事をご覧ください。

Windows Terminalは、タブを切り替えて複数のシェルを使う事が出来ます

  • 上部の ボタンから新しいタブを開けます
  • をクリックすると以下の選択肢があります
    • PowerShell
    • Command Prompt
    • WSL(Linuxサブシステム)※インストール済みなら
    • Azure Cloud Shell(必要な場合)

※Microsoft 公式も「Windows Terminal」を推奨しているため、当サイトでも記載するWindowsのコマンド実行場所を、コマンドプロンプト(cmd)から「Windows Terminal」に変更致しました。

コマンド入力は間違えるとエラーになることもありますが、慣れると素早く作業ができる便利なツールです。

Macの場合は、(※ターミナル)を開きます。

ターミナル(Terminal)の起動方法…

Macにはターミナル(Terminal)というアプリがあり、これを使うことで、コマンドを入力してシステムを操作できます。

ターミナル起動方法

  1. **「Command ⌘ + Space」を押して、「Spotlight検索」**を開く
  2. 検索バーに「ターミナル」と入力してEnter

または、以下の手順でも開けます:

アプリケーションユーティリティターミナル

Linux のターミナルの起動方法…

Linuxでは「ターミナル」が、コマンド操作の基本です。ウィンドウの中でキーボード入力によりシステムを操作します。

Linuxターミナル起動方法

  • 1,:Ctrl + Alt + T を同時に押す(多くのLinuxディストリビューションで共通)
  • 2,:アプリケーション一覧から「ターミナル」または「Terminal」で検索して開く

Ubuntu、Fedora、Debianなど、ほとんどのLinux環境に標準で搭載されています。
Macのターミナルと似た雰囲気で、コマンドの使い方もほぼ共通です。

PowerShell の起動方法…(Windows)

PowerShell(パワーシェル)**は、Windowsに標準搭載されている、より高度な操作ができるコマンドラインツールです。見た目はコマンドプロンプトと似ていますが、より多機能で、プログラミング的な処理も得意です。

PowerShell起動方法

1,スタートメニューで「PowerShell」と検索してクリック

2,Windowsキー + R を押して「powershell」と入力 → Enter

コマンドプロンプトと同様、キーボードからコマンドを入力して操作します。
たとえば Get-ChildItem(=フォルダの中身を見る)など、PowerShell独自のコマンドもありますが、通常のコマンド(例:cdpythonなど)も使えます。

※コマンドプロンプト(cmd)の起動方法…(Windows)

Windowsキー + Rを押す

cmd」と入力してEnterを押す
または、スタートメニューで「コマンドプロンプト」と検索してもOK!

ターミナル(Windows Terminal)を開き、”○○○(ツール名)”と打ち込むと呼ぶ出してくれます。

インストール確認

PyTorchがGPUを認識しているかを確認するには、以下のPythonコードを実行します。

import torch
print(torch.cuda.is_available())  # TrueならGPUが使える

自分に合ったCUDAが分からない場合

調べる方法(Windowsの場合)

  1. NVIDIA製のGPUがあるか確認する方法
    • スタートメニュー → 「デバイスマネージャ」 →「ディスプレイアダプタ」
  2. CUDAのバージョン確認
    • Win + Rcmd → 以下のコマンドを入力
nvcc --version

もしくは、

nvidia-smi

→ ここに CUDA Version の記載があります。

🚫 現時点での制限

多くのAI画像生成ツール(Stable Diffusion、ComfyUI、InvokeAI、CodeFormerなど)は… CUDA 11.8CUDA 12.1最適化されています。

画像生成には「CUDA 11.8 or 12.1」が安定!

CUDAバージョン安定性対応ツールコメント
11.8◎ 高い多くのツール対応最も推奨される
12.1○ 良好一部ツール対応対応広がりつつある
12.8△ 限定的対応少ないまだ不安定、要注意
CUDA 11.8 、 CUDA 12.1以外の場合の対応策については、こちらをClick!

PyTorch が使う CUDA バージョンと、あなたの PC にインストールされている NVIDIA ドライバがその CUDA に対応していればCUDA Toolkit のインストールは基本的に不要です。

逆に、ドライバのバージョンが合っていない場合や、他のツールで CUDA をビルド・開発に使いたい場合には、CUDA Toolkit のインストールが必要になることがあります。

CUDA Toolkit とは、GPU 上での並列計算を行うために必要な以下のような要素をまとめた「開発者向けの総合セット」です

開発用ヘッダファイルやドキュメント
コンパイラ(nvcc
ライブラリ(cuBLAS, cuDNNなど)
サンプルコードやデバッグツール

状況CUDA Toolkit必要?理由
PyTorchやComfyUIを使いたい(pipでインストール)❌ 基本不要(PyTorchが内部で処理)PyTorchのCUDAバージョンとドライバが合っていればOK
自作のCUDAコードを書く・ビルドする✅ 必須nvccやヘッダが必要
特定のアプリが「Toolkit必須」と明記している✅ 必須一部のツールでは依存あり
バージョン調整のため、古いCUDAを使いたい(このパターンの方に有効な手段です)✅ 推奨複数バージョンの共存が可能になる

方法①:CUDA Toolkitを ダウングレードして使う方法(推奨)

  • 【おすすめ】CUDA 11.8 を別途インストールして、それに対応したPyTorchを使う方法。
  • 環境が安定しやすく、多くのツールが対応済み。

CUDA 11.8 ダウンロード: NVIDIA CUDA 11.8 ダウンロードページ


注意:CUDAのバージョン ≠ GPUのドライバ

CUDA Toolkitのバージョンをインストールしても、GPUのドライバはそれに合わせる必要はありません

→ この方法は、、PyTorch 側も CUDA 11.8 対応ビルドをインストールし、CUDA 11.8 Toolkitを手動で入れるパターンです。

手順まとめ(Windows / Linux 共通の考え方)

① CUDA 11.8 Toolkit のインストール

  1. NVIDIA公式サイトからダウンロード
    https://developer.nvidia.com/cuda-11-8-0-download-archive
  2. OSを選択し、インストール方法に従ってセットアップ
  3. インストール後、以下コマンドで確認

Windows

nvcc --version

Linux

nvcc --version

これで release 11.8 と出ればOKです。

② PyTorch(CUDA 11.8対応ビルド)のインストール

PyTorch 公式のインストールページからコマンドを生成できます
https://pytorch.org/get-started/locally/

以下は一例(pip使用、Python 3.10環境の場合)

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

cu118 = CUDA 11.8対応ビルド

③ NVIDIAドライバの互換性を確認

PyTorch + CUDA 11.8を使うには、NVIDIAドライバがバージョン ≥ 512.0 である必要があります。

確認方法

Windows

nvidia-smi

Linux

nvidia-smi

出力の Driver Version をチェックしましょう。

使用確認(PyTorchがGPU + CUDA 11.8を使っているか)

import torch
print(torch.version.cuda)            # → '11.8'
print(torch.cuda.is_available())     # → True(ならOK)
print(torch.cuda.get_device_name(0)) # GPU名表示

補足:Toolkitが必要なケースとは?

  • PyTorchをビルドする(=開発者向け)
  • 他のC++/CUDAベースのAIツール(例:TensorRT、xformersなど)を自分でビルドする
  • nvcclibcudart などが必要なツールを使う

単純に PyTorch + GPU 推論だけなら、Toolkitなしでも PyTorch の cu118 ビルドで完結します。

方法②:CUDA 12.1 に対応するPyTorch「CUDAバージョン付きビルド」をインストールする方法

「CUDAバージョン付きビルド」とはPyTorch公式が「このバージョンのPyTorchは、このCUDAバージョンで動作するようにビルドされていますよ」と用意している事前ビルド済みパッケージのことです。「CUDAバージョン付きビルド」を使えば、Toolkitも不要


CUDA 12.1 にも対応できるなら、この方法もOKです。
一部機能やツールとの互換性に注意が必要です。

PyTorch公式からインストールコマンドを選ぶ場合の設定(おすすめ)

項目選択例
PyTorch BuildStable
OS環境に合わせて(例:Windows)
Packagepip
LanguagePython
Compute PlatformCUDA 11.8(または CPU でもOK)

生成されたコマンドの例

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

このように cu121(=CUDA 12.1)版を明示すれば、PyTorch内部で必要なランタイム「CUDAランタイム(*.dllなど)」が用意されるため、Toolkitインストールは不要で、CUDA Toolkitを別途インストールしなくても、PyTorch内部でCUDAが動くようになります。

注意点:ほかのソフトと共存する環境では、明示的にToolkitを使う方が安定することも。

方法③:WSL(Linux仮想環境)を使う ※Windowsユーザーの場合

Windows上でLinuxを“仮想環境”として動かせる機能”WSL(Windows Subsystem for Linux)は、「Windowsの中でLinuxが動く箱」を実際にLinuxをインストールせずに使うイメージです。

WSLとは?

WSLは「WindowsでLinux専用ツールを動かすための橋渡し」です。

項目内容
正式名Windows Subsystem for Linux
対応OSWindows 10(Ver.2004以降)、Windows 11
何ができる?UbuntuなどのLinux環境をWindows内で使える
どう便利?Linux用のコマンドやツールがそのまま使える(しかも高速)

WSLでできること(画像生成やAI用途向け)

  • PythonやPyTorchをLinux環境で扱える
  • UbuntuなどのLinuxディストリビューションをWindows上で起動できる
  • 通常のLinuxコマンド(pip, apt, git, python など)が使える
  • GPU(NVIDIA製)を持っていれば、WSL + CUDA対応で高速処理も可能(WSL2 + GPU対応ドライバ必須)
  • Gitなどの開発ツールをLinux用に使える
  • CUDA対応のモデルも動かせる(WSL2 + GPU対応ドライバが必要)
  • コンテナ(Docker)で環境管理しやすい ←画像生成系では便利!

WSLのざっくり構成イメージ

┌─────────────────────┐
│     Windows 11       │
│  ┌─────────────┐   │
│  │   WSL2 (Ubuntu)  │ ← Linux環境(ここでAIモデル実行)  
│  └─────────────┘   │
│     ↕ ファイル共有可      │
└─────────────────────┘

WSLを使うメリット

  • LinuxのAIツールがそのまま使える
  • Windowsに環境を汚さず構築できる
  • 複数のLinux環境を切り替え可能
  • GPU対応もOK(NVIDIAの専用ドライバで)

WSLの注意点

  • 最初に少しセットアップが必要(でも1回やればOK)
  • WSL2(最新版)+GPUドライバが必要(GPUを使うなら)
  • Linuxコマンドに少し慣れると快適

WSL導入の流れ

  1. PowerShellを管理者権限で開くwsl --install
  2. 再起動 → Ubuntuなどを選択
  3. Linuxの初期設定(ユーザー名など)
  4. 必要なツールやAIライブラリをインストール(PyTorch、CUDAなど

ローカルCLIで使うための基本ステップ

  1. Python 環境 をインストール(3.9〜3.10など)
  2. CUDA対応のPyTorch をインストール(GPU使いたい場合)
  3. git clone でツールを取得(Gitでコードをダウンロード)
  4. pip install -r requirements.txt で依存ライブラリを一括インストール
  5. コマンドラインで実行(例:python inference_codeformer.py ...

PyTorch + CUDA のインストールコマンド(Windows or Linux)

PyTorch公式サイトで推奨されている形で、以下のようにインストールします

例:CUDA 11.8 + pip の場合(最もよく使われる構成)

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

※上記は pip で CUDA 11.8 対応版を入れるコマンドです。
PyTorch、Torchvision(画像用)、Torchaudio(音声用)を一緒にインストールします。ストールします。

CUDAバージョン別インストールコマンド(参考)

CUDAバージョンインストールコマンド例
CUDA 11.7--index-url https://download.pytorch.org/whl/cu117
CUDA 11.8--index-url https://download.pytorch.org/whl/cu118
CPU版(GPUなし)--index-url https://download.pytorch.org/whl/cpu

確認方法

インストール後、Pythonで以下を実行すると正常に入ったか確認できます

import torch
print(torch.__version__)
print(torch.cuda.is_available())  # TrueならGPUが使えています!

注意点

  • PyTorchのバージョンとCUDAのバージョンは対応している必要があります
  • CUDA Toolkit(NVIDIA公式)が別途インストールされている必要があります
  • NVIDIAドライバも最新にしておきましょう

PyTorch+CUDAのインストールをせずにDockerを使用する方法コチラ

  • URLをコピーしました!
目次