Gemma 3のインストール手順をOllamaのインストールから~初心者にも分かりやすく”スクショ付き”~解説!

Gemma 3のインストール手順
Gemma 3をローカル環境で実行する為には、Ollamaというツールを使用するのが一般的です。
Ollamaを使用してGemma 3をインストールする手順から解説します。


1,Ollamaのインストール(macOS/Windows/Linaxの場合)
AIモデルをローカルで実行するためのツール”Ollama公式ウェブサイト“から
自身のOSに対応したバージョンをダウンロードし、
Gemma 3をインストールする為のインストーラーをインストールします。
”ダウンロード”をクリックすると、


下の選択画面に。自身のOSを選択して”ダウンロード”します。


ダウンロードがされたか確認する方法
Ollamaをインストールしたら、
Windowsの場合は、(※コマンドプロンプト)を開きます。
※**コマンドプロンプト(Command Prompt)**の起動方法…
**コマンドプロンプト(Command Prompt)**とは、Windowsに搭載されているテキストベースのインターフェースです。マウス操作ではなく、キーボードからコマンド(指示)を入力することで、パソコンを操作できます。
🖥️ 起動方法
- Windowsキー + Rを押す
- 「cmd」と入力してEnterを押す
または、スタートメニューで「コマンドプロンプト」と検索してもOK!
コマンド入力は間違えるとエラーになることもありますが、慣れると素早く作業ができる便利なツールです。
Macの場合は、(※ターミナル)を開きます。
※**ターミナル(Terminal)**の起動方法…
Macには「ターミナル(Terminal)」というアプリがあり、これを使うことで、コマンドを入力してシステムを操作できます。
🖥️起動方法
- **「Command ⌘ + Space」を押して、「Spotlight検索」**を開く
- 検索バーに「ターミナル」と入力してEnter
または、以下の手順でも開けます:
アプリケーション → ユーティリティ → ターミナル
ターミナル(コマンドプロンプト)を開き、”ollama”と打ち込むと呼ぶ出してくれます。
2,Gemma 3モデルのダウンロード
ハードウェア要件
Gemma 3の各モデルを実行するための推奨ハードウェア要件は以下の通りです。
- 27Bモデル: 48GBのGPUメモリ
- 12Bモデル: 24GBのGPUメモリ
- 4Bモデル: 8GBのGPUメモリ
- 1Bモデル: 2GBのGPUメモリ
これらの要件を満たすハードウェア環境を用意することで、Gemma 3を効果的に活用できます。
詳細はGemma3の公式ホームページで確認してください。
Ollamaを使用して、必要なサイズのGemma 3モデルをダウンロードします。
ターミナル(コマンドプロンプト)を開き、以下のコマンドを入力すると、
Gemma 3モデルがローカル環境にダウンロードされます。
(※以下の画像一段目、c:\Users\Owner>の所に、下の何れかのコマンドを入力してください。
どのモデルを選択するかは、下のハードウェア要件を参考にして下さい。)
- 27Bモデルの場合
ollama pull gemma3
- 12Bモデルの場合
ollama pull gemma3:12b
- 4Bモデルの場合
ollama pull gemma3:4b
- 1Bモデルの場合
ollama pull gemma3:1b


このコマンドにより、Gemma 3モデルがダウンロードされます。
リスト(上の画像の下から4段目c:\Users\Owner>ollama list)にgemma3
(または選択したモデル)が表示されていれば、インストールは成功しています。
ここでは、(上の画像の下から2段目)gemma3:4と出ていますね。
出ていなっかったら、c:\Users\Owner>の後に、ollama list
と、入力してリストを呼び出してください。
実際使ってみよう!
ダウンロードが完了したら、以下のコマンドでGemma 3を実行できます。
c:\Users\Owner>の後に、入力してください。
ollama run gemma3
これにより、Gemma 3との対話が可能になります。





今日は花粉症が辛かったので、花粉飛散状況を聞いてみました。



ローカルで会話できるよ!
使ってみてね。