Gemma 3のインストール手順をOllamaのインストールから~初心者にも分かりやすく”スクショ付き”~解説!

Gemma 3とは
Gemma 3は、Google DeepMindが2025年3月12日に発表した最新のオープンウェイト大規模言語モデル(LLM)です。これは、Gemmaファミリーの第3世代モデルであり、以下の特徴を備えています
- マルチモーダル対応:テキスト、画像、短い動画の入力に対応し、テキスト出力を生成できます。
- 広範な言語サポート:140以上の言語に対応しています。
- 長いコンテキストウィンドウ:最大128,000トークンのコンテキストを処理可能です。
- 高性能:数学、推論、チャット能力、構造化出力、関数呼び出しなどの分野で性能が向上しています。
- モデルサイズのバリエーション:1B、4B、12B、27Bの4種類が提供されており、いずれも事前学習済みモデルと命令調整済みバージョンが利用可能です 。
Gemma 3のインストール手順
Gemma 3をローカル環境で実行する為には、Ollamaというツールを使用するのが一般的です。
この記事では、Ollamaを使用してGemma 3をインストールする手順を解説します。
”実行マネージャー兼モデルランタイム”)で、複数のモデルに対応しています。


1,Ollamaのインストール(macOS/Windows/Linaxの場合)
“Ollama公式ウェブサイト“から、自身のOSに対応したバージョンをダウンロードします。
”ダウンロード”をクリックすると、


下の選択画面に。自身のOSを選択して”ダウンロード”します。


ダウンロードがされたか確認する方法
Ollamaをインストールしたら、
ターミナル(コマンドプロンプト)を開き、”ollama”と打ち込むと呼ぶ出してくれます。
ターミナル(Windows Terminal)コマンドプロンプト、PowerShell、の開き方
Windowsの場合は、(※Windows Terminal)を開きます。
※Windows Terminal(ウィンドウズターミナル)の起動方法…
コマンドの実行は、Windows標準の「Windows Terminal」を使って行います。
(※コマンドプロンプト(cmd)やPowerShellでも同様に動作しますが、Windows Terminalの方が操作しやすくおすすめです。)
コマンドプロンプト(Command Prompt)とは、Windowsに搭載されているテキストベースのインターフェースです。マウス操作ではなく、キーボードからコマンド(指示)を入力することで、パソコンを操作できます。
Windows Terminal起動方法
- スタートメニューで、左クリック➡ターミナルを起動もしくは、「Windows Terminal」と検索して起動
- デフォルトでは PowerShell または Command Prompt(cmd)(又は、WindowsPowerShell)が開きます
画像生成用途の場合は、Command Prompt コマンドプロンプト(CMD)と相性が良いです。
pip install
や conda
などのモダン開発向けコマンドは、PowerShellと相性が良いです。
※詳しい使用方法や、Windows Terminalの設定方法は、こちらの記事をご覧ください。
Windows Terminalは、タブを切り替えて複数のシェルを使う事が出来ます
- 上部の
+
ボタンから新しいタブを開けます - PowerShell
- Command Prompt
- WSL(Linuxサブシステム)※インストール済みなら
- Azure Cloud Shell(必要な場合)
をクリックすると以下の選択肢があります
※Microsoft 公式も「Windows Terminal」を推奨しているため、当サイトでも記載するWindowsのコマンド実行場所を、コマンドプロンプト(cmd)から「Windows Terminal」に変更致しました。
コマンド入力は間違えるとエラーになることもありますが、慣れると素早く作業ができる便利なツールです。
Macの場合は、(※ターミナル)を開きます。
※ターミナル(Terminal)の起動方法…
Macには「ターミナル(Terminal)」というアプリがあり、これを使うことで、コマンドを入力してシステムを操作できます。
ターミナル起動方法
- **「Command ⌘ + Space」を押して、「Spotlight検索」**を開く
- 検索バーに「ターミナル」と入力してEnter
または、以下の手順でも開けます:
アプリケーション → ユーティリティ → ターミナル
※Linux のターミナルの起動方法…
Linuxでは「ターミナル」が、コマンド操作の基本です。ウィンドウの中でキーボード入力によりシステムを操作します。
Linuxターミナル起動方法
- 1,:
Ctrl + Alt + T
を同時に押す(多くのLinuxディストリビューションで共通) - 2,:アプリケーション一覧から「ターミナル」または「Terminal」で検索して開く
Ubuntu、Fedora、Debianなど、ほとんどのLinux環境に標準で搭載されています。
Macのターミナルと似た雰囲気で、コマンドの使い方もほぼ共通です。
※PowerShell の起動方法…(Windows)
PowerShell(パワーシェル)**は、Windowsに標準搭載されている、より高度な操作ができるコマンドラインツールです。見た目はコマンドプロンプトと似ていますが、より多機能で、プログラミング的な処理も得意です。
PowerShell起動方法
1,スタートメニューで「PowerShell」と検索してクリック
2,Windowsキー + R を押して「powershell」と入力 → Enter
コマンドプロンプトと同様、キーボードからコマンドを入力して操作します。
たとえば Get-ChildItem
(=フォルダの中身を見る)など、PowerShell独自のコマンドもありますが、通常のコマンド(例:cd
やpython
など)も使えます。
※コマンドプロンプト(cmd)の起動方法…(Windows)
Windowsキー + Rを押す
「cmd」と入力してEnterを押す
または、スタートメニューで「コマンドプロンプト」と検索してもOK!
ターミナル(Windows Terminal)を開き、”○○○(ツール名)”と打ち込むと呼び出してくれます。
2,Gemma 3モデルのダウンロード
ハードウェア要件
Gemma 3の各モデルを実行するための推奨ハードウェア要件は以下の通りです。
- 27Bモデル: 48GBのGPUメモリ
- 12Bモデル: 24GBのGPUメモリ
- 4Bモデル: 8GBのGPUメモリ
- 1Bモデル: 2GBのGPUメモリ
これらの要件を満たすハードウェア環境を用意することで、Gemma 3を効果的に活用できます。
詳細はGemma3の公式ホームページで確認してください。
Ollamaを使用して、必要なサイズのGemma 3モデルをダウンロードします。
ターミナル(コマンドプロンプト)を開き、以下のコマンドを入力すると、
Gemma 3モデルがローカル環境にダウンロードされます。
(※以下の画像一段目、c:\Users\Owner>の所に、下の何れかのコマンドを入力してください。
どのモデルを選択するかは、下のハードウェア要件を参考にして下さい。)
- 27Bモデルの場合
ollama pull gemma3
- 12Bモデルの場合
ollama pull gemma3:12b
- 4Bモデルの場合
ollama pull gemma3:4b
- 1Bモデルの場合
ollama pull gemma3:1b
このコマンドにより、Gemma 3モデルがダウンロードされます。


リスト(上の画像の下から4段目c:\Users\Owner>ollama list)にgemma3
(または選択したモデル)が表示されていれば、インストールは成功しています。
ここでは、(上の画像の下から2段目)gemma3:4と出ていますね。
出ていなっかったら、c:\Users\Owner>の後に、ollama list
と、入力してリストを呼び出してください。
カスタムモデルの作成(オプション):特定の用途に合わせてモデルをカスタマイズしたい場合は、Modelfile
を作成し、以下のコマンドでカスタムモデルを作成できます。
ollama create gemma3-custom -f Modelfile
ollama run gemma3-custom
Modelfile
の内容例:
FROM gemma:3
PARAMETER context_length=128000
これにより、最大コンテキスト長を128,000トークンに設定したカスタムモデルを作成できます。
参考資料
- Introducing Gemma 3: The Developer Guide
- Gemma 3 model overview | Google AI for Developers
- Gemma 3 on mobile and web with Google AI Edge
実際使ってみよう!
ダウンロードが完了したら、以下のコマンドでGemma 3を実行できます。
c:\Users\Owner>の後に、以下を入力してください。
ollama run gemma3


これにより、Gemma 3との対話が可能になります。



今日は花粉症が辛かったので、花粉飛散状況を聞いてみました。



ローカルで会話できるよ!
簡単なので使ってみてね。