ローカルで生成AIを動かす(Window11 + Open WebUI + Gemma3)

この記事はAIによって生成し、筆者が加筆・訂正を加えた記事です

ご自宅のPCでローカル環境にAIを動かすのは、それほど難しくありません。この記事では、Window11環境でOpen WebUIを利用し、GemmaというAIモデルを動かす方法を解説します。さらに、Web検索と連携させる方法もご紹介します。

0. 事前準備:PCスペックの確認

ローカルでAIを動かすには、ある程度のPCスペックが必要です。特に、GPUのメモリ容量が重要になります。目安としては、最低でも8GBのGPUメモリがあると、比較的小さなモデルでも動作しやすいでしょう。

私はRTX3060(GPUメモリ12GB)を使用しました。

1. Pythonのインストール (Window11)

まず、AIを動かすためのプログラミング言語であるPythonをインストールします。

Open WebUIは現時点(2025/5/17)でPython 3.11.xしかサポートしてないので3.11.xをDLしてください

  1. Python公式サイトへアクセス: https://www.python.org/downloads/windows/
  2. Pythonをダウンロード: ページ内のNote that Python 3.11.9 cannot be used on Windows 7 or earlierのWindows installer (64-bit)をクリックしてダウンロード
  3. インストーラーを実行:
    • “Install Now” で進めても問題ありません。
    • 「Add Python 3.x to PATH」にチェック
  4. インストールが完了するまで待ちます。

インストール後、コマンドプロンプト(またはターミナル)を開いて python --version と入力し、Pythonのバージョンが表示されればOKです。

2. Open WebUI のインストール

Open WebUIは、AIモデルを使いやすくするためのWebインターフェースです。

Open WebUI のインストール: コマンドプロンプトで以下のコマンドを実行します。(場所はどこでもOK)

pip install open-webui

3.Gemma のダウンロードと設定 (Ollama 推奨)

GemmaはGoogleが開発した軽量なAIモデルです。

Ollamaのインストール: Ollamaを利用してGemmaモデルを簡単にダウンロードできます。https://ollama.com/ からダウンロードしてインストールしてください。

Gemmaモデルのダウンロード: コマンドプロンプトまたはターミナルで以下のコマンドを実行します。

ollama pull gemma3:12b

Gemma3のサイズ (3b, 7b, など) に応じてコマンドを調整してください。 より大きなモデルほど、より多くのメモリと処理能力を必要とします。

RTX3060で12bはやや重い動作なので7bがいいかもしれません

4. Web検索への設定

Open WebUIでWeb検索機能を使うには、WebUIのインターフェース上で設定を行います。

Open WebUI の起動: コマンドプロンプトで以下のコマンドを実行します。(場所はどこでもOK)

open-webui serve
  1. ブラウザにてhttp:localhost:8080にアクセス
  2. 初回起動時はアカウントの作成が必要なので画面の指示に従ってアカウントを作成し、ログインしてください。
  3. 画面の左下の名前アイコンをクリックし設定 管理者設定ウェブ検索
  4. 検索エンジンをgoogle_pse, Google PSE APIにAPIキー, Google PSE エンジンIDを設定 ※Google Programmable Search Engineに登録し、それぞれ取得してください。無料プランは100リクエスト/月で利用できます。
  5. 設定の保存: 「保存」ボタンをクリックして、設定を保存します。

5. まとめ

これで、ローカル環境でAIを動かす準備が整いました!Open WebUIのWebインターフェースから、Web検索を利用した質問をAIにすることができます。

注意点:

  • ローカル環境でのAIの動作には、ある程度のPCスペックが必要です。
  • APIキーは機密情報です。他人に知られないように管理してください。

このガイドが、あなたのAIライフを豊かにする一助となれば幸いです!