AI Model2026-05-17
Gemma(Google)
別名: Gemma (Google) / Google Gemma / Gemma 4
Google のオープンウェイト LLM ファミリー。Gemini と同源の技術を軽量化し、ローカル実行向けに E2B/E4B/26B/31B 等の派生を提供している。
概要
Gemma 4 系列は MoE / Dense の両方を含み、コンシューマ GPU でも動作可能。エッジ特化の E4B は 4.5B パラメータでマルチモーダルに対応する。詳細は Gemma 4 ハードウェア要件 を参照。
ライセンスと用途
商用利用可能な Gemma ライセンスで配布され、Ollama・HuggingFace 経由で容易にデプロイできる。オンプレミス AI 構築やエッジ推論において Llama・Qwen と並ぶ選択肢。
関連コラム
AI
Gemma 4 必要スペック早見表 — VRAM 5〜62GB / RTX 3060〜H100対応【E2B/E4B/26B/31B 全モデル・2026年版】
Gemma 4 の必要スペックを早見表で公開。VRAM要件は E2B/E4B が5GB、26B MoE が16GB、31B Dense が24GB(Q4)または62GB(FP16)。RTX 3060からH100、Apple Silicon M1〜M4、CPU動作、Mac/Windows/Linux別の推奨スペック・容量・動作環境・推奨GPU・予算別構成まで、2026年Q2時点の最新情報で網羅。
AI
Gemma 4 vs Llama 4 vs Qwen 3.5徹底比較 — 2026年ローカルLLM選定ガイド
Gemma 4、Llama 4、Qwen 3.5の3大ローカルLLMを徹底比較。ベンチマーク性能、ライセンス、日本語対応、ハードウェア要件、ユースケース別の選定基準を詳しく解説します。
AI
Gemma 4入門ガイド — 概要・特徴・Ollamaでの始め方【2026年完全解説】
Googleが2026年4月2日にリリースしたGemma 4の完全ガイド。E2B、E4B、26B MoE、31B Denseの4バリアント、Apache 2.0ライセンス、マルチモーダル対応など最新情報とOllamaでの実行方法を詳しく解説します。
お気軽にご相談ください
お問い合わせ