AI2026-05-17
Dense Model(高密度モデル)
別名: Dense Model / Dense Transformer / 高密度モデル
すべてのパラメータが各トークンの処理に使用される標準的なTransformerモデル。MoEのようなスパースなエキスパート選択を持たず、パラメータ数と計算量が比例する。
概要
Dense Modelは従来の標準的なTransformerアーキテクチャで、各入力トークンを処理する際にモデルの全パラメータが活性化されます。Llama・Qwen Dense・Gemma・Phi等が代表例です。MoEと対比する文脈で使われる用語で、パラメータ数と推論コスト(FLOPs)が線形に比例するため、スケールアップには大きな計算リソースが必要です。
MoEとの使い分け
同じパラメータ規模であればDense ModelはMoEより少ないVRAMで動作し、デプロイが簡単です。7B〜27BクラスのDenseモデルはコンシューマーGPU上での推論に最適で、ローカルLLM用途で広く使われています。
関連コラム
AI
Qwen 3.5 27B Dense&35B-A3B MoE完全ガイド — DFlash高速化で24GB GPUの限界を突破【2026年版】
Qwen 3.5 27B DenseとMoE 35B-A3Bの違い、24GB GPUでの動作要件、DFlash技術による2〜3倍高速化、Ollamaセットアップ手順をわかりやすく解説します。
AI
2026年4月ローカルLLM最新全体像 — 主要10モデル完全比較ガイド【Ollama対応表付き】
2026年4月時点の主要ローカルLLM10モデルを徹底比較。SWE-benchスコア・日本語性能・VRAM要件・Ollamaコマンド・ライセンスを一覧化。Gemma 4、Llama 4、Qwen 3.5、GLM-5.1、Kimi K2.5、MiniMax M2.5など最新モデルを網羅したガイド。
AI
Gemma 4 必要スペック早見表 — VRAM 5〜62GB / RTX 3060〜H100対応【E2B/E4B/26B/31B 全モデル・2026年版】
Gemma 4 の必要スペックを早見表で公開。VRAM要件は E2B/E4B が5GB、26B MoE が16GB、31B Dense が24GB(Q4)または62GB(FP16)。RTX 3060からH100、Apple Silicon M1〜M4、CPU動作、Mac/Windows/Linux別の推奨スペック・容量・動作環境・推奨GPU・予算別構成まで、2026年Q2時点の最新情報で網羅。
関連用語
お気軽にご相談ください
お問い合わせ