株式会社オブライト
AI2026-04-24

DeepSeek V4 Preview リリース解説 — 1.6T MoE / 1Mコンテキストのオープン重みを徹底整理【2026年4月版】

DeepSeek が 2026年4月24日に公開した DeepSeek V4 Preview の概要。V4-Pro(1.6Tパラメータ / 49Bアクティブ)と V4-Flash(284B / 13B)の2モデル、100万トークンコンテキスト、Hugging Face でのオープン重み公開、API・チャットでの提供開始など、要点を公式情報ベースで整理します。


DeepSeek V4 Preview リリース概要

中国・杭州拠点の DeepSeek が 2026年4月24日に DeepSeek V4 Preview を公開し、Hugging Face 上に重みを開示しました。同社は2025年に世界の AI 業界を揺るがしたモデルを送り出した実績があり、V4 はその系譜を継ぐオープン重み(open-weight)の Mixture-of-Experts(MoE)モデル群です。API および chat.deepseek.com の Expert / Instant モードでも同日から提供されています。

2つのモデル: V4-Pro と V4-Flash

Preview として公開されたのは2バリアントです:

モデル総パラメータアクティブ想定用途
V4-Pro1.6T49B難易度の高い推論・長文ドキュメント処理
V4-Flash284B13B高速応答・コスト重視のリアルタイム用途

両モデルとも MoE 構造で、推論時に一部のエキスパートのみが活性化されるため、総パラメータ数の見かけより実行時メモリは抑えられます。100万トークンの長コンテキストをサポートし、長文書類・大規模コードベース・複数ドキュメント横断推論に向く設計です。

オープン重みとライセンス

V4-Pro / V4-Flash の重みは Hugging Face で公開されています。Preview 版のため、最終版でのライセンス条件・商用利用範囲・微調整可否などは公式リポジトリの最新情報で確認してください。OpenAI / Anthropic / Google のフロンティアモデルに対し、「ほぼ最先端の性能をオープン重みで」提供してくる戦略は前世代から一貫しており、ローカル運用・自社ホスティングを志向する企業には注目すべき選択肢です。

実運用上の注意点

1.6T パラメータ MoE はフル精度では業務サーバの想定範囲を超えることが多いため、量子化版・推論サーバ(vLLM、TGI 等)のチューニングが前提になります。V4-Flash であれば 284B MoE / 13B アクティブのため、A100 80GB クラスや H100 単発でも実用速度が見込めます。Mac mini など消費者向け機材ではフル V4 は厳しく、軽量バリアントや 26B / 31B クラスのオープンモデル(Gemma 4、Qwen 3.6-27B など)との併用が現実的です。

オブライトの活用方針

オブライトでは、OpenClaw のローカル / ハイブリッド構成において、軽量タスク向けに V4-Flash を組み込めるようテンプレート整備中です。フル V4-Pro はクラウド API 連携枠での利用を想定。詳細は AI 導入コンサルティング でご相談ください。

FAQ

Q1: Preview と GA の違いは? A: Preview はライセンス・性能ベンチマーク等が確定する前の評価リリースです。仕様や条件が変わる可能性があるため、本番採用前に GA リリースを待つ判断もありえます。 Q2: V4-Pro を Mac mini で動かせますか? A: フル精度は不可。極度の量子化版でも現実的ではないため、Mac mini クラスでは V4-Flash の量子化版か、別のオープンモデル(Gemma 4 / Qwen 3.5-9B 等)を推奨します。 Q3: 商用利用は可能ですか? A: 公式の最新ライセンスを確認の上、要件に合うことを必ず検証してください。

参考文献

お気軽にご相談ください

お問い合わせ