AI Model2026-05-17
DeepSeek
別名: DeepSeek / DeepSeek V4 / DeepSeek R1
中国の DeepSeek 社が開発するオープンウェイト LLM。DeepSeek V4 は 1.6T パラメータ MoE・1M コンテキストを備え、超低コストな学習手法で世界的な注目を集めた。
概要
DeepSeek V4 Preview はオープン重みとして公開され、1M コンテキストウィンドウを搭載。学習コストが GPT-4 の数十分の一とされ、AI 開発コスト論争を巻き起こした。詳細は DeepSeek V4 Preview リリース解説 を参照。
R1 推論モデル
DeepSeek R1 は chain-of-thought 強化学習で数学・コーディングに特化。ローカル実行時のコスト効率が高く、Claude 代替としての採用も増加している。
関連コラム
AI
DeepSeek V4 Preview リリース解説 — 1.6T MoE / 1Mコンテキストのオープン重みを徹底整理【2026年4月版】
DeepSeek が 2026年4月24日に公開した DeepSeek V4 Preview の概要。V4-Pro(1.6Tパラメータ / 49Bアクティブ)と V4-Flash(284B / 13B)の2モデル、100万トークンコンテキスト、Hugging Face でのオープン重み公開、API・チャットでの提供開始など、要点を公式情報ベースで整理します。
AI
2026年4月ローカルLLM最新全体像 — 主要10モデル完全比較ガイド【Ollama対応表付き】
2026年4月時点の主要ローカルLLM10モデルを徹底比較。SWE-benchスコア・日本語性能・VRAM要件・Ollamaコマンド・ライセンスを一覧化。Gemma 4、Llama 4、Qwen 3.5、GLM-5.1、Kimi K2.5、MiniMax M2.5など最新モデルを網羅したガイド。
AI
Claude代替ローカルLLM総合比較2026 — Qwen 3.5・Mistral Small 4・DeepSeek R1・Gemma 4を徹底検証
Anthropic Claude制限変更を受け、Qwen 3.5-9B、Mistral Small 4、DeepSeek R1、Gemma 4、Llama 4などのローカルLLMを徹底比較。日本語性能、ハードウェア要件、用途別おすすめモデルを詳細解説します。
お気軽にご相談ください
お問い合わせ