株式会社オブライト
サービス
私たちについて
会社概要
コラム
お問い合わせ
English
English
メニューを開く
コラム
MoE
「MoE」のコラム
7件の記事
AI
2026-04-24
DeepSeek V4 Preview リリース解説 — 1.6T MoE / 1Mコンテキストのオープン重みを徹底整理【2026年4月版】
DeepSeek が 2026年4月24日に公開した DeepSeek V4 Preview の概要。V4-Pro(1.6Tパラメータ / 49Bアクティブ)と V4-Flash(284B / 13B)の2モデル、100万トークンコンテキスト、Hugging Face でのオープン重み公開、API・チャットでの提供開始など、要点を公式情報ベースで整理します。
DeepSeek V4
オープンソースLLM
MoE
AI
2026-04-10
GLM-5.1完全ガイド — SWE-bench Pro世界1位を達成したオープンソースLLM【2026年4月最新】
Z.aiが2026年4月7日にリリースしたGLM-5.1は、SWE-bench Proで58.4%を達成しGPT-5.4やClaude Opus 4.6を超えた世界初のオープンソースLLM。744Bパラメータ(40Bアクティブ)のMoEアーキテクチャ、MITライセンス、8時間自律タスクなど最新情報を完全解説。
GLM-5.1
Z.ai
SWE-bench
AI
2026-04-10
Kimi K2.5完全ガイド — 1兆パラメータMITライセンスのオープンソースLLMの実力【2026年版】
Moonshot AIが2026年1月27日にリリースしたKimi K2.5は、1兆パラメータ(32Bアクティブ)MoEモデル。SWE-bench 76.8%、HumanEval 99.0%、GPQA Diamond 87.6%を達成しMITライセンスで公開。アーキテクチャ・ハードウェア要件・Ollama導入・ユースケースを完全解説。
Kimi K2.5
Moonshot AI
1兆パラメータ
AI
2026-04-10
Mistral Small 4完全ガイド — 推論×マルチモーダル×コードを統合した119B MoEモデル【2026年版】
2026年3月リリースのMistral Small 4は、推論・マルチモーダル・エージェントコーディングを1モデルに統合した119B MoE。Apache 2.0ライセンスで商用利用可能、日本語を含む11言語対応。スペック・導入手順・比較を完全解説。
Mistral Small 4
MoE
マルチモーダル
AI
2026-04-10
MiniMax M2.5完全ガイド — Lightning AttentionでSWE-bench 80.2%を達成したMoEモデル【2026年版】
MiniMax M2.5は独自のLightning AttentionによりコーディングベンチマークSWE-bench Verifiedで80.2%を達成したオープンMoEモデル。230B総パラメータ・10Bアクティブ。アーキテクチャ・ライセンス・導入手順を完全解説。
MiniMax M2.5
SWE-bench
Lightning Attention
AI
2026-03-17
Rakuten AI 3.0の技術アーキテクチャ完全解説:MoEで実現する次世代日本語LLM
楽天が開発した約7000億パラメータのRakuten AI 3.0のMixture of Expertsアーキテクチャを徹底解説。8エキスパート構成、アクティブパラメータ400億の効率性、日本語MT-Benchで8.88を達成した技術的背景を詳しく紹介します。
Rakuten AI 3.0
MoE
Mixture of Experts
AI
2026-03-17
NemoClawのNIM推論マイクロサービスとNemotronモデル — エッジからクラウドまでのデプロイ戦略
NemoClawのNIM推論マイクロサービスとNemotronモデルファミリーの技術詳細を解説。コンテナ化APIエンドポイント、エラスティックスケーリング、Nemotron 3 Super(1200億パラメータ、MoE 120億アクティブ)の性能、AWS・Azure・GCP・オンプレでのデプロイ比較、エッジデバイスでの軽量運用、Salesforce・CrowdStrike等パートナー連携の活用事例を詳述します。
NemoClaw
NIM
Nemotron