株式会社オブライト
AI2026-04-10

MiniMax M2.5完全ガイド — Lightning AttentionでSWE-bench 80.2%を達成したMoEモデル【2026年版】

MiniMax M2.5は独自のLightning AttentionによりコーディングベンチマークSWE-bench Verifiedで80.2%を達成したオープンMoEモデル。230B総パラメータ・10Bアクティブ。アーキテクチャ・ライセンス・導入手順を完全解説。


MiniMax M2.5とは?SWE-bench 80.2%を達成したLightning Attention MoEモデル

MiniMax M2.5は、中国のMiniMax社が2026年2月11日に公開したオープンウェイトの大規模言語モデルです。総パラメータ230B、アクティブパラメータ10B(MoEアーキテクチャ、1トークンあたり8エキスパートを選択)という構成を持ちます。最大の特徴は独自技術「Lightning Attention」の採用で、ソフトウェアエンジニアリングベンチマーク「SWE-bench Verified」でオープンモデルとして最高クラスの80.2%を達成しています。これはClaude Opus 4.6の80.8%との差がわずか0.6ポイントという驚異的なスコアです。

Lightning Attentionとは何か

Lightning Attentionは、従来のTransformer Attentionを線形化(Linear Attention)した独自技術です。通常のAttention機構はシーケンス長Nに対してO(N²)のメモリ・計算コストがかかりますが、Lightning Attentionはこれを線形O(N)に近い効率に削減します。 主な利点: - メモリ消費の大幅削減: 長い入力でもVRAM使用量が爆発的に増加しない - 長コンテキスト処理に強い: 数万トークン以上の文書を効率的に処理 - スループット向上: バッチ処理時の並列効率が向上 これによりMiniMax M2.5は、長大なコードベースやドキュメントを扱うエンジニアリングタスクで特に優位性を発揮します。

M2.5のアーキテクチャ

Loading diagram...

ベンチマーク比較

MiniMax M2.5の主要ベンチマーク結果を他モデルと比較します。

ベンチマークMiniMax M2.5Claude Opus 4.6Kimi K2.5GLM-5.1
SWE-bench Verified80.2%80.8%76.8%
Multi-SWE-bench51.3%
SWE-bench Pro57.3%58.4%

SWE-bench Verifiedにおいて、MiniMax M2.5はClaude Opus 4.6(80.8%)に0.6ポイント差まで迫っており、オープンソースモデルとしては最高クラスのコーディング能力を示しています。

ライセンスの注意点:商用利用時はクレジット表示が必須

MiniMax M2.5はModified MIT Licenseを採用しています。通常のMITライセンスと異なり、商用利用時に「MiniMax M2.5」のクレジット表示が必須という条件が追加されています。 具体的には、製品・サービス・論文等での利用時に「Powered by MiniMax M2.5」などの形でモデル名を明示する必要があります。Apache 2.0ライセンスのモデルと比べてより制約があるため、企業での導入前にライセンス条項を必ず確認してください。個人・研究利用は通常のMITと同様に自由に行えます。

ハードウェア要件と導入方法

MiniMax M2.5の動作要件は以下の通りです。

構成VRAM目安環境
フル精度(BF16)約460GBH100×6枚以上
Q4量子化約120GBH100×2枚 / A100×3枚
Q8量子化(Ollama)約230GB大型サーバー環境
Ollama(コンシューマGPU向け軽量版)24〜48GBRTX 4090×1〜2枚

Ollamaでの起動(軽量版):

bash
ollama run minimax-m2.5

Ollamaの自動量子化機能により、搭載GPUのVRAM量に応じて最適な量子化レベルが自動選択されます。コンシューマ向けGPUでも動作可能な点がMiniMax M2.5の大きな利点の一つです。

Claude Opus 4.6に匹敵するコーディング力

SWE-bench Verifiedは、GitHubの実際のIssueを自律的に修正するタスクで構成される実践的なコーディングベンチマークです。MiniMax M2.5の80.2%というスコアが意味するのは、1000件の実際のソフトウェアバグのうち802件を自動修正できるということです。 商用最強クラスのClaude Opus 4.6(80.8%)との差はわずか0.6ポイント。しかもMiniMax M2.5はオープンウェイトモデルとして無料で利用可能です。APIコストを気にせず大量のコード生成・レビュー・デバッグタスクを実行したい場合、MiniMax M2.5はきわめて有力な選択肢です。

MiniMax M2.7への展望

次世代モデル「MiniMax M2.7」では自己進化型アーキテクチャの採用が予告されています。特に注目されているのはRL(強化学習)研究への応用で、M2.7はRL研究業務の30〜50%を自律的に遂行できるモデルを目指しているとされています。単なる性能向上にとどまらず、AI研究そのものを加速するモデルとして開発が進んでいます。2026年後半のリリースが期待されています。

スペック早見表

項目
総パラメータ数230B
アクティブパラメータ10B(1推論あたり)
MoEエキスパート選択数8エキスパート/トークン
Attention機構Lightning Attention(線形化)
リリース日2026年2月11日
ライセンスModified MIT(商用時クレジット必須)
SWE-bench Verified80.2%
Multi-SWE-bench51.3%

よくある質問(FAQ)

Q1. MiniMax M2.5は無料で使えますか? モデルウェイト自体はModified MIT Licenseの下で無料公開されています。商用利用時はクレジット表示が必要ですが、利用料金は発生しません。 Q2. Lightning Attentionは他のモデルにも使われていますか? Lightning AttentionはMiniMaxが開発した独自技術であり、現在はMiniMax系モデルに特有の機能です。 Q3. SWE-benchとはどんなベンチマークですか? GitHubの実際のオープンソースIssueを自律的に解決するタスクで評価するベンチマークです。実際のソフトウェア開発能力を測る最も実践的な指標の一つとされています。 Q4. コンシューマGPUで動かせますか? Ollamaを通じた軽量量子化版であれば、RTX 4090(24GB)×1〜2枚程度の環境でも動作可能です。 Q5. 日本語の品質はどうですか? MiniMax M2.5は英語・中国語を中心に学習されています。日本語の品質はMistralやQwenなど日本語公式対応モデルと比較すると劣る場合があるため、日本語特化タスクでは事前にベンチマークを行うことを推奨します。 Q6. M2.5の導入支援を依頼できますか? OflightではMiniMax M2.5を含むオープンソースLLMの企業導入支援を行っています。要件定義から本番運用まで対応可能です。詳しくは `/services/ai-consulting` をご確認ください。

OflightのAI導入支援サービス

MiniMax M2.5のような高性能オープンソースLLMを自社のコードレビュー・自動化・RAGシステムに統合したい企業様を、OflightのAIエンジニアがフルサポートします。モデル選定・インフラ設計・プロンプトエンジニアリング・セキュリティ対策まで一貫して対応。まずはお気軽に `/services/ai-consulting` からご相談ください。

お気軽にご相談ください

お問い合わせ