株式会社オブライト
サービス
私たちについて
会社概要
コラム
お問い合わせ
English
English
メニューを開く
コラム
MoE
「MoE」のコラム
2件の記事
AI
2026-03-17
Rakuten AI 3.0の技術アーキテクチャ完全解説:MoEで実現する次世代日本語LLM
楽天が開発した約7000億パラメータのRakuten AI 3.0のMixture of Expertsアーキテクチャを徹底解説。8エキスパート構成、アクティブパラメータ400億の効率性、日本語MT-Benchで8.88を達成した技術的背景を詳しく紹介します。
Rakuten AI 3.0
MoE
Mixture of Experts
AI
2026-03-17
NemoClawのNIM推論マイクロサービスとNemotronモデル — エッジからクラウドまでのデプロイ戦略
NemoClawのNIM推論マイクロサービスとNemotronモデルファミリーの技術詳細を解説。コンテナ化APIエンドポイント、エラスティックスケーリング、Nemotron 3 Super(1200億パラメータ、MoE 120億アクティブ)の性能、AWS・Azure・GCP・オンプレでのデプロイ比較、エッジデバイスでの軽量運用、Salesforce・CrowdStrike等パートナー連携の活用事例を詳述します。
NemoClaw
NIM
Nemotron