NVIDIA、30BパラメータのオープンMoEモデル「Nemotron-Cascade 2」をリリース

要約
NVIDIAは、Nemotron-Cascade 2という新しいオープンウェイトの大規模言語モデルを発表しました。このモデルは30Bパラメータの Mixture-of-Experts(MoE)アーキテクチャを採用しており、実際に使用されるアクティブパラメータは3Bとなっています。Nemotron-Cascade 2は「intelligence density(知能密度)」の最大化に焦点を当てており、従来のフロンティアモデルよりもはるかに少ないパラメータ数で高度な推論能力を実現しています。また、強力なエージェント機能を備えており、2025年の評価において金メダルレベルの性能を達成した2番目のオープンウェイトLLMとなりました。
洞察・気づき
このリリースは、AI業界における効率性の追求という重要なトレンドを示しています。30Bという比較的小規模なモデルサイズでありながら、MoEアーキテクチャによって実際の推論時には3Bパラメータのみを使用することで、計算効率を大幅に向上させています。これにより、より少ないリソースで高度な推論能力を実現できることから、AI の民主化や実用化が進むと期待されます。特に、オープンウェイトモデルとして公開されることで、研究者や開発者がより手軽に高性能なAIモデルにアクセスできるようになり、イノベーションの加速が見込まれます。