NVIDIA Nemotron 3 Nano:320億パラメータMoEで活性化はわずか3.6B、100万トークンコンテキスト

NVIDIAは2026年3月13日、Nemotron 3 Nanoを正式にリリースしました。これはMixture of Experts(MoE)アーキテクチャを採用した大規模言語モデルで、総パラメータ数は320億ですが、推論ごとに活性化されるのは36億パラメータのみで、最大100万トークンの超長コンテキストウィンドウをサポートしています。このリリースは、NVIDIAがチップハードウェアメーカーからフルスタックAIプラットフォーム企業への戦略的転換を進める上で、重要な一歩となります。

Stormap.aiはNemotron 3 Nanoの包括的な技術評価をいち早く実施しました。

NVIDIAは2026年3月13日、Nemotron 3 Nanoを正式にリリースしました。これはMixture of Experts(MoE)アーキテクチャを採用した大規模言語モデルで、総パラメータ数は320億ですが、推論ごとに活性化されるのは36億パラメータのみで、最大100万トークンの超長コンテキストウィンドウをサポートしています。このリリースは、NVIDIAがチップハードウェアメーカーからフルスタックAIプラットフォーム企業への戦略的転換を進める上で、重要な一歩となります。

Stormap.aiはNemotron 3 Nanoの包括的な技術評価をいち早く実施しました。MMLU、HumanEval、GSM8Kなどの主要ベンチマークテストにおいて、Nemotron 3 NanoはMetaのLlama 3 70Bと同等の性能を示しながら、推論速度は約4倍速く、デプロイに必要なVRAMは10分の1でした。つまり、RTX 4090やRTX 5090などのコンシューマ向けGPU1枚で快適に動作し、高性能AIモデルのデプロイの敷居を大幅に下げることを意味します。

NVIDIA Developer Blogの技術論文では、Nemotron 3 Nanoのアーキテクチャ革新が詳細に紹介されています。このモデルは64のエキスパートモジュールを使用し、入力内容に応じて推論ごとに4つのエキスパートを動的に選択することで、計算効率とモデル容量の最適なバランスを実現しています。論文では特に「プログレッシブアテンション」メカニズムが強調されており、長いシーケンスの処理時にマルチレベルキャッシュとスパースアテンションにより精度と効率を自動的に切り替え、100万トークンのコンテキストウィンドウの実用性を確保しています。

Tom's Hardwareの性能テストでは、さらに実用的なデータが提供されています。RTX 5090上でNemotron 3 Nanoの最初のトークン遅延は180ミリ秒、持続生成速度は約65トークン/秒でした。コンテキスト長が4Kから100Kトークンに拡大しても、生成速度の低下は約20%にとどまり、100万トークンでも約30トークン/秒の実用的な速度を維持しました。記事では、コンシューマハードウェアで実現された最高の長コンテキスト推論性能と評価されています。

The Decoderの業界分析では、NVIDIAが自社モデルをリリースした戦略的意図が指摘されています。CEOのジェンスン・ファン氏は発表会で「NemotronはOpenAIやAnthropicと競争するために開発したのではなく、NVIDIAハードウェアの全潜在能力を示し、お客様にすぐに使える出発点を提供するためです」と述べました。しかしアナリストは、NVIDIAがAIモデル層に戦略的な布石を打っていると広く見ています。モデルとハードウェアが深く統合されると、競合他社のチップでは同じ体験を再現しにくくなり、NVIDIAのGPUエコシステムの堀が強化されるからです。

Hugging Faceコミュニティの反応は極めて熱狂的でした。リリース初日にHugging Face上のNemotron 3 Nanoページのアクセス数は50万回を超え、コミュニティメンバーは各種ファインチューニングや量子化実験を素早く開始しました。ある開発者はGGUF 4ビット量子化後にMacBook Pro M4 Maxで実行した結果を共有し、約40トークン/秒の速度を達成、リアルタイムのインタラクティブアプリケーションに十分であることを示しました。

注目すべきは、Nemotron 3 NanoがNVIDIA Open Model Licenseを採用していることです。商用利用は許可されますが、派生物での帰属表示が必要です。このライセンスはMeta Llamaのコミュニティライセンスより寛容ですが、Apache 2.0ほど完全にオープンではありません。オープンソースコミュニティの一部は残念に思いましたが、大多数の開発者は実用上十分と評価しています。

総合的に見ると、Nemotron 3 Nanoのリリースは、AIモデルのエコシステムに重要な影響を与えます。MoEアーキテクチャのモデル効率における巨大な潜在力を証明し、NVIDIAがハードウェアサプライヤーにとどまらない戦略的野心を再確認しました。モデルとハードウェアの深い統合がトレンドとなる中、AI産業の競争は単一次元からフルスタック統合能力の勝負へと移行しています。

市場ポジショニングの観点から、Nemotron 3 Nanoは重要な製品空白を埋めています。Tom's Hardwareの比較レビューによると、主要なAI Agentフレームワーク(LangChain、CrewAI、AutoGen)では、モデル選択は通常ジレンマに直面します。GPT-5.4やClaude 4などのクローズドソース大規模モデルは最高性能を提供しますが、API呼び出しあたり0.01〜0.10ドルのコストがかかり、頻繁なツール呼び出しと多段推論を要するAgentアプリケーションには非常に高コストです。一方、Llama 3.1 8Bなどの小型オープンソースモデルは安価ですが、複雑なツール呼び出しや多段推論でエラーが頻発します。Nemotron 3 Nanoはまさにこの「スイートスポット」を占めています。

デプロイ面では、NVIDIAは同時にTensorRT-LLM最適化版をリリースし、A100 GPUで秒速2,400トークン、コンシューマ向けRTX 5090でも秒速800トークンのスループットを達成しました。The Decoderのレビューでは、1台の高性能PCで5〜10のAgentインスタンスを同時実行可能になると指摘されており、ソフトウェア開発チームシミュレーションやカスタマーサービスシステムなどのマルチAgent協調シナリオにとって重要です。

Hugging Faceコミュニティは熱烈に反応し、リリースから48時間以内に20以上の量子化バージョン(GGUF、GPTQ、AWQ形式)が提出され、スマートフォンからサーバーまでの様々なハードウェアで動作可能になりました。コミュニティは興味深い特性も発見しました。Nemotron 3 Nanoは中国語と日本語のツール呼び出しタスクで異常に優れた性能を示し、これらの言語に特化して訓練されたモデルさえ上回りました。NVIDIAによると、これは訓練データに大量の多言語APIドキュメントと関数呼び出し例が含まれていたためです。