NVIDIAが1本の学習済みで30B・23B・12B推論モデルを切り出し可能に

NVIDIAの研究チームは、Nemotron Nano v3を基にした「Star Elastic」というポストトレーニング手法を発表しました。
従来は8Bや30Bなど複数サイズごとに別々の学習と展開が必要でしたが、Star Elasticでは1回の学習で複数のネスト型サブモデルを内包します。
同手法は、30B総パラメータ(活性3.6B)モデルの中に、23B(活性2.8B)と12B(活性2.0B)を入れ子として生成し、追加の微調整なしに単一チェックポイントからゼロショットで切り出せるとしています。
訓練は約160Bトークンの後学習で行い、事前学習を各サイズでやり直す場合に比べてトークン量を360分の1に抑えたと報告しました。
さらに、推論の「考える」段階と「答える」段階で別のネストサブモデルを使う弾性予算制御を採用し、デフォルトのNemotron Nano v3比で精度は最大16%向上、遅延は最大1.9倍低減したとしています。
量子化については、ネスト構造を維持するQuantization-Aware Distillationを適用し、NVFP4では30Bの弾性チェックポイントを18.7GBに圧縮でき、RTX 5080でBF16がメモリ不足となる12B運用も可能だとしました。

参照元:2026/05/10 「NVIDIA AI Releases Star Elastic: One Checkpoint that Contains 30B, 23B, and 12B Reasoning Models with Zero-Shot Slicing」 https://www.marktechpost.com/2026/05/09/nvidia-ai-releases-star-elastic-one-checkpoint-that-contains-30b-23b-and-12b-reasoning-models-with-zero-shot-slicing/

この記事へのリアクション

このニュースをどう受け止めましたか?

Reader Reaction

このニュース、みなさんはどう感じましたか?ぜひコメント欄であなたの声を聞かせてください。

※本記事に掲載している情報は公開時点のものです。最新情報は公式発表等をご確認ください。

ぜひコメントを添えてシェアお願いします。
  • URLをコピーしました!
  • URLをコピーしました!

アンケート

AIはあなたの仕事を「奪う」存在?それとも「助ける」存在?

回答者数:2人 投票期間:2026/04/16〜2026/05/10
回答はお一人様1回までです。


PR:実務直結の稼げるAIスキルを学べる

DMM 生成AI CAMP

AIを使いこなす側か、使われる側か。今がキャリアの分岐点。

全コース学び放題
入会金・教材費0円
最低契約期間なし・いつでも解約OK

受講生同士が繋がれるコミュニティ

コメント

コメントする

CAPTCHA


日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

目次