マイアミのSubquadraticが線形スケーリングLLMを発表、独立検証を求められる

マイアミ拠点のスタートアップSubquadraticは、ステルスから開示を行い、大規模言語モデル(LLM)が既存AIの「二次的な注意計算」制約を完全に回避したと主張しました。
同社は初のモデル「SubQ 1M-Preview」を、計算量が文脈長に対し線形に増えるサブ二次アーキテクチャに基づくと説明しています。
12百万トークンで注意計算を他の最前線モデルに比べ約1000分の1にできるとしており、検証が進めば長文処理の効率を大きく変える可能性があるとしています。
同社はプライベートベータとしてAPI、コーディングエージェント「SubQ Code」、検索ツール「SubQ Search」を提供すると発表し、シードラウンドで2900万ドルを調達したとしています。
ただしAI研究コミュニティからは、数値が過度に大きく独立確認が必要だとして懐疑的な声が出ています。
ベンチマークはSWE-Bench VerifiedやRULER、MRCR v2で高い結果を示した一方、テスト数が限られ、包括的な評価やモデルカードの公開がこれからだと指摘されました。
さらに、研究結果と出荷モデルのスコア差や、APIの具体的な価格が示されていないことから、コスト比較の検証が困難だとの見方もあります。
SNS上では、既存モデルの重みを出発点にしている点や、効率向上の説明と実際の整合性を疑う意見も出ています。
Subquadraticは独立評価で数学的主張が裏付けられるかが焦点だとされ、同社の技術が長文AIの実用性をどこまで押し上げるか注目されています。

参照元:2026/05/06 「Miami startup Subquadratic claims 1,000x AI efficiency gain with SubQ model; researchers demand independent proof.」 https://venturebeat.com/technology/miami-startup-subquadratic-claims-1-000x-ai-efficiency-gain-with-subq-model-researchers-demand-independent-proof

この記事へのリアクション

このニュースをどう受け止めましたか?

Reader Reaction

このニュース、みなさんはどう感じましたか?ぜひコメント欄であなたの声を聞かせてください。

※本記事に掲載している情報は公開時点のものです。最新情報は公式発表等をご確認ください。

ぜひコメントを添えてシェアお願いします。
  • URLをコピーしました!
  • URLをコピーしました!

アンケート

AIによって富が集中する代わりに「ベーシックインカム」を導入することに賛成ですか?

回答者数:2人 投票期間:2026/04/16〜2026/05/06
回答はお一人様1回までです。


PR:実務直結の稼げるAIスキルを学べる

DMM 生成AI CAMP

AIを使いこなす側か、使われる側か。今がキャリアの分岐点。

全コース学び放題
入会金・教材費0円
最低契約期間なし・いつでも解約OK

受講生同士が繋がれるコミュニティ

コメント

コメントする

CAPTCHA


日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

目次