マイアミ拠点のスタートアップSubquadraticは、ステルスから開示を行い、大規模言語モデル(LLM)が既存AIの「二次的な注意計算」制約を完全に回避したと主張しました。
同社は初のモデル「SubQ 1M-Preview」を、計算量が文脈長に対し線形に増えるサブ二次アーキテクチャに基づくと説明しています。
12百万トークンで注意計算を他の最前線モデルに比べ約1000分の1にできるとしており、検証が進めば長文処理の効率を大きく変える可能性があるとしています。
同社はプライベートベータとしてAPI、コーディングエージェント「SubQ Code」、検索ツール「SubQ Search」を提供すると発表し、シードラウンドで2900万ドルを調達したとしています。
ただしAI研究コミュニティからは、数値が過度に大きく独立確認が必要だとして懐疑的な声が出ています。
ベンチマークはSWE-Bench VerifiedやRULER、MRCR v2で高い結果を示した一方、テスト数が限られ、包括的な評価やモデルカードの公開がこれからだと指摘されました。
さらに、研究結果と出荷モデルのスコア差や、APIの具体的な価格が示されていないことから、コスト比較の検証が困難だとの見方もあります。
SNS上では、既存モデルの重みを出発点にしている点や、効率向上の説明と実際の整合性を疑う意見も出ています。
Subquadraticは独立評価で数学的主張が裏付けられるかが焦点だとされ、同社の技術が長文AIの実用性をどこまで押し上げるか注目されています。
参照元:2026/05/06 「Miami startup Subquadratic claims 1,000x AI efficiency gain with SubQ model; researchers demand independent proof.」 https://venturebeat.com/technology/miami-startup-subquadratic-claims-1-000x-ai-efficiency-gain-with-subq-model-researchers-demand-independent-proof
この記事へのリアクション
このニュースをどう受け止めましたか?



コメント