AlibabaのQwen Teamは2026年4月22日、Qwen3.6ファミリーの新モデル「Qwen3.6-27B」を公開しました。
同モデルはQwen3.6系列で初の「密(dense)なオープンウェイト」モデルで、エージェント型のコーディング性能を強化しています。
Qwen3.6-27Bは、同系列の前モデルやより大規模なMoEモデルを、複数のエージェント系ベンチマークで上回ったとされています。
また、会話の過去ターンにおける推論を保持して活用する「Thinking Preservation」機能を導入しました。
これにより、反復的なエージェント運用で毎ターンの推論を作り直す負担を減らし、トークン消費やKVキャッシュ効率の改善が見込めるとしています。
モデルはHugging Face Hubで、BF16版の「Qwen/Qwen3.6-27B」とFP8量子化版の「Qwen/Qwen3.6-27B-FP8」を提供します。
両方の重みは、SGLangやvLLM、Hugging Face Transformersなどで利用可能です。
アーキテクチャはGated DeltaNetによる線形注意と、従来型のself-attentionを組み合わせたハイブリッド構成で、コンテキスト長はネイティブで262,144トークン、YaRNで最大約1,010,000トークンまで拡張できます。
ライセンスはApache 2.0です。
参照元:2026/04/23 「Alibaba Qwen Team Releases Qwen3.6-27B: A Dense Open-Weight Model Outperforming 397B MoE on Agentic Coding Benchmarks」 https://www.marktechpost.com/2026/04/22/alibaba-qwen-team-releases-qwen3-6-27b-a-dense-open-weight-model-outperforming-397b-moe-on-agentic-coding-benchmarks/



コメント