群发资讯网

千问大模型:Qwen3.5-Flash来袭,三款中等规模模型全开源

2月25日消息,据千问大模型官方微博,今天,千问大模型正式开源千问3.5最新中等规模模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。

千问大模型表示,Qwen3.5-35B-A3B的表现已超越前代更大规模模型Qwen3-235B-A22B-2507及Qwen3-VL-235B-A22B,而Qwen3.5-122B-A10B与27B版本进一步缩小了中等规模模型与前沿模型的差距,尤其在复杂代理场景中表现优异。这表明性能超越规模,不再单纯依赖参数堆叠,而是通过架构优化、数据质量提升及强化学习推动智能发展。为了更好地帮助开源社区的深入研究,我们同步开源Qwen3.5-35B-A3B-Base供大家使用。

以下为微博原文:

Qwen3.5-Flash来袭!三款中等规模模型全开源

今天,我们正式开源千问3.5最新中等规模模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。

Qwen3.5-35B-A3B的表现已超越前代更大规模模型Qwen3-235B-A22B-2507及Qwen3-VL-235B-A22B,而Qwen3.5-122B-A10B与27B版本进一步缩小了中等规模模型与前沿模型的差距,尤其在复杂代理场景中表现优异。这表明性能超越规模,不再单纯依赖参数堆叠,而是通过架构优化、数据质量提升及强化学习推动智能发展。为了更好地帮助开源社区的深入研究,我们同步开源Qwen3.5-35B-A3B-Base供大家使用。

架构进化,性能突破:

Qwen3.5采用混合注意力机制,结合高稀疏的MoE架构创新,并基于更大规模的文本和视觉混合Token上训练,Qwen3.5-122B-A10B与Qwen3.5-35B-A3B以更小的总参数和激活参数量,实现了更大的性能提升。

在指令遵循(IFBench)、博士级别推理(GPQA)、数学推理(HMMT25)、多语言知识(MMMLU)、Agent工具调用(BFCLv4)、AgenticCoding(SWE-benchVerified)等多个权威榜单上,新模型均超越了远大于其规模的Qwen3-235B-A22B模型及Qwen3-VL,以及GPT-5mini、gpt-oss-120b等模型。

开发者友好,适合本地部署:

Qwen3.5的首个密集(Dense)模型Qwen3.5-27B此次惊艳亮相,拥有更强的Agent能力和原生多模态能力,在工具调用、搜索、编程等多个Agent评测中均超过了GPT-5mini,在视觉推理、文本识别和理解、视频推理等多项视觉理解榜单中,超过了Qwen3-VL旗舰模型和ClaudeSonnet4.5。Qwen3.5-27B可运行于单个GPU,对于本地部署极为友好。

Qwen3.5-Flash(Qwen3.5-35B-A3B生产版本)API服务:

●Qwen3.5-Flash在阿里云百炼上线,每百万Token价格低至0.2元,性能强,速度快,性价比极高,适合开发者和企业的规模化、生产级的模型需求。

●默认支持1M超长上下文长度,满足长文档与复杂任务处理需求。

●官方内置工具支持,降低集成成本,加速应用落地。

目前,3款模型均已在魔搭社区、HuggingFace开源上线,同时,我们还一并开源了Qwen3.5-35B-A3B-Base基座模型,以支持社区研究、微调创新与二次开发。开发者可前往QwenChat免费体验新模型,或通过阿里云百炼获取Qwen3.5-Flash模型API服务。