阿里通义开源Qwen3.6-35B-A3B:MoE架构高效推理,350亿参数仅激活30亿

时间:2026年4月20日

地点:中国杭州

人物:阿里通义实验室

事件详情:阿里通义实验室宣布开源Qwen3.6-35B-A3B,一款采用稀疏混合专家架构的高效模型。该模型总参数350亿,每次推理仅激活30亿参数,在保持强大能力的同时大幅降低推理成本。相比前代Qwen3.5-35B-A3B,新模型在多项基准测试中表现更优。

背景:MoE架构是当前大模型的重要技术方向,通过稀疏激活实现效率与能力的平衡。通义团队在MoE领域持续深耕,Qwen3.6-35B-A3B代表了该系列模型的最新进展。

影响:
- 降低企业使用大模型的算力门槛和成本
- 推动MoE技术在开源社区的普及
- 为中小团队提供高性能低成本AI选择

总结:阿里通义Qwen3.6-35B-A3B的开源,为开发者提供了又一款高效能的MoE模型选择,有助于推动AI技术的普惠化应用。

参考来源:
- https://www.oschina.net/news/industry
- https://qwenlm.github.io/
- https://github.com/QwenLM/Qwen3
- https://huggingface.co/Qwen
- https://modelscope.cn/models/Qwen