详细内容或原文请订阅后点击阅览
探索Qwen3.5家族:从小到大
阿里巴巴的 Qwen3.5 通过 MoE 稀疏性和原生视觉语言融合,将多模态智能和高级推理与超高效计算相结合。这个开放重量系列涵盖紧凑型设备型号到大型旗舰版本,为从智能手机到云规模服务器的所有设备带来了高性能人工智能。
来源:Qudata探索Qwen3.5家族:从小到大
阿里巴巴团队发布了最新一代开放权重大语言和多模态模型Qwen3.5。该系列突破了性能和效率的界限,在大幅减少计算预算的情况下实现高端功能。该版本与全行业向高效、可部署的人工智能的转变相一致:模型可以提供高级推理、编码、代理行为和本机多模态,同时适合消费类硬件、边缘设备、资源有限的服务器,甚至是本地/注重隐私的设置。
Qwen3.5 涵盖了广泛的尺寸和架构系列,从 10 亿参数下的超紧凑密集模型到总参数超过 3000 亿的大规模稀疏 MoE 旗舰。这种分层阵容使开发人员能够根据他们对延迟、吞吐量、内存占用、成本和功能的需求精确匹配模型。
在轻量化端,Qwen3.5小系列包括0.8B、2B、4B、9B参数四个型号。这些产品于 2026 年 3 月上旬发布(完成了 2 月中旬开始的系列推出),针对设备上和边缘部署进行了优化:智能手机、物联网设备、嵌入式系统和隐私敏感的本地推理。
它们通过混合注意力(用于线性时间缩放的门控增量网络)和最小化 VRAM 使用的技术等架构选择实现了显着的效率。即使是 9B 模型也可以在普通的消费级 GPU 或高端移动硬件上流畅运行。所有小型模型都继承本机多模态和 262,144 个令牌上下文窗口,使长文档处理和扩展对话在本地可行。
9B 变体作为最强大的小模型表现者脱颖而出,在推理、逻辑问题解决和指令遵循方面缩小了与大模型的大部分差距 - 部分归功于广泛的训练后强化学习。
在旗舰和中型 MoE 模型中,每个令牌仅激活一小部分参数:
