近日,阿里云正式发布Qwen3系列的8款开源混合推理模型。摩尔线程团队在模型发布当天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。这一成果充分展现了MUSA架构及全功能GPU在生态兼容性和快速支持能力方面的卓越表现。MUSA架构凭借其强大的易用性,不仅显著降低了开发者在适配迁移过程中的工作量,更大幅提升了开发效率,为创新成果的快速落地提供了坚实助力。
Qwen3作为国内首个“混合推理模型”,创造性将“快思考”与“慢思考”集成进同一个模型,在推理、指令遵循、智能体功能和多语言支持方面取得了突破性的进步。此次开源的两款MoE模型是Qwen3-235B-A22B和Qwen3-30B-A3B;同时还包括六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。
从官方发布的benchmark测试结果来看:Qwen3-235B-A22B在代码、数学、通用能力等基准测试中,成绩显著高于OpenAI-o1及Deepseek-R1版本。Qwen3-32B在各项测试中成绩同样优于OpenAI-o3-mini。
快速支持
开放体验Qwen3创新成果
摩尔线程现已将Qwen3系列模型的支持成果在“夸娥工场”开放上线。“夸娥工场”是摩尔线程倾力打造的模型展示与体验中心,旨在为用户提供基于夸娥(KUAE)智算集群支持的模型能力体验。用户可通过访问夸娥工场,亲身体验Qwen3强大的推理模型性能与创新技术。
目前,主流推理引擎均可基于摩尔线程MUSA平台运行Qwen3系列模型。MUSA平台凭借其卓越性能,能够作为vLLM、Ollama、GPU Stack等各类主流开源推理引擎的后端,为Qwen3系列模型的高效运行提供强大动力。
例如,QWen3-235B-A22B(Qwen3系列最大参数量模型),基于vLLM-MUSA引擎在摩尔线程全功能GPU上稳定运行。
同时,GPU Stack引擎与llama.cpp/ollama引擎也在摩尔线程图形显卡MTT S80上高效运行,充分展现了MUSA平台的广泛兼容性与卓越性能。
共建开源生态
持续推动国产GPU发展
摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。此前,在通义千问QwQ-32B发布当日,摩尔线程就成功实现了Day-0支持,这一成果充分验证了先进MUSA架构和全功能GPU的技术成熟度与可靠性。
我们诚挚欢迎广大开发者与用户前往“夸娥工场”进行体验,与此同时,开发者也可访问摩尔线程GitHub社区与开发者社区了解更多:
摩尔线程始终致力于推动开源生态的发展,通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为更多用户提供更智能、高效的解决方案。
关于摩尔线程
摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。
我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。
-
gpu
+关注
关注
28文章
4968浏览量
131675 -
模型
+关注
关注
1文章
3531浏览量
50578 -
摩尔线程
+关注
关注
2文章
242浏览量
5456
原文标题:Day-0支持|摩尔线程GPU率先支持Qwen3全系列模型
文章出处:【微信号:moorethreads,微信公众号:摩尔线程】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
广和通加速通义千问Qwen3在端侧全面落地
壁仞科技完成Qwen3旗舰模型适配
Arm CPU适配通义千问Qwen3系列模型
Intel OpenVINO? Day0 实现阿里通义 Qwen3 快速部署

NVIDIA RTX 5880 Ada与Qwen3系列模型实测报告

MediaTek天玑9400率先完成阿里Qwen3模型部署
后摩智能NPU适配通义千问Qwen3系列模型
中科曙光DeepAI深算智能引擎全面支持Qwen3
几B都有!BM1684X一键适配全系列Qwen3

壁仞科技完成阿里巴巴通义千问Qwen3全系列模型支持
摩尔线程GPU成功适配Deepseek-V3-0324大模型

评论