3月6日,阿里云团队正式开源全新推理模型——通义千问QwQ-32B。摩尔线程在该模型发布后2小时内,迅速且高效完成了对千问QwQ-32B的支持。基于大语言模型高速推理框架vLLM以及MT Transformer推理引擎部署的QwQ-32B,在实际运行中展现出了卓越的推理性能与稳定性,充分印证了MUSA架构和全功能GPU在生态兼容与快速支持方面的强大优势。

摩尔线程将这一成果开放上线至模型广场“夸娥工场”。夸娥工场是摩尔线程倾力打造的模型展示中心,旨在为用户提供基于摩尔线程夸娥(KUAE)智算集群支持的模型能力体验。用户通过访问夸娥工场或点击“阅读原文”,即可体验QwQ-32B强大的推理模型性能与创新技术。
▼ 夸娥工场体验地址:
https://playground.mthreads.com
▼ QwQ-32B体验地址:
https://playground.mthreads.com:12019
千问QwQ-32B是阿里探索推理模型的最新成果。在一系列权威基准测试中,千问QwQ-32B 模型表现异常出色,几乎完全超越了OpenAI-o1-mini,比肩最强开源推理模型DeepSeek-R1。尽管该模型仅包含32B参数,但通过大规模强化学习训练,其在数学、编程及通用能力等领域实现了显著突破,展现了卓越的智能化水平。

从官方发布的benchmark测试对比图中可以清晰地看到,QwQ-32B在各项测试中成绩显著高于OpenAI-o1-mini及Deepseek的各个蒸馏版本。在LiveBench与BFCL测试中甚至击败了满血版的Deepseek-R1-671B。
从DeepSeek一系列模型的问世,到阿里云通义千问QwQ-32B的发布,这些开源大模型降低了开发门槛,激发了开源社区创新活力,极大地推动了AI技术的普及与发展。它们用实打实的表现证明,开源大模型凭借其强大的性能和灵活性,正在突破传统技术局限,成为不可阻挡的发展趋势。
摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。摩尔线程仅用一周时间就火速支持了DeepSeek开源周“全家桶”,对千问QwQ-32B更实现了Day0级支持,充分验证了摩尔线程先进MUSA架构和全功能GPU的技术成熟度。
版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。