跳动百科

​阿里新开源推理大模型QwQ-32B,性能媲美DeepSeek-R1、显存需求更小

萧达璐   来源:网易

阿里云近日宣布开源其最新研发的大规模语言模型QwQ-32B,该模型在保持高性能的同时,还具有更低的显存需求。QwQ-32B的性能与市场上现有的顶级模型DeepSeek-R1相当,但其显存需求却显著降低,这使得它能够在更多类型的硬件上运行,为开发者提供了更大的灵活性。

QwQ-32B基于Transformer架构,拥有320亿参数,经过了大规模训练数据的优化,可以用于各种自然语言处理任务,包括但不限于文本生成、机器翻译、问答系统等。阿里云表示,他们采用了创新的技术来减少模型的显存占用,这使得QwQ-32B不仅可以在高端GPU上高效运行,也可以在中低端设备上使用,极大地拓宽了应用场景。

此外,阿里云还承诺将对QwQ-32B进行持续维护和更新,以确保其始终处于最佳状态。对于希望探索大型语言模型潜力的研究人员和开发人员来说,QwQ-32B无疑是一个非常有吸引力的选择。