手把手教你本地部署QwQ-32B:轻松吊打DeepSeek-R1蒸馏版!

就在昨天,阿里 Qwen(千问)团队发布并开源了一个“小而美”的推理模型:QwQ-32B

这个模型凭借其“娇小的身材”——32B 参数,即320亿,及其媲美大参数模型的性能——比如满血版 DeepSeek-R1,迅速走红。

截至写这篇文章,Qwen 的官宣帖阅读数已超过170万。



32B 这么小的参数量是什么概念?

意味着这个模型能够直接在消费级显卡上跑起来,比如英伟达的 RTX 30904090。具体说来,拥有 24 GB 显存的 GPU 即可以全精度运行 QwQ-32B 完整版模型。

相较于 DeepSeek-R1,它的满血版可是有 671B(6710亿)参数,约为 QwQ-32B 的20倍。同样的硬件配置,只能跑得起 DeepSeek-R1 的 32B 蒸馏小模型。

更详细的硬件配置需求,可以参考下面的这个表格自查。

而通过 Qwen 团队公布的 QwQ-32B 模型基准测试结果,在数学、代码方面完全可以不输于满血版的 DeepSeek-R1

具体看下图,红色柱是 QwQ-32B 的分数,蓝色柱是满血版 DeepSeek-R1 的得分。

但值得一提的是,虽然说 QwQ-32B 实力不俗,但要让它真正和满血版 DeepSeek-R1 在各方面大战一场,那必定是打不过的。连 Qwen 官方用的词都是“媲美”,这就能说明情况了吧。


之前曾出过一期教程:手把手教你本地部署DeepSeek-R1:3步搞定,有手就行!,其中详细介绍了如何在本地电脑上部署各个小参数的蒸馏版 DeepSeek-R1

现在,有了 QwQ-32B,这些蒸馏版模型可以彻底下岗了,毕竟参数又小,性能又强劲,何乐而不为。

部署方法大同小异,因为就在刚刚,Ollama 也添加了对 QwQ-32B 的支持。

1. 第1步:安装 Ollama

官网安装,命令行安装都可以。

划重点,之前已经安装过的可以自行忽略这一步。

https://ollama.com/

安装完成后,打开 终端 运行下面的命令。正常来说会输出Ollama的版本号,如“ollama version is 0.5.7”。

# 验证安装
ollama --version

第2步:下载 QwQ-32B 模型

QwQ-32B 模型参数约 32.8B,使用 Q4_K_M 量化版本,模型文件约 20GB,Apache 2.0 开源证书。

# 下载 QwQ-32B
ollama pull qwq

下载完成后,可以用下面这条命令验证模型,该命令会输出你通过 Ollama 安装的模型。如果一切正常,qwq 应该出现在输出列表中。

# 验证模型
ollama list

第3步:运行 QwQ-32B 模型

如果是通过客户端安装 Ollama,模型安装好后会自动进入交互式会话模式,此时你就可以和模型聊天了!

如果没有进入会话模式,用下面的命令启动模型。

# 运行模型
ollama run qwq

当然,也可以选择在第三方客户端里使用这个本地模型,比如 Chatbox,详情参考上一篇本地部署教程。

https://chatboxai.app/zh



如果你只是想单纯的使用这个模型,那么在 Qwen Chat 里或者 Hugging Face 里有现成的 QwQ-32B 可以使用。

  • Qwen Chat(通义千问海外版) :https://chat.qwen.ai
  • Hugging Face Demo :https://huggingface.co/spaces/Qwen/QwQ-32B-Demo
  • Hugging Face QwQ-32B 模型首页 :https://huggingface.co/Qwen/QwQ-32B




我是木易,一个专注AI领域的技术产品经理,国内Top2本科+美国Top10 CS硕士。

相信AI是普通人的“外挂”,致力于分享AI全维度知识。这里有最新的AI科普、工具测评、效率秘籍与行业洞察。

欢迎关注“AI信息Gap”,用AI为你的未来加速。



(文:AI信息Gap)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往