QwQ 是 Qwen 系列的推理模型,相比传统指令调优模型,QwQ 具备思考和推理能力,在下游任务尤其是难题上能取得显著性能提升。QwQ-32B 是中型推理模型,能够与 DeepSeek-R1、o1-mini 等最先进的推理模型取得竞争性性能。\
教程链接:https://go.openbayes.com/d6USh
使用云平台:OpenBayes\
http://openbayes.com/console/signup?r=sony\_0m6v
登录 http://OpenBayes.com,在「公共教程」页面,选择键部署 「一键部署 QwQ-32B-AWQ」教程。
页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
选择「NVIDIA GeForce RTX 4090」以及「vLLM」镜像,OpenBayes 平台上线了新的计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。可以使用文章开头的邀请链接,获得 RTX 4090 使用时长!
稍等片刻,待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。
进入网页后,即可与模型展开对话。在中间的输入框输入对话内容,模型支持文本输入、图片上传、文件上传和语音输入。
这里我们输入了一道数学题,可以看到模型很快给出了回复。并且相比传统指令调优模型,QwQ 具备思考和推理能力。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。