被Deepseek卡到崩溃?3步本地部署,告别网络焦虑!

最近,Deepseek可太火了,用的人越来越多,问题也接踵而至。不管是手机版还是网页版,经常碰上服务器繁忙,压根用不了。特别是在和它反复沟通优化一个问题时,突然被中断,那感觉,别提多糟心了!

想要彻底解决这个麻烦,本地化部署势在必行。今天我就手把手教大家,通过3个简单步骤,在本地部署Deepseek大模型,以后就算没网也能畅快使用!操作超简单,小白跟着做也能轻松上手。大家先点赞收藏,以防后面找不到啦!

本地部署硬件得达标

Deepseek本地部署的硬件要求,会根据模型大小有所不同。下面是详细的硬件要求表格:

模型版本CPU内存显卡存储网络
DeepSeek-R1-1.5B任意四核处理器8GB无需GPU12GB本地部署无需高带宽,云端需≥100Mbps
DeepSeek-R1-7BRyzen 7或更高16GBRTX 3060(12GB)或更高80GB本地部署无需高带宽,云端需≥100Mbps
DeepSeek-R1-14Bi9-13900K或更高32GBRTX 4090(24GB)或更高200GB本地部署无需高带宽,云端需≥100Mbps
DeepSeek-R1-32BXeon 8核+128GB或更高64GB2 - 4张A100 80GB或更高320GB多卡需PCIe 4.0互联,云端部署建议≥1Gbps带宽
DeepSeek-R1-70BXeon 8核+128GB或更高128GB8+张A100/H100,显存≥80GB/卡500GB+NVIDIA NVLink/InfiniBand(≥200Gbps)互联

从表格能看出,对个人用户来说,DeepSeek-R1-7B模型是最适配的。它既能满足咱们日常大多数需求,硬件条件也基本在大部分电脑的承受范围内。今天我就主要带大家部署这个模型。

第一步:把Ollama请回家

Ollama是个超厉害的开源本地化大模型部署工具,有了它,安装、运行和管理大语言模型(LLM)都变得超简单。

  1. 打开浏览器,访问Ollama官网:https://ollama.com/ ,根据自己的操作系统,下载对应的安装包。我用的是Windows系统,要是大家下载不了或者速度太慢,我准备了安装包,链接放到文末了,大家自行下载就行。

  1. 下载好后,双击安装包,按照提示一步步完成安装。安装结束,咱们来检查一下是否安装成功。同时按下win+R键,调出运行窗口,输入“cmd”后回车,打开cmd命令窗口。在里面输入“ollama”,再回车,如果出现的界面和下图一样,那就说明Ollama成功安装啦!


完成Ollama  下载后我们打开cmd命令窗口(快捷键win+R,输入“cmd”按回车)输入ollama 按回车,如果显示和下图一样表示安装成功

第二步:把DeepSeek模型抱回家

  1. 回到Ollama网站,点击右上角的“Models”按钮。
  2. 在搜索栏输入“DeepSeek”进行搜索,找到DeepSeek-r1,咱们这次要的是7b模型,直接点进去,然后点击右边的复制按钮,把下载命令复制下来。

  1. 回到刚才的cmd界面,把复制的代码粘贴进去,再敲一下回车,接下来就耐心等待模型下载吧。当看到“success”字样,就代表下载完成咯!

第三步:想要可视化界面?请chatboxai来助力

chatboxai是个超实用的大模型可视化工具,有了它,就能创建一个直接和大模型对话的窗口。

  1. 下载chatbox,链接同样在文末,大家自行下载就可以 ,下载并完成安装。

  1. 安装好后,按照下图进行操作,添加模型并完成配置。

到这儿,本地部署就大功告成啦!大家可以尽情享受Deepseek带来的便捷,再也不用担心网络和服务器的问题!

好啦,以上就是DeepSeek本地部署的全部流程,是不是超级简单?大家赶紧动手试试。要是过程中有任何问题,欢迎随时留言。如果这篇教程帮到了你,记得点赞+在看,你们的支持就是我持续更新的最大动力!

Ollama和chatbox下载地址https://tool.nineya.com/s/1ij2vkn00

本文由mdnice多平台发布


已注销
1 声望0 粉丝