小白也能看懂的DeepSeek-R1本地部署指南

春节期间Deepseek凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是windows和mac双平台的部署。废话不多说,现在开始和大家一起部署。

一、基础环境搭建

(一)安装 Ollama

常规下载

首先,访问Ollama 官网 ,根据你的操作系统(Windows、Mac 或 Linux),选择对应的安装包进行下载。

我这里以mac和windows为例,如果大家安装不了,也可以在我的公众号nutpi回复“Ollama”获取快速下载链接。

image-20250205090605073

安装验证

安装完成后,为了确认 Ollama 是否成功安装,在终端输入ollama -v 。如果安装正确,终端会显示 Ollama 的版本号,这就表明你已经成功完成了基础环境搭建的第一步。

关于如何打开终端,我想说的是

mac的话,找到这个工具,

image-20250205174619586

windows的话,win+r输入cmd。

然后检查

ollama -v

image-20250205090902192

下载完成后,按照安装向导的提示逐步完成安装。在安装过程中,Ollama 服务会自动在电脑后台运行。

image-20250205093137733

二、模型部署

(一)依据硬件精准选型

打开Ollama 模型库 ,你会看到丰富多样的 DeepSeek-R1 模型版本,如 1.5B、7B、32B 等。根据自身电脑硬件配置来选择合适的模型版本至关重要。

以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。配置需求主要基于模型的显存(GPU)、内存(RAM)和计算资源需求,同时考虑不同平台的优化差异。


通用配置原则

  1. 模型显存占用(估算):

    • 每1B参数约需 1.5-2GB显存(FP16精度)或 0.75-1GB显存(INT8/4-bit量化)。
    • 例如:32B模型在FP16下需约 48-64GB显存,量化后可能降至 24-32GB
  2. 内存需求:至少为模型大小的2倍(用于加载和计算缓冲)。
  3. 存储:建议NVMe SSD,模型文件大小从1.5B(约3GB)到32B(约64GB)不等。

分平台配置建议

以下按模型规模和平台分类,提供 最低配置推荐配置

1.5B 模型
平台最低配置推荐配置
Windows- CPU: Intel i5 / Ryzen 5- CPU: Intel i7 / Ryzen 7
- RAM: 8GB- RAM: 16GB
- GPU: NVIDIA GTX 1650 (4GB)- GPU: RTX 3060 (12GB)
macOS- M1/M2 芯片(8GB 统一内存)- M1 Pro/Max 或 M3 芯片(16GB+)
Linux- CPU: 4核- CPU: 8核
- RAM: 8GB- RAM: 16GB
- GPU: NVIDIA T4 (16GB)- GPU: RTX 3090 (24GB)

7B/8B 模型
平台最低配置推荐配置
Windows- CPU: Intel i7 / Ryzen 7- CPU: Intel i9 / Ryzen 9
- RAM: 16GB- RAM: 32GB
- GPU: RTX 3060 (12GB)- GPU: RTX 4090 (24GB)
macOS- M2 Pro/Max(32GB 统一内存)- M3 Max(64GB+ 统一内存)
Linux- CPU: 8核- CPU: 12核
- RAM: 32GB- RAM: 64GB
- GPU: RTX 3090 (24GB)- 多卡(如2x RTX 4090)

14B 模型
平台最低配置推荐配置
Windows- GPU: RTX 3090 (24GB)- GPU: RTX 4090 + 量化优化
- RAM: 32GB- RAM: 64GB
macOS- M3 Max(64GB+ 统一内存)- 仅限量化版本,性能受限
Linux- GPU: 2x RTX 3090(通过NVLink)- 多卡(如2x RTX 4090 48GB)
- RAM: 64GB- RAM: 128GB

32B 模型
平台最低配置推荐配置
Windows- 不推荐(显存不足)- 需企业级GPU(如RTX 6000 Ada)
macOS- 无法本地部署(硬件限制)- 云API调用
Linux- GPU: 4x RTX 4090(48GB显存)- 专业卡(如NVIDIA A100 80GB)
- RAM: 128GB- RAM: 256GB + PCIe 4.0 SSD

平台差异说明

  1. Windows

    • 依赖CUDA和NVIDIA驱动,推荐使用RTX 30/40系列。
    • 大模型(14B+)需借助量化或模型分片技术。
  2. macOS

    • 仅限Apple Silicon芯片(M1/M2/M3),依赖Metal加速。
    • 模型规模超过14B时性能显著下降,建议量化或云端部署。
  3. Linux

    • 支持多GPU扩展和高效资源管理(如NVIDIA Docker)。
    • 适合部署大型模型(14B+),需专业级硬件。

注意事项

  • 量化优化:使用4-bit/8-bit量化可大幅降低显存需求(如bitsandbytes)。
  • 框架支持:优先选择优化好的库(如vLLM、DeepSpeed、HuggingFace)。
  • 散热:长时间推理需确保散热(建议风冷/水冷)。

建议根据实际需求选择硬件,并优先在Linux环境下部署大模型。

(二)顺利下载与稳定运行

确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端或 CMD 命令窗口,输入对应的运行指令:

image-20250205091111317

  • 若选择 1.5B 版本,输入ollama run deepseek-r1:1.5b 。
  • 若选择 7B 版本,输入ollama run deepseek-r1:7b 。我Mac选择的是这个。
  • 若选择 8B 版本,输入ollama run deepseek-r1:8b 。我win选择的是这个。
  • 若选择 32B 版本,输入ollama run deepseek-r1:32b 。

image-20250205091100152

image-20250205171906423

三、打造专属 AI 聊天室

(一)安装配置 “Cherry Studio”

  1. 下载

    前往Cherry Studio 官方网站,根据你的操作系统(支持 Windows、Mac 和 Linux)下载对应的安装包

    image-20250205103900851

  2. 安装

    下载完成后,对于 Windows 系统,双击安装包,按照安装向导提示完成安装,期间可能需要同意用户协议、选择安装路径等常规步骤;对于 Mac 系统,将下载的应用程序文件拖移到 “应用程序” 文件夹;

  3. 配置

    打开 Cherry Studio,在设置中找到 “模型设置” 选项。

  • 模型选择:从模型列表中选择与你本地部署的 DeepSeek-R1 模型版本对应的选项,如果没有直接匹配项,选择支持自定义模型配置的入口。
  • 自定义配置:在自定义配置中,将 API 地址设置为http://localhost:11434 ,这是 Ollama 服务的默认接口地址,确保 Cherry Studio 能连接到本地运行的 DeepSeek-R1 模型。
  • 模型参数设置:根据你的硬件配置和使用需求,设置模型的相关参数,如最大生成长度、温度等,一般默认参数即可满足常见需求,但对于特定任务,你可以适当调整,比如生成创意文本时,可将温度调高至 0.8 - 1.0,以增加文本的多样性;进行严谨的知识问答时,可将温度调低至 0.5 - 0.7 ,使回答更稳定。
  • API密钥大家随意设置就好,然后点击检查就好。

image-20250205104328495

配置完成后大家记得默认模型也可以配制成deepseek。

image-20250205173929210

(二)安装配置Chatbox 客户端

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用

为了更便捷地与部署好的 DeepSeek-R1 模型进行交互,你可以下载开源客户端 Chatbox。访问官网 即可进行下载。Chatbox 支持中文界面与 Markdown 渲染,使用起来非常方便。

下载安装好 Chatbox 后,打开软件进行关键配置:

  • API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。
  • 接口地址:填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。
  • 模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写deepseek-r1:7b ,否则可能会导致连接失败。

image-20250205091247768

image-20250205103704456

通过以上步骤,你不仅可以使用 Cherry Studio还能通过Chatbox 与本地部署的 DeepSeek-R1 模型进行交互。希望大家都能顺利部署,开启属于自己的 AI 探索之旅。大家遇到问题也可以在后台私信我。

四、如何使用 DeepSeek

1.给大家一个公式

  1. 身份:你是谁?(学生/打工牛马/…)
  2. 任务:要解决什么问题?(写报告/做计划/分析数据…)
  3. 细节:限制条件是什么?(时间/场景/禁忌…)
  4. 格式:想要什么形式的结果?(表格/分段/口语化…)
  5. 套用公式

    按“身份→任务→细节→格式”顺序重组问题:
    \> “作为(身份),请(任务),要求(细节),用(格式)输出” 。

不信你试试。

请给出本地部署deepseek的电脑配置,要求包含每一个模型1.5b,7b,8b,14b,32b等,以及windows。mac。linux三个平台的硬件参数

参考

Ollama 官网

Ollama 模型库

Cherry Studio 官方网站

Chatbox官网

坚果派


坚果
80 声望9 粉丝