头图

前言

2025 年 1 月 27 日,DeepSeek 在苹果中美两区的 App 免费榜单双双登顶,超越了长期占据榜单的 GPT,这一突破性进展引发了投资者的广泛关注,甚至导致英伟达股价大幅下跌。从那时起,DeepSeek 一举成为网络热点,广受关注,各大媒体纷纷报道。DeepSeek 之前开源的 DeepSeek-R1 蒸馏模型,也吸引了大量用户在本地设备上部署这一开源版本。

本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在 VS Code 中集成 DeepSeek 等。

准备好了吗?准备一杯你最喜欢的咖啡或茶,随着本文一探究竟吧。

Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。

主要特点

  • 本地运行:Ollama 允许用户在本地计算机上运行大型语言模型,而不需要依赖云服务。这对于数据隐私和安全性要求较高的场景非常有用。
  • 简单易用:通过命令行工具,用户可以轻松地下载、安装和运行模型。Ollama 提供了简单的命令来启动模型并与模型进行交互。
  • 支持多种模型:Ollama 支持多种流行的语言模型,包括 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2 等。用户可以根据自己的需求选择合适的模型。
  • 跨平台支持:Ollama 支持多种操作系统,包括 Linux、macOSWindows,用户可以在不同的平台上使用相同的工具。
  • 开源:Ollama 是一个开源项目,用户可以自由地查看、修改和分发其代码。

安装

Ollama 下载页面:https://ollama.com/download,我们可以根据自己操作系统类型选择不同的下载方式。

在 Windows 下安装

下载 OllamaSetup.exe 文件之后,打开文件,点击 Install 后等待安装完成。

安装完成后,打开 cmd 命令行窗口,输入 ollama -v 验证是否安装成功。

在 Mac 下安装

下载 Ollama-darwin.zip 文件之后,解压并打开执行文件安装即可。


安装完成之后,打开终端,输入 ollama -v 验证是否安装成功。

在 Linux 下安装

运行以下命令进行安装:

curl -fsSL https://ollama.com/install.sh | sh

Deepseek

DeepSeek 是一家创新型科技公司,长久以来专注于开发先进的大语言模型(LLM)和相关技术。该公司推出了比较出名的模型有 DeepSeek-V3DeekSeek-R1DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72BLlama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

本地部署


前面我们已经安装好了 Ollama,接下来可以借助 Ollama 工具来部署 Deepseek 大模型。

首先,访问 Deepsee Modeldeepseek-r1 模型页面:https://ollama.com/library/deepseek-r1。在这个页面中,我们可以看到 1.5b7b 等不同规模的模型版本,每个版本右侧会明确标注每个版本所需的显存配置。

其次,根据自己电脑的显卡配置选择合适的版本。例如,部署 deepseek-r1:7b 版本:

$ ollama run deepseek-r1:7b
pulling manifest 
pulling 96c415656d37... 100% ▕████████████████▏ 4.7 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling 40fb844194b2... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success

部署完成后,我们就可以与 Deepseek 大模型进行对话了:

>>> 你好
<think>

</think>

你好!很高兴见到你,有什么我可以帮忙的吗?无论是学习、工作还是生活中的问题,
都可以告诉我哦!😊

ChatBox

通过 Ollama 部署 Deepseek 模型之后,我们就可以在终端与其进行对话了。由于是在终端里面,交互体验相对较为简洁和不够直观,长时间的对话可能会让操作变得不够流畅。为了更方便地与模型进行对话,我们可以使用可视化的聊天项目,例如 Open WebUIChatBox 等。通过这些工具,我们能够获得更加直观和流畅的交互体验。接下来将演示如何安装并通过 ChatBox 使用 Deepseek

安装

  • 然后打开 Chatbox。首次打开我们会看到以下选项,选择 “使用自己的 API Key 或本地模型”,然后在新的标签页里选择 Ollama API


  • 接下来,我们能在模型列表里看到通过 Ollama 所部署的大模型,选择 deepseek-r1:7b,然后点击保存。

  • 保存之后,我们就可以在对话框里与 Deepseek 大模型进行对话了。

在 VS Code 里集成 Deepseek

接下来,我将演示如何在 VS Code 中通过 Continue 插件集成 DeepseekContinue 是一款领先的开源 AI 代码助手。我们可以将任意模型和上下文连接起来,在 VS CodeJetBrains 中构建定制化的自动补全和聊天功能。

  • 首先,安装 Cotinue 插件。

  • 其次,点击 Add Chat model 添加模型。

  • 接下来,Provider 选项选择 Ollama,Model 选项选择 Autodetect,然后点击 Connect,这样就可以自动选择我们刚才所部署的 deepseek-r1:7b 模型了。


  • 对话测试与代码生成测试:


在 JetBrains 系列开发工具中集成 DeepSeek 的方式,与在 VS Code 中的集成方法类似。

小结

借助 Ollama 工具,本地部署 DeepSeek 蒸馏模型的过程非常简单。然而,需要注意的是,本地部署的 DeepSeek 大模型在性能上与官网提供的在线版本存在显著差距,尤其是在模型的思考能力和响应速度方面。除非拥有高性能显卡以支持部署更强大的蒸馏模型,并能够进行本地数据训练,否则建议优先使用官方提供的 Web 版或 App 版本,以获得更优质的使用体验。


你好,我是陈明勇,一名热爱技术、乐于分享的开发者,同时也是开源爱好者。

成功的路上并不拥挤,有没有兴趣结个伴?

关注我,加我好友,一起学习一起进步!


陈明勇
23 声望6 粉丝

一个热爱技术,喜欢专研技术的程序员。