DeepSeek AI:满血版R1平替、本地部署攻略
最近 DeepSeek 有多火爆就不多说了。热度蹭蹭地往上涨!!!
不过,也正因如此,导致很多人想用而用不上。。。
经常是 DeepSeek「服务器繁忙,请稍后再试」的提示,严重影响大家使用~
为了解决这个问题,我来分享下“在线使用DeepSeek”的两种方法。
许多读者都说很实用,解决了燃眉之急。
一、DeepSeek R1 满血平替:
- DeepSeek R1满血版:chat.deepseek-free.org 支持 DeepSeep R1满血版、V3模型~
- 秘塔 AI:https://metaso.cn/
- 纳米 AI:https://www.n.cn/
- POE:https://poe.com/DeepSeek-R1
- 国家超算互联网:https://chat.scnet.cn/
二、本地部署攻略:
推荐使用 Ollama 工具进行本地部署。Ollama不仅支持 DeepSeek,还可以运行其他多种AI模型~
1. 下载 Ollama
首先访问 Ollama官方网站,根据你电脑的系统,下载对应版本的 Ollama,然后安装即可。
Ollama是一个用于本地运行和管理 AI 模型的工具,用于与各种模型进行交互。
你也可以在电脑上看到 Ollama 的图标,双击打开即可。
2. 下载 DeepSeek R1 模型
接下来需要打开电脑的终端命令行工具,输入命令 ollama run deepseek-r1:32b,后面的是模型尺寸
接着就可以正常下载 DeepSeek R1模型了
3. 测试 DeepSeek
下载完成后,直接在终端与 DeepSeek 对话,例如输入:“介绍一下你自己”。然后等待 DeepSeek 思考并回复即可。
4. 常用命令
整理一些常用 Ollama 命令,使用时将 {model\_name} 替换成具体模型名称
- 安装模型:ollama pull {model\_name}
- 运行模型:ollama run {model\_name}
- 删除模型:ollama rm {model\_name}
- 列出已安装模型:ollama list
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。