前言

DeepSeek推出更强大的推理模型DeepSeek R1后一发不可收拾,迅速火遍全球,用户暴增,但巨大的流量以及一些不可控因素,DeepSeek官网变得极不稳定,经常出现“网络繁忙”。

最近,各大厂商包括阿里在内的各种大模型应用纷纷接入DeepSeek,一方面为自己的用户提供更加极致的体验,另一方面也为“Deepseek难民”提供了又快又稳的新通道。

就在近日,国内知名的厂商阿里云宣布接入DeepSeek-R1,具体版本是“DeepSeek R1 671B”,这可是DeepSeek-R1的联网满血版本,双核驱动效果1+1>2,体验上比原版更胜一筹。四种方案让你零门槛,即刻拥有DeepSeek-R1满血版。趁热乎感觉挑选一个适合自己的方案来尝尝鲜吧!

产品介绍 DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。 本方案涵盖云上调用满血版 DeepSeek 的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可部署实现。 解决方案链接: https://www.aliyun.com/solution/tech-solution/deepseek-r1-for...

1.一睹为快(四种方案)

先跟随宏哥一起来看看有那四种方案,如下图所示:

通过上图我们都大致了解了,有这四种解决方案。那接下来跟随宏哥的脚步来逐个体验一下吧!

2.二尝为鲜

2.1方案一:基于百炼 API 调用满血版(开箱即用)

2.1.1准备账号

  1. 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
  2. 如果是首次使用阿里云百炼,请先开通百炼模型服务,登录阿里云百炼大模型服务平台,根据下图提示进行开通,进行备用,如下图所示:

    如果顶部显示如下消息,您需要开通百炼的模型服务,以获得免费额度。

    image

百炼平台通过API调用DeepSeek系列模型的方法 。其中 deepseek-r1 与 deepseek-v3 分别有 100万的免费 Token,部分蒸馏模型限时免费体验。

这里只推荐使用deepseek-r1 与 deepseek-v3,其他效果略差。有人会问,你都没有试用了,怎么知道呢?呵呵,看价格啊,就知道了。如下图所示:

2.1.2获取百炼 API-KEY

  1. 登录阿里云百炼大模型服务平台
  2. 鼠标悬停于页面右上角的image图标上,在下拉菜单中单击API-KEY。如下图所示:
    6EB46A~1
  3. 在左侧导航栏,选择全部API-KEY或我的API-KEY,然后创建或查看 API-KEY,最后复制 API-KEY 以便在下一步骤中使用。

2.1.3使用 Chatbox 客户端配置 百炼 API 进行对话

  1. 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
    image
  2. 运行并配置百炼 API ,单击设置,如下图所示:
    image
  3. 在弹出的看板中按照如下表格进行配置,如下图所示:

    项目说明示例值
    模型提供方下拉选择模型提供方。添加自定义提供方
    名称填写定义模型提供方名称。百炼 API
    API 域名填写模型服务调用地址。https://dashscope.aliyuncs.com/compatible-mode/v1
    API 路径填写模型服务调用路径。/chat/completions
    API 密钥填写模型服务调用 API 密钥。填写 上一步骤获取的百炼 API-KEY
    模型填写调用的模型(本方案以 deepseek-r1 模型为例,可自行配置其它模型进行体验)。deepseek-r1
  4. 最终配置如下图所示,然后单击保存,如下图所示:

    image

  5. 在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:
    image

到此,第一种方案就已经体验完成,是不是很简单,不到五分钟就完事了。

2.2方案二:基于人工智能平台 PAI 部署

2.2.1准备账号

  1. 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。

2.2.2部署 DeepSeek-R1 模型

Model Gallery 集成了众多AI开源社区中优质的预训练模型,方便用户快速选择和应用所需模型。在Model Gallery 中选中合适的模型并点击部署,系统将触发 PAI-EAS 的部署流程。PAI-EAS 支持将模型服务部署在公共资源组或专属资源组,实现基于异构硬件(如 CPU 和 GPU )的模型加载和数据请求的实时响应。

  1. 登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮,如下图所示:
    image
  2. 开通成功后,点击进入控制台按钮,如下图所示:
    image
  3. 在工作空间页面的左侧导航栏选择 Model Gallery,如下图所示:
    image
  4. 在搜索框中输入DeepSeek-R1,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B,如下图所示:
    image
  5. 点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮,如下图所示:
    image
  6. 在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:ml.gu7i.c8m30.1-gu30,如下图所示:
    image

    说明:如果当前地域的资源不足,您还可以选择 V100(ecs.gn6e-c12g1.3xlarge)或 A10(ecs.gn7i-c8g1.2xlarge)类型的资源规格

  7. 其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮,如下图所示:
    image
  8. 部署完成后,如下图所示:
    image
  9. 单击查看调用信息,在弹出的看板中选择公网地址调用,复制保存访问地址和 Token ,如下图所示:
    image

2.2.3使用 Chatbox 客户端配置 vLLM API 进行对话

  1. 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
    image
  2. 运行并配置 vLLM API ,单击设置,如下图所示:
    image
  3. 在弹出的看板中按照如下表格进行配置,如下图所示:

    项目说明示例值
    模型提供方下拉选择模型提供方。添加自定义提供方
    名称填写定义模型提供方名称。PAI DeepSeek-R1
    API 域名填写模型服务调用地址。前面步骤获取的调用信息,访问地址
    API 路径填写 API 路径。/v1/chat/completions
    API 密钥填写模型服务调用 API 密钥。前面步骤获取的调用信息,Token
    模型填写调用的模型。DeepSeek-R1-Distill-Qwen-7B
  4. 最终配置如下图所示,然后单击保存,如下图所示:

    image

  5. 在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:
    image

2.2.4PAI-EAS 管理模型服务

  1. 点击PAI 控制台左侧导航栏中的模型在线服务 (EAS)可以看到当前部署的服务,如下图所示:
    image
  2. 点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。
    image

2.2.5清理资源(牢记)

若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。

  1. 删除 1 个 PAI-EAS 模型服务:点击PAI 控制台左侧导航栏中的模型在线服务 (EAS)。找到目标服务,单击右侧操作列的删除,如下图所示:
    image

2.3基于函数计算FC一键部署

2.3.1准备账号

  1. 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。

2.3.2开通函数计算服务

  1. 访问函数计算首页
  2. 单击管理控制台,然后单击立即购买即可自动开通服务,进入函数计算控制台
    说明

    • 建议您使用阿里云账号开通服务,RAM用户使用服务。
    • 如果您之前已开通过函数计算服务,页面将直接跳转至函数计算控制台
  3. 可选:首次登录用户,界面弹出推荐您创建 AliyunFcDefaultRole 默认角色对话框,单击创建,页面跳转至角色快捷创建页面,为您的账号创建默认角色AliyunFCDefaultRole。

2.3.3部署 DeepSeek-R1 模型

  1. 请点击前往部署打开我们提供的云原生应用开发平台 CAP 项目模板,本方案地域以华北2(北京)为例,其他参数选择默认配置,直接单击部署项目,最后在弹出面板中单击确认部署,部署预计等待 10~12 分钟。如下图所示:
  2. 首次使用云原生应用开放平台 CAP 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。
  3. 部署完成后,类似下图所示:
    image

2.3.4访问示例应用

  1. 应用部署完成之后按照下图找到访问地址,如下图所示:
    image
  2. 点击访问地址,即可打开示例应用,如下图所示:
    image

2.3.5与模型对话

1.在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:

image

2.3.6修改 Ollama 模型服务配置(可选)

1.按照下图所示,通过修改模型服务预留实例数的配置,来实现实例伸缩,如下图所示:

image

2.3.7使用 Chatbox 客户端配置 Ollama API 进行对话(可选)

  1. 获取 API 接入地址,按照下图所示,复制访问地址。
    image
  2. 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
    image
  3. 运行并配置 Ollama API ,单击设置。
    image
  4. 下拉选择模型提供方Ollama API,填写 API 域名(步骤 1 中获取的访问地址),下拉选择模型cap-deepseek-r1:latest,最后单击保存,如下图所示:

    image

  5. 在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:
    image

2.3.8清理资源(牢记)

在本方案中,您创建了 1 个云原生应用开发平台 CAP 项目,测试完方案后,您可以参考以下规则处理对应产品的实例,避免继续产生费用:

  1. 删除云原生应用开发平台 CAP 项目:
    登录云原生应用开发平台 CAP 控制台,在左侧导航栏,选择项目,找到部署的目标项目,在操作列单击删除,然后根据页面提示删除项目。
    image

2.4基于GPU 云服务器部署

2.4.1准备账号

  1. 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。

2.4.2创建专有网络 VPC 和交换机

您需要创建专有网络 VPC 和交换机,为云服务器 ECS 实例构建云上的私有网络。

  1. 登录专有网络管理控制台
  2. 在顶部菜单栏,选择华东 1(杭州)地域。
  3. 在左侧导航栏,单击专有网络。
  4. 专有网络页面,单击创建专有网络。
  5. 创建专有网络页面,配置 1 个专有网络和 1 台交换机。配置交换机时,请确保交换机所属的可用区的 ECS 处于可用状态。

    项目说明示例值
    VPC 名称建议您在部署过程中新建一个 VPC 作为本方案的专有网络。部署过程中填写 VPC 名称即可创建对应名称的 VPC。长度为 2~128 个字符,以英文大小写字母或中文开头,可包含数字、下划线(_)和连字符(-)。VPC_HZ
    IPv4 网段在创建 VPC 时,您必须按照无类域间路由块(CIDR block)的格式为您的专有网络划分私网网段。阿里云 VPC 支持的网段信息请参见专有网络组成部分192.168.0.0/16
    交换机名称建议您在部署过程中在新建的 VPC 内创建虚拟交换机。部署过程中填写交换机名称即可创建对应名称的虚拟交换机。长度为 2~128 个字符,以英文大小写字母或中文开头,可包含数字、下划线(_)和连字符(-)。vsw
    可用区建议选择排序靠后的,一般此类可用区较新。新可用区资源更充沛,新规格也会在新的可用区优先上线。杭州 可用区 J

2.4.3创建安全组

您已经创建了专有网络 VPC 和交换机。接下来您需要创建 1 个安全组,用于限制该专有网络 VPC 下交换机的网络流入和流出。

  1. 登录ECS 管理控制台
  2. 在左侧导航栏,选择网络与安全>安全组。
  3. 在顶部菜单栏,选择华东 1(杭州)地域。
  4. 安全组页面,单击创建安全组。
  5. 创建安全组页面,创建 1 个安全组。

    项目说明示例值
    名称设置安全组的名称。sg
    网络选择之前规划的专有网络 VPC。VPC_HZ
    安全组类型本方案用于为个人用户或组织的基础场景提供网络访问控制,建议您选择普通安全组。普通安全组
    入方向本方案需要确保 22、8000、8080 端口号开启。2280008080

2.4.4创建 GPU 云服务器

您已经创建好专有网络 VPC 和交换机等资源。接下来您需要创建 1 台 GPU 云服务器实例,用于部署应用程序。

  1. 登录ECS 管理控制台
  2. 在左侧导航栏,选择实例与镜像 > 实例。
  3. 在顶部菜单栏,选择华东 1(杭州)地域。
  4. 实例页面,单击创建实例。
  5. 下表中未说明的参数,在本方案中可使用默认值。

    项目说明示例值
    付费类型付费类型影响实例的计费和收费规则。ECS 计费的详细信息请参见计费方式概述按量付费
    地域实例所在地域华东 1(杭州)
    网络及可用区选择刚刚创建的专有网络 VPC 和交换机。VPC_HZ、vsw
    实例ECS 的实例规格及内核、vCPU 数量。关于 ECS 选型的最佳实践请参见实例规格选型指导。说明建议选择配备 24GB 及以上 GPU 显存的实例,例如 ecs.gn7i-c16g1.4xlarge、ecs.gn7i-c8g1.2xlarge。ecs.gn7i-c32g1.8xlarge
    镜像ECS 的“装机盘”,为 ECS 实例提供操作系统、预装软件等。公共镜像中选择Alibaba Cloud Linux
    镜像版本镜像的版本。Alibaba Cloud Linux 3.2104 LTS 64位
    安装 GPU 驱动 image勾选安装 GPU 驱动,在下拉列表中选择CUDA 版本 12.4.1 / Driver 版本 550.127.08 / CUDNN 版本 9.2.0.82
    系统盘类型硬盘类型。ESSD 云盘
    系统盘容量硬盘容量。100 GiB
    公网 IP访问公网并对外提供网络服务。选中分配公网 IPv4 地址
    带宽计费方式由于本方案为解决方案示例,因此选择按使用流量,以节省流量成本。按使用流量(CDT)
    带宽值本方案以 10 Mbps 为例。10 Mbps
    安全组使用之前创建的安全组。选择已有安全组。sg
    管理设置选择设置自定义密码,方便后续登录机器安装服务环境。自定义密码

2.4.5登录服务器

  1. 登录 ECS管理控制台
  2. 在左侧导航栏,选择实例与镜像>实例。
  3. 在顶部菜单栏,选择华东1(杭州)地域。
  4. 部署示例应用程序。

    1. 实例页面,找到前面步骤中创建的 ECS 实例,查看IP 地址列,记录公网 IP ,然后在其右侧操作列,单击远程连接。
    2. 远程连接对话框的通过 Workbench 远程连接区域,单击立即登录,然后根据页面提示登录。
  5. 输入密码并点击确定按钮,通过 Workbench 远程连接至 ECS 控制台。
  6. 如图所示 GPU 驱动尚未完成安装,请等待 10-20 分钟,安装完成后实例将自动重启,如下图所示:
    image
  7. 驱动安装完成如下图所示,请刷新页面重新连接至 ECS 控制台,如下图所示:
    image

2.4.6部署模型

  1. 执行以下命令等待部署完成,如下图所示:


    /bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
  2. 如下图所示,说明模型部署完成,复制保存好 vLLM API TOKEN ,如下图所示:
    image

2.4.7访问示例应用

在浏览器中访问http://<ECS公网IP>:8080,访问 Open WebUI,如下图所示:

说明:请将 <ECS公网IP> 更改为应用部署步骤记录的公网 IP。

image

2.4.8与模型对话

在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:

image

2.4.9使用 Chatbox 客户端配置 vLLM API 进行对话(可选)

  1. 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
    image
  2. 运行并配置 vLLM API ,单击设置,如下图所示:
    image
  3. 在弹出的看板中按照如下表格进行配置。

    项目说明示例值
    模型提供方下拉选择模型提供方。添加自定义提供方
    名称填写定义模型提供方名称。vLLM API
    API 域名填写模型服务调用地址。http://:8000
    API 路径填写 API 路径。/v1/chat/completions
    API 密钥填写模型服务调用 API 密钥。前面步骤获取的调用信息,Token
    模型填写调用的模型。DeepSeek-R1-Distill-Qwen-7B
  4. 最终配置如下图所示,然后单击保存,如下图所示:
    image
  5. 在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
    image

2.4.10清理资源(牢记)

若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。

  1. 释放 1 台 GPU 云服务器实例:登录ECS 控制台,在实例页面,找到目标实例,然后在操作列选择216更多-竖向..png>释放,根据界面提示释放实例。
  2. 删除 1 个安全组:登录ECS 控制台,在安全组页面,选择目标安全组,然后在操作列单击删除。
  3. 释放 1 台交换机:登录专有网络控制台,在交换机页面,找到目标交换机,然后在操作列单击删除,按照界面提示释放实例。
  4. 释放 1 个专有网络 VPC:登录专有网络控制台,在专有网络页面,找到目标 VPC,然后在操作列单击删除,按照界面提示释放实例。

以上是我根据官方文档实践的过程和部分截图,总体感觉还行。

3.DeepSeek 模型部署解决方案评测报告

3.1部署文档准确性检查

在按照【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案的部署文档进行操作时,步骤指引准确,逻辑清晰。在函数计算、模型在线服务以及百炼模型服务的开通过程中,未遇到报错或异常,整体流程顺畅。

3.2引导与文档帮助评价

部署过程中,文档提供了详尽的步骤说明和截图指引,对于初次使用者来说非常友好。然而,在部分高级配置选项的说明上略显简略,建议增加更多实例和详细解释,以帮助用户更好地理解并做出选择。建议细化一些关键性步骤,要考虑照顾大部分小白和初入门的工程师,毕竟人人都不是大佬。

3.3方案理解与优势认知

部署完成后,我对DeepSeek的多种使用方式有了较为深入的理解。方案描述清晰,突出了DeepSeek在少量标注数据下显著提升推理能力的优势,尤其在数学、代码和自然语言等复杂任务上的表现。但在某些技术细节上,如模型调优和性能监控方面,建议增加更多说明。

3.4最适合的使用方式推荐

在体验过程中,我认为通过API调用DeepSeek模型的方式最适合我的需求。这种方式无需关心底层模型部署和运维,只需关注业务逻辑和数据处理,大大提高了开发效率。同时,API调用方式灵活,易于集成到现有系统中。

3.5方案满足度与采用意愿

本解决方案提供的DeepSeek模型使用方式基本满足了我的实际需求。通过云上调用和部署,降低了模型应用的门槛,提高了开发效率。我愿意采用本方案来使用DeepSeek模型,并期待在未来能够提供更多高级功能和优化选项,以满足不断变化的业务需求。

综上所述,DeepSeek模型部署解决方案在部署流程、文档引导、方案理解和实际应用等方面均表现出色,值得推荐。


北京宏哥
1 声望0 粉丝