🤩本地 DeepSeek 搭档 Chatbox,超棒的 AI 客户端!

还是老套路,我们先来一起看看在ChatBox里面使用DeepSeek的效果。

当然,前提是本地已经部署了DeeSeek R1。

示例1:

模仿李白的风格写一首七律.春节

示例二:

左手一只鸭,右手一只鸡。交换两个物品后,左右手各是啥?

ChatBox AI的官网:

https://chatboxai.app/zh

Chatbox 是什么?

我们直接去看官网介绍就可以了。

简单理解,就是我们虽然本地部署了DeepSeek R1,

但是使用起来并不方便(需要在命令行里面进行对话互动),

这样一来就加大了我们使用时的门槛,

于是,我们就需要用到类似于Open-WebUI、ChatBox等可视化界面工具,

所以,不管是浏览器插件也好、客户端程序也罢,都只是为了方便我们更好地使用DeepSeek而已。

之前的文章里,我们已经介绍过了Open-WebUI可视化界面的方式,

这篇文章,教大家如何在Chatbox客户端里面使用DeekSeek推理模型。

一、下载Chatbox客户端

二、Chatbox客户端

下载完,双击exe安装包一路安装即可。

安装完,桌面上就会出现ChatBox的图标,双击打开。

三、配置Chatbox客户端

这里的配置,主要是指配置Ollama的API,

也就是在 Chatbox 中连接本地 Ollama 服务,

如果不配置API,对话的时候就会报错。

在 Chatbox 中打开设置,在模型提供方中选择 Ollama,

即可在模型下拉框中看见你运行的本地模型。

所以,安装完,必须配置API服务才可以正常使用推理模型。

OK,那么这里分为两种情况:

  • 1、安装完,首次启动的时候会弹框提示需要配置API服务
  • 2、后面可以单独配置API服务

3.1、首次启动

打开后,不出意外,会弹出这个提示框,我们选择【使用自己的API Key或本地模型】,

以下是具体的配置信息。

模型提供方】——》点击下拉框选择【OLLAMA API】

API域名】,这里不用管,如果你的Ollama服务已经开启,

这个地方系统会默认填写

http://localhost:11434

模型】,这里选择合适的推理模型即可,比如7b或者8b(都是本地部署的时候安装好的)

上面都设置好之后,点击下方【保存】按钮即可。

3.2、单独配置

当然,如果启动的时候没有设置,后面也可以单独进行设置,

点击左侧导航栏下方的【设置】进入设置界面

之后的操作都是一样的。

配置完API服务之后,我们就可以正常跟DeepSeek R1对话了,

然后底部输入框右侧上方也可以切换推理大模型(位于发送按钮旁边)

点击上方的球形按钮,还可以开启联网搜索功能。

当然,目前由于官方技术原因,这个联网功能暂时用不了,可能需要过段时间。

以上就是本期所有啦,

基本上能看到这里的都是人中龙凤!

如果觉得不错,随手点个赞、在看、转发三连吧!

谢谢你耐心看完我的文章~

个人博客:小二项目网

本文由mdnice多平台发布


hu1991die
0 声望1 粉丝