🤩本地 DeepSeek 搭档 Chatbox,超棒的 AI 客户端!
还是老套路,我们先来一起看看在ChatBox里面使用DeepSeek的效果。
当然,前提是本地已经部署了DeeSeek R1。
示例1:
模仿李白的风格写一首七律.春节
示例二:
左手一只鸭,右手一只鸡。交换两个物品后,左右手各是啥?
ChatBox AI的官网:
Chatbox 是什么?
我们直接去看官网介绍就可以了。
简单理解,就是我们虽然本地部署了DeepSeek R1,
但是使用起来并不方便(需要在命令行里面进行对话互动),
这样一来就加大了我们使用时的门槛,
于是,我们就需要用到类似于Open-WebUI、ChatBox等可视化界面工具,
所以,不管是浏览器插件也好、客户端程序也罢,都只是为了方便我们更好地使用DeepSeek而已。
之前的文章里,我们已经介绍过了Open-WebUI可视化界面的方式,
这篇文章,教大家如何在Chatbox客户端里面使用DeekSeek推理模型。
一、下载Chatbox客户端
二、Chatbox客户端
下载完,双击exe安装包一路安装即可。
安装完,桌面上就会出现ChatBox的图标,双击打开。
三、配置Chatbox客户端
这里的配置,主要是指配置Ollama的API,
也就是在 Chatbox 中连接本地 Ollama 服务,
如果不配置API,对话的时候就会报错。
在 Chatbox 中打开设置,在模型提供方中选择 Ollama,
即可在模型下拉框中看见你运行的本地模型。
所以,安装完,必须配置API服务才可以正常使用推理模型。
OK,那么这里分为两种情况:
- 1、安装完,首次启动的时候会弹框提示需要配置API服务
- 2、后面可以单独配置API服务
3.1、首次启动
打开后,不出意外,会弹出这个提示框,我们选择【使用自己的API Key或本地模型】,
以下是具体的配置信息。
【模型提供方】——》点击下拉框选择【OLLAMA API】
【API域名】,这里不用管,如果你的Ollama服务已经开启,
这个地方系统会默认填写
http://localhost:11434
【模型】,这里选择合适的推理模型即可,比如7b或者8b(都是本地部署的时候安装好的)
上面都设置好之后,点击下方【保存】按钮即可。
3.2、单独配置
当然,如果启动的时候没有设置,后面也可以单独进行设置,
点击左侧导航栏下方的【设置】进入设置界面
之后的操作都是一样的。
配置完API服务之后,我们就可以正常跟DeepSeek R1对话了,
然后底部输入框右侧上方也可以切换推理大模型(位于发送按钮旁边)
点击上方的球形按钮,还可以开启联网搜索功能。
当然,目前由于官方技术原因,这个联网功能暂时用不了,可能需要过段时间。
以上就是本期所有啦,
基本上能看到这里的都是人中龙凤!
如果觉得不错,随手点个赞、在看、转发三连吧!
谢谢你耐心看完我的文章~
个人博客:小二项目网
本文由mdnice多平台发布
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。