1、前言

1.1、整体配置

本地windows个人计算机:用来跑向量模型和搭建运行docker容器
星火的spark max模型api接口(有高额免费的tokens使用)

1.2、介绍

不会在详细讲述docker-compose配置、ollama等使用,上一篇文章有具体说明。
基于github上的chatgpt-on-wechat项目实现。
本次演示最后结果只是能跑通,看到效果,简易上手。
会根据上一篇文章的部署来继续
需要上一篇的ollama内容和docker内容

2、注册讯飞星火且获取spark max模型api

image.png

注册认证一下后,点击星火api->在线调试->创建新应用
到下面页面后
image.png

点击spark max,点击购买,里面有token免费额度,购买完成后看到右侧的三行,暂时不用复制,进行下一步即可

3、启动docker-compose部署oneapi和fastgpt等项目

3.1、oneapi接口部署

cd到上篇文章的工作目录,即有docker-compose.yml和config.json那个文件夹下
执行docker-compose up -d
image.png

在docker-desktop软件点击下面进入oneapi的页面
也可以直接进入链接http://localhost:3001/
image.png

点击渠道->添加渠道
image.png

类型下拉列表选择讯飞星火认知,当然也可以选择自定义类型,不过oneapi提供了星火的接口链接,如果选择自定义类型就需要添加baseurl,自定义类型用于私有化部署模型作为接口使用
名称随意、分组随意、模型版本需要选择v3.5,版本选择参考下图
4610b60699ce7db56cbb21ab391c0ae.jpg

模型填入SparkDesk-v3.5即可
按照 | | 格式将上述右侧三行APPID|APISecret|APIkey填入密钥,注意‘|’需要保留
image.png
代理不用填,因为最上面类型已经选好讯飞星火认知,如果你是选的自定义渠道就需要填base_url
完成后提交->测试
image.png
上一篇文章已经测试过dmeta-zh向量模型,返回400就是正常,这里不在演示ollama拉取该模型

3.2、fastgpt接口部署

打开config.json文件
将LLMModels下面选一个地方换成星火模型,注意model必须填入和oneapi一致,也就是SparkDesk-v3.5,name的话随意,不过建议填一样的
image.png
保存即可

4、测试模型效果和自建知识库效果

4.1、模型效果

重启docker-compose
执行docker-compose down
执行docker-compose up -d
打开fastgpt即http://localhost:3000/
image.png

创建应用->选择SparkDesk-v3.5模型,并进行对话测试
image.png

4.2、自建知识库

至于搭建知识库,跟上一篇文章一样操作即可,就是新建知识库->选择索引模型dmeta-zh
然后一顿之前一样操作即可,这里不展开述
搭建知识库后问答速度会很慢,可能是文档格式不好的原因,也可能是索引模型的原因,具体可以查一下理论知识,关于大模型知识库检索的理论知识

5、拉取启动chatgpt-on-wechat项目

5.1、拉取并配置项目

有人提供的直接配置的镜像,不用去github上整

mkdir chatgpt-on-wechat
cd chatgpt-on-wechat
curl -O https://harryai.cc/chatgpt-on-wechat/docker-compose.yml

如果报4开头错误,则需要搭建梯子再curl一次
执行命令一定要注意现在的工作目录,下载好docker-compose.yml后
cd切换回fastgpt和oneapi等项目的目录
然后启动
docker-compose up -d
进入fastgpt
image.png

新建后会得到fastgpt的apikey,复制到上面拉取的docker-compose.yml的下面位置
image.png
OPEN_AI_API_BASE填入http://host.docker.internal:3000/api/vi
注意必须按照上面格式填入,后面的api和/vi也不能少,这两个参数是为了对接fastgpt用的
修改好后保存

5.2、启动项目

cmd中cd到该docker-compose.yml同目录下,即chatgpt-on-wechat目录
执行docker-compose up(这里不用加-d,分别看执行情况)
随后会生成一个二维码,找个小号微信扫码登录一下即可,出现name后即成功
image.png
可以开始问答了
补充一下,必须以这个开头进行提问,否则捕捉不到问题,也就无法回答
下面测试群可以更换名字,也就是机器人会在哪些群进行回答,注意修改后重启docker-compose才能生效
image.png

6、补充说明

这里演示的都是基本用法,拓展的地方有很多,可以去研究一下github上的这个项目
同时curl拉取的文件都是他人提供,可能会下架


hhyuuu
6 声望4 粉丝