1

本文主要研究一下如何MaxKB及deepseek搭建本地AI知识库

步骤

拉取MaxKB镜像

docker pull cr2.fit2cloud.com/1panel/maxkb
如果拉取不下来就用docker.1ms.run/1panel/maxkb

启动MaxKB

docker run -d --name=maxkb --restart=always -p 8080:8080 \
-v ~/.maxkb:/var/lib/postgresql/data \
-v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages \
docker.1ms.run/1panel/maxkb

启动之后访问http://localhost:8080/
用户名: admin 密码: MaxKB@123..

设置模型

系统设置-->模型设置-->添加模型,这里添加ollama的deepseek-r1:8b,其中API URL设置为http://host.docker.internal:11434,API KEY随便设置一个就行

设置知识库

创建知识库-->向量模型为maxkb-embedding,知识库类型为通用型,之后上传文档,可以选择文本文件、表格、QA问答对,之后执行向量化

设置应用

创建应用-->设置AI模型-->关联知识库(添加知识库),参数设置:全文检索 --> 调试预览,输入问题 --> 保存并发布

小结

MaxKB默认使用maxkb-embedding,向量数据库使用的是pgvector,相对于dify那么复杂的技术栈显得比较简单。

doc


codecraft
11.9k 声望2k 粉丝

当一个代码的工匠回首往事时,不因虚度年华而悔恨,也不因碌碌无为而羞愧,这样,当他老的时候,可以很自豪告诉世人,我曾经将代码注入生命去打造互联网的浪潮之巅,那是个很疯狂的时代,我在一波波的浪潮上留下...