序
本文主要研究一下如何MaxKB及deepseek搭建本地AI知识库
步骤
拉取MaxKB镜像
docker pull cr2.fit2cloud.com/1panel/maxkb
如果拉取不下来就用docker.1ms.run/1panel/maxkb
启动MaxKB
docker run -d --name=maxkb --restart=always -p 8080:8080 \
-v ~/.maxkb:/var/lib/postgresql/data \
-v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages \
docker.1ms.run/1panel/maxkb
启动之后访问http://localhost:8080/
用户名: admin 密码: MaxKB@123..
设置模型
系统设置-->模型设置-->添加模型,这里添加ollama的deepseek-r1:8b,其中API URL设置为http://host.docker.internal:11434
,API KEY随便设置一个就行
设置知识库
创建知识库-->向量模型为maxkb-embedding,知识库类型为通用型,之后上传文档,可以选择文本文件、表格、QA问答对,之后执行向量化
设置应用
创建应用-->设置AI模型-->关联知识库(添加知识库),参数设置:全文检索 --> 调试预览,输入问题 --> 保存并发布
小结
MaxKB默认使用maxkb-embedding,向量数据库使用的是pgvector,相对于dify那么复杂的技术栈显得比较简单。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。