宝塔面板部署一键免费部署LobeChat自己的私有聊天机器人 支持市场主流AId api调用。
宝塔面板Docker部署LobeChat步骤
首先确保宝塔面板安装了“Docker管理器”
Docker 部署版本或是以后升级非常简单,只需要重新部署 LobeChat 的最新镜像即可。
以下是执行这些步骤所需的指令:拉取最新的 LobeChat 镜像使用以下命令拉取 LobeChat 的最新 Docker 镜像:docker pull lobehub/lobe-chat
Docker 容器创建
拉取的镜像重新部署LobeChat 容器的变量代码:
docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \
-e OPENAI_PROXY_URL=https://uiuiapi.com/v1 \
-e ACCESS_CODE=lobe66 \
--name lobe-chat \
lobehub/lobe-chat
点开容器列表,点击创建容器获取拉到的LobeChat 镜像
端口填写:LobeChat 端口为3210/3210
环境变量填入以上变量代码
以上步骤完成算是成功的部署了你的LobeChat自己的私有聊天机器人
如何访问部署好的LobeChat项目?
你的服务器地址加"http://ip:3210" 即可访问
如何绑定域名
访问在宝塔面板绑定你的域名,域名最好开启SSL访问。
设置返代;
部署好的LobeChat应用设置 api key
1.点击左上角的头像选"应用设置"
2.进去"应用设置"选择“语言模型”然后设置相关的 API key、api地址、AI模型选择设置。
3.设置语言模型完成返回即可开始使用AI聊天
API key准备获取
自己的openAI的API key(如果你没有openAI帐号就可以把这个文章关了,先去准备一个openAI帐号吧!或者转发API无法直接向官方接口openai/v1发起请求,需要将请求地址改为转发的api接口才可以使用,大部分插件和软件都可以修改。)OpenAI api key解决方案!开发者可以参考: 以 uiuihao。com 平台为例,申请并使用GPT-4 API密钥比较友好,可以快速主力开发者更好的节省折腾申请GPT-4 API KEY 密钥的时间。
LobeChat项目介绍
LobeChat是一个开源的、现代设计的LLMs/AI聊天框架。它支持多个AI提供商(如OpenAI、Claude 3、Gemini、Ollama、Bedrock、Azure、Mistral、Perplexity)和多模态(如视觉、TTS),并具备插件系统。用户可以一键免费部署自己的私有ChatGPT聊天应用。
它支持图像识别、语音转换、文本生成图像等多种功能,并且提供插件系统来扩展其功能。用户可以轻松部署和管理自己的聊天应用,并根据个人喜好自定义主题和设置。项目完全开源,用户可以自由扩展和贡献代码。
LobeChat 详细功能介绍
LobeChat 是一个现代设计的开源LLMs/AI聊天框架,支持多种AI提供商和多模态功能。以下是LobeChat的详细功能介绍:
- 多模型服务提供商支持支持多个模型服务提供商:LobeChat支持多种模型服务提供商,满足社区的多样化需求,提供更丰富的对话选择。AWS Bedrock:集成了AWS Bedrock服务,支持Claude/LLama2模型,提供强大的自然语言处理能力。Anthropic (Claude):接入Anthropic的Claude系列模型,包括Claude 3和Claude
- 2,突破多模态能力和扩展上下文,设定新的行业标准。Google AI (Gemini Pro, Gemini Vision):接入Google的Gemini系列模型,包括Gemini和Gemini Pro,支持高级语言理解和生成。Groq:接入Groq的AI模型,有效处理消息序列并生成响应,支持多轮对话和单次互动任务。OpenRouter:支持包括Claude
- 3、Gemma、Mistral、Llama2和Cohere的模型路由,智能路由优化,提高使用效率。01.AI (Yi Model):集成了01.AI的模型,API系列具有快速推理速度,缩短处理时间,同时保持出色的模型性能。Together.ai:通过Together Inference API访问超过100个领先的开源聊天、语言、图像、代码和嵌入模型,仅按使用量付费。ChatGLM:增加了智谱AI的ChatGLM系列模型(GLM-4/GLM-4-vision/GLM-3-turbo),提供高效的对话模型选择。Moonshot AI (Dark Side of the Moon):集成了中国创新AI初创公司Moonshot的模型,提供更深层次的对话理解。Minimax:集成Minimax模型,包括MoE模型abab6,提供更广泛的选择。DeepSeek:集成中国创新AI初创公司DeepSeek的系列模型,设计平衡性能和价格的模型。Qwen:集成Qwen系列模型,包括最新的qwen-turbo、qwen-plus和qwen-max。未来计划:计划支持更多模型服务提供商,如Replicate和Perplexity,以进一步丰富服务提供商库。
- 本地大语言模型支持Ollama:支持基于Ollama的本地模型使用,用户可以灵活使用自己的或第三方模型。
- 模型视觉识别GPT-4-vision:支持OpenAI的GPT-4-vision模型,可以识别图像内容并进行智能对话。
- 文本转语音和语音转文本(TTS & STT)TTS(文本转语音):将文本消息转换为清晰的语音输出,用户可以选择多种声音。STT(语音转文本):将语音转换为文本,提高互动体验。
- 文本生成图像图像生成:支持DALL-E 3、MidJourney和Pollinations等文本生成图像工具,用户可以在对话中生成图像。
- 插件系统功能调用插件:扩展功能调用能力,获取和处理实时信息,如新闻、搜索、生成图像等。插件市场:用户可以发现和分享设计良好的插件,支持多语言版本。7. 代理市场多功能代理:代理市场提供多种工作和学习场景下的代理,支持国际化自动翻译。代理商总数: 292
- 支持本地/远程数据库本地数据库:适用于需要更多数据控制和隐私保护的用户,使用CRDT技术实现多设备同步。服务器端数据库:支持PostgreSQL,提供更方便的用户体验。
- 多用户管理Next-auth:支持多种身份验证方法,包括OAuth、邮件登录、凭证登录等。Clerk:提供多因素认证(MFA)、用户配置管理、登录活动监控等高级用户管理功能。
- 渐进式Web应用(PWA)PWA技术:提供接近原生应用的体验,支持桌面和移动设备的高度优化用户体验。
- 移动设备适配移动优化:针对移动设备进行了优化设计,提供更流畅和直观的交互体验。
- 自定义主题主题模式:提供灵活多样的主题模式和颜色自定义选项,支持智能识别系统颜色模式。
- 快速部署一键部署:使用Vercel或Docker镜像,一键部署,过程简单快速。自定义域名:用户可以绑定自己的域名,便于访问。14. 隐私保护数据本地存储:所有数据存储在用户浏览器本地,确保用户隐私。15. 优秀的UI设计UI设计:界面设计精美,提供顺畅的交互体验,支持Markdown渲染、代码高亮、LaTeX公式、Mermaid流程图等。。技术特点快速部署:使用Vercel平台或Docker镜像,一键部署,快速完成配置。自定义域名:用户可绑定自己的域名,方便随时访问对话代理。隐私保护:所有数据存储在用户的浏览器中,保障用户隐私。精致的UI设计:界面设计精美,支持浅色和深色主题,移动友好。PWA支持提供更原生的体验。流畅的对话体验:响应流畅,全面支持Markdown渲染,包括代码高亮、LaTex公式、Mermaid流程图等。部署与开发自托管版本:提供Vercel和Docker镜像的自托管版本,用户可以在几分钟内部署自己的聊天机器人。本地开发:支持本地开发和GitHub Codespaces在线开发。
项目GitHub:lobe-chat
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。