专业级语义搜索优化:利用 Cohere AI、BGE Re-Ranker 及 Jina Reranker 实现精准结果重排

9 月 3 日
阅读 21 分钟
82
专业级语义搜索优化:利用 Cohere AI、BGE Re-Ranker 及 Jina Reranker 实现精准结果重排1. 简介1.1 RAG在说重排工具之前,我们要先了解一下 RAG。检索增强生成(RAG)是一种新兴的 AI 技术栈,通过为大型语言模型(LLM)提供额外的 “最新知识” 来增强其能力。基本的 RAG 应用包括四个关键技术组成部分:Embedding 模型...
封面图

从海量信息中脱颖而出:Workflow智能分析解决方案,大语言模型为AI科技文章打造精准摘要评分体系(总篇章)

8 月 22 日
阅读 17 分钟
87
该项目整合了编程、AI、产品设计、商业科技及个人成长等多领域的精华内容,源自顶尖技术企业和社群。借助先进语言模型技术,对精选文章进行高效摘要、专业评分及多语种翻译,实现了从初步评估到深入剖析,再到传播的全面自动化流程。通过引入Workflow平台,该项目显著提升了内容处理的速度与质量,为读者带来更加便捷、...
封面图

SearXNG与LLM强强联合:打造用户隐私保护的智能搜索解答流程,隐私无忧,搜索无忧

8 月 21 日
阅读 4 分钟
76
SearXNG与LLM强强联合:打造用户隐私保护的智能搜索解答流程,隐私无忧,搜索无忧SearXNG 是一个免费的互联网元搜索引擎,整合了各种搜索服务的结果。用户不会被跟踪,也不会被分析。github地址:[链接]项目地址:[链接]公共实例:[链接]功能特性自托管,可以私有化部署没有用户跟踪/没有分析可以自定义设置脚本和 cookies...
封面图

Xinference实战指南:全面解析LLM大模型部署流程,加速AI项目落地进程

8 月 16 日
阅读 27 分钟
240
Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。通过 Xorbits Inference,可以轻松地一键部署你自己的模型或内置的前沿开源模型
封面图

LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发

8 月 14 日
阅读 12 分钟
493
以下是其主要特点和功能概述:简化部署:Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。
封面图

告别卡顿,畅享GitHub:国内开发者必看的五大加速访问与下载技巧

8 月 13 日
阅读 4 分钟
1.7k
本文介绍了五种加速在国内访问和下载 GitHub 的方法,包括:使用 Gitee 平台加速克隆代码、修改 hosts 文件、使用油猴脚本、通过在线镜像站点、以及使用 FastGithub 等加速工具。
封面图

无缝融入,即刻智能:Dify大模型平台,零编码集成第三方系统,42K+星标见证专属智能方案

8 月 12 日
阅读 19 分钟
212
Dify,一款引领未来的开源大语言模型(LLM)应用开发平台,革新性地融合了后端即服务(Backend as a Service,BaaS)与LLMOps的精髓,为开发者铺设了一条从创意原型到高效生产的快车道。其设计旨在打破技术壁垒,让非技术背景的用户也能轻松参与至AI应用的构思与数据运营之中,共同塑造智能未来。
封面图

告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验

8 月 8 日
阅读 5 分钟
641
告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验Huggingface国内开源镜像:[链接] 里面总结了很多下载的方法,下面进行一一讲解方法一:网页下载在模型主页的Files and Version中中可以获取文件的下载链接。无需登录直接点击下载,还可以复制下载链接,用其他下载工具下载。方法二:huggingface-cli(...
封面图

无缝融入,即刻智能[1]:MaxKB知识库问答系统,零编码嵌入第三方业务系统,定制专属智能方案,用户满意度飙升

8 月 2 日
阅读 10 分钟
182
飞致云是中国领先的开源软件公司。飞致云旗下开源产品包括 1Panel 开源面板、JumpServer 开源堡垒机、DataEase 开源数据可视化分析工具、MeterSphere 开源测试工具、Halo 开源建站工具、MaxKB 开源知识库问答系统等,涵盖运维面板、运维审计、BI 分析、软件测试、CMS 建站、知识库问答等多个领域。飞致云旗下的开源项目...
封面图

RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow

7 月 30 日
阅读 10 分钟
997
MaxKB = Max Knowledge Base,是一款基于 LLM 大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一下,你有一个虚拟助手,可以回答各种关于公司内部知识的问题,无论是政策、流程,还是技术文档,MaxKB 都能快速准确地给出答案:比如公司内网如何访问、...
封面图

智胜未来:国内大模型+Agent应用案例精选,以及主流Agent框架开源项目推荐

7 月 25 日
阅读 13 分钟
770
智胜未来:国内大模型+Agent应用案例精选,以及主流Agent框架开源项目推荐Agent是以大模型为核心的智能体,通过与用户对话的形式,来完成各种任务,它很像一个“人”。如果和人做类比,它应该具备以下能力:Agent的各个要素各个子模块:1.对话式Agent1.1 月之暗面(Moonshot AI)-Kimi官方:[链接]Kimi 作为月之暗面科技有限...
封面图

国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]

7 月 19 日
阅读 13 分钟
268
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]0. 大模型选择司南测评结果:SuperCLue测评结果:自2023年5月以来,全球及中国国内的大模型技术均展现出了强劲的发展势头,尤其是以GPT系列为代表的海外顶尖模型,历经了从GPT3.5到GPT4、GPT4-Turbo乃至GPT4o的多次迭代飞跃,持续推动AI技术...
封面图

初识langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程

7 月 19 日
阅读 26 分钟
908
初识langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程1.大模型基础知识大模型三大重点:算力、数据、算法,ReAct (reason推理+act行动)--思维链Langchain会把上述流程串起来,通过chain把多个算法模型串联起来Langchain的 I/O系统,负责输入输出管理【文件形式加载提示词】LangChain优势简化开发流程:...
封面图

透视开源生态,OSGraph——GitHub全域数据图谱的智能洞察工具

7 月 10 日
阅读 6 分钟
130
OSGraph (Open Source Graph) 是一个开源图谱关系洞察工具,基于GitHub开源数据全域图谱,实现开发者行为、项目社区生态的分析洞察。可以为开发者、项目Owner、开源布道师、社区运营等提供简洁直观的开源数据视图,帮助你和你的项目制作专属的开源名片、寻求契合的开发伙伴、挖掘深度的社区价值。
封面图

AI Agent【项目实战】:MetaGPT遇上元编程,重塑复杂多智能体协作的边界

7 月 9 日
阅读 29 分钟
1.6k
MetaGPT 以一条需求作为输入,并输出用户故事/竞争分析/需求/数据结构/API/文档等。内部而言,MetaGPT 包含产品经理/架构师/项目经理/工程师等角色。它为软件公司提供了整个流程,并精心制定了标准化操作流程(SOP)。“代码=SOP(团队)”是核心理念。我们将SOP转化为代码,并将其应用于由LLM(大型语言模型)组成的团队。
封面图

AI Agent技术的最新进展与改变世界的典型项目巡礼

7 月 8 日
阅读 15 分钟
186
在学术探索的浩瀚星空中,机器人技术领域的璀璨明珠莫过于Agent技术的深入研究,这一领域历来是创新与突破的温床。回溯至大模型浪潮兴起之前,Agent技术的辉煌篇章便已悄然铺展,诸如Alphago这样的里程碑式案例,以其卓越的环境感知、精准决策与高效行动能力,生动诠释了Agent技术的闭环魅力。同时,DeepMind的Agent57在...
封面图

AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望

7 月 5 日
阅读 19 分钟
1.7k
RPA:RPA(Robotic Process Automation) 即机器人流程自动化,是一种软件自动化技术。RPA 通过模仿人类在电脑上的手动操作,如打开网站、点击鼠标、键盘输入等,实现业务流程的自动化。RPA 系统可以自动处理大量重复的、基于规则的工作流程任务,例如在银行中,纸质文件输入、文件票据验证、从电子邮件和文件中提取数据、...
封面图

煤矿安全大模型:微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答

7 月 3 日
阅读 21 分钟
136
使用煤矿历史事故案例,事故处理报告、安全规程规章制度、技术文档、煤矿从业人员入职考试题库等数据,微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答。

解锁LLMs的“思考”能力:Chain-of-Thought(CoT) 技术推动复杂推理的新发展

6 月 14 日
阅读 7 分钟
1.2k
Chain-of-Thought(CoT)是一种改进的Prompt技术,目的在于提升大模型LLMs在复杂推理任务上的表现,如算术推理(arithmetic reasoning)、常识推理(commonsense reasoning)、符号推理(symbolic reasoning)。
封面图

LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战

5 月 31 日
阅读 18 分钟
502
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战1.环境准备GPU设备: A10, 3090, V100, A100均可. {代码...} 2.推理加速vllm不支持bnb量化的模型. vllm支持的模型可以查看支持的模型.2.1 qwen-7b-chat {代码...} 2.2 流式输出 {代码...} 2.3 chatglm3 {代码...} 2.4 使用CLI {代码...} 2.5 微调后...
封面图

LLM 大模型学习必知必会系列(十二):VLLM性能飞跃部署实践:从推理加速到高效部署

5 月 31 日
阅读 9 分钟
608
训练后的模型会用于推理或者部署。推理即使用模型用输入获得输出的过程,部署是将模型发布到恒定运行的环境中推理的过程。一般来说,LLM的推理可以直接使用PyTorch代码、使用VLLM/XInference/FastChat等框架,也可以使用llama.cpp/chatglm.cpp/qwen.cpp等c++推理框架。
封面图

LLM 大模型学习必知必会系列(十一):大模型自动评估理论和实战以及大模型评估框架详解

5 月 30 日
阅读 16 分钟
693
大语言模型(LLM)评测是LLM开发和应用中的关键环节。目前评测方法可以分为人工评测和自动评测,其中,自动评测技术相比人工评测来讲,具有效率高、一致性好、可复现、鲁棒性好等特点,逐渐成为业界研究的重点。
封面图

LLM 大模型学习必知必会系列(十):基于AgentFabric实现交互式智能体应用,Agent实战

5 月 30 日
阅读 12 分钟
416
Modelscope 是一个交互式智能体应用基于ModelScope-Agent,用于方便地创建针对各种现实应用量身定制智能体,目前已经在生产级别落地。AgentFabric围绕可插拔和可定制的LLM构建,并增强了指令执行、额外知识检索和利用外部工具的能力。AgentFabric提供的交互界面包括:
封面图

LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型

5 月 29 日
阅读 8 分钟
434
提示: 因为自我认知训练涉及到知识编辑, 建议对MLP加lora_target_modules. 你可以通过指定--lora_target_modules ALL在所有的linear层(包括qkvo以及mlp)加lora. 这通常是效果最好的.
封面图

LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!

5 月 29 日
阅读 22 分钟
602
SWIFT支持了开源模型,尤其是中小型模型(7B、14B等)对Agent场景的训练,并将loss-scale技术应用到agent训练中,使中小模型API Call能力更稳定,并支持使用单张商业级显卡进行Agent推理和部署,可以直接在生产场景中全链路闭环落地使用。
封面图

LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南

5 月 28 日
阅读 9 分钟
955
指令微调阶段使用了已标注数据。这个阶段训练的数据集数量不会像预训练阶段那么大,最多可以达到几千万条,最少可以达到几百条到几千条。指令微调可以将预训练的知识“涌现”出来,进行其他类型的任务,如问答类型的任务。一般指令微调阶段对于在具体行业上的应用是必要的,但指令微调阶段一般不能灌注进去新知识,而是将...
封面图

LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)

5 月 28 日
阅读 21 分钟
1.6k
模型的推理过程是一个复杂函数的计算过程,这个计算一般以矩阵乘法为主,也就是涉及到了并行计算。一般来说,单核CPU可以进行的计算种类更多,速度更快,但一般都是单条计算;而显卡能进行的都是基础的并行计算,做矩阵乘法再好不过。如果把所有的矩阵都加载到显卡上,就会导致显卡显存的占用大量增加,尤其是LLM模型大...
封面图

LLM 大模型学习必知必会系列(四):LLM训练理论篇以及Transformer结构模型详解

5 月 28 日
阅读 11 分钟
485
基于上面的方程,如果追加一个要求,希望a=1,b=1,x=3的时候y=10呢?这显然是不可能的,因为按照上面的式子,y应该是4。然而在LLM中,我们可能要求模型在各种各样的场景中回答出复杂的答案,那么这显然不是一个线性方程能解决的场景,于是我们可以在这个方程外面加上一个非线性的变换:
封面图

LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践

5 月 28 日
阅读 8 分钟
433
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践1.多模态大模型推理LLM 的推理流程:多模态的 LLM 的原理:代码演示:使用 ModelScope NoteBook 完成语言大模型,视觉大模型,音频大模型的推理环境配置与安装以下主要演示的模型推理代码可在魔搭社区免费实例 PAI-DSW 的配置下运行(显存 24G) :点击模型...

LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型

5 月 21 日
阅读 8 分钟
609
在模型训练过程中,数据及数据处理是最为重要的工作之一。在当前模型训练流程趋于成熟的情况下,数据集的好坏,是决定了该次训练能否成功的最关键因素。
封面图