RAG分块策略:主流方法(递归、jina-seg)+前沿推荐Meta-chunking、Late chunking

2024-12-10
阅读 43 分钟
1.1k
大多数常用的数据分块方法(chunking)都是基于规则的,采用 fixed chunk size(译者注:将数据或文本按照固定的大小进行数据分块)或 overlap of adjacent chunks(译者注:让相邻的数据块具有重叠内容,确保信息不会丢失。) 等技术。对于具有多个层级结构的文档,可以使用 Langchain 提供的 RecursiveCharacterTextSp...

RAG 系统高效检索提升秘籍:如何精准选择 BGE 智源、GTE 阿里与 Jina 等的嵌入与精排模型的完美搭配

2024-11-17
阅读 17 分钟
897
Text Embedding 榜单:MTEB、C-MTEB 《MTEB: Massive Text Embedding Benchmark(海量文本嵌入基准)》 判断哪些文本嵌入模型效果较好,通常需要一个评估指标来进行比较,《MTEB: Massive Text Embedding Benchmark(海量文本嵌入基准)》就是一个海量文本嵌入模型的评估基准

NL2SQL之DB-GPT-Hub<详解篇>:text2sql任务的微调框架和基准对比

2024-10-08
阅读 10 分钟
1.2k
随着生成式人工智能(Artificial Intelligence Generated Content,简写为 AIGC)时代的到来,使用大规模预训练语言模型(LLM)来进行 text2sql 任务的 sql 生成也越来越常见。基于 LLM 的 text2SQL 方法通常分为两种:
封面图

赋能百业:多模态处理技术与大模型架构下的AI解决方案落地实践

2024-09-12
阅读 6 分钟
572
实际应用中,这两种方案并不是要对立存在的,像永劫无间这种游戏的场景,用户要的是低延迟,无障碍交流。并且能够触发某些动作技能。这就非常适合使用成熟的 ASR 和 TTS 技术来负责音频的处理,而 LLM 就可以专门做用户意图的理解。

从数据洞察到智能决策:合合信息&infiniflow RAG技术的实战案例分享

2024-09-11
阅读 6 分钟
1.2k
标题取自 LLamaIndex,这个内容最早提出于今年 2 月份 LlamaIndex 官方博客。从 22 年 chatGpt 爆火,23 年大模型尝鲜,到 24 年真正用 AI 落地业务场景,业界普遍都发现了从 MVP 到 PMF 不是那么容易的,具体的原因有非常多,在 RAG 场景下,最主要的表现是企业的数据 _“垃圾进,垃圾出”_,如何利用好企业数据是提升 RA...

LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发

2024-08-14
阅读 12 分钟
3.6k
以下是其主要特点和功能概述:简化部署:Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。
封面图

告别卡顿,畅享GitHub:国内开发者必看的五大加速访问与下载技巧

2024-08-13
阅读 4 分钟
5.8k
本文介绍了五种加速在国内访问和下载 GitHub 的方法,包括:使用 Gitee 平台加速克隆代码、修改 hosts 文件、使用油猴脚本、通过在线镜像站点、以及使用 FastGithub 等加速工具。
封面图

无缝融入,即刻智能:Dify大模型平台,零编码集成第三方系统,42K+星标见证专属智能方案

2024-08-12
阅读 19 分钟
2.1k
Dify,一款引领未来的开源大语言模型(LLM)应用开发平台,革新性地融合了后端即服务(Backend as a Service,BaaS)与LLMOps的精髓,为开发者铺设了一条从创意原型到高效生产的快车道。其设计旨在打破技术壁垒,让非技术背景的用户也能轻松参与至AI应用的构思与数据运营之中,共同塑造智能未来。
封面图

告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验

2024-08-08
阅读 5 分钟
3.6k
告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验Huggingface国内开源镜像:[链接] 里面总结了很多下载的方法,下面进行一一讲解方法一:网页下载在模型主页的Files and Version中中可以获取文件的下载链接。无需登录直接点击下载,还可以复制下载链接,用其他下载工具下载。方法二:huggingface-cli(...
封面图

无缝融入,即刻智能[1]:MaxKB知识库问答系统,零编码嵌入第三方业务系统,定制专属智能方案,用户满意度飙升

2024-08-02
阅读 10 分钟
1k
飞致云是中国领先的开源软件公司。飞致云旗下开源产品包括 1Panel 开源面板、JumpServer 开源堡垒机、DataEase 开源数据可视化分析工具、MeterSphere 开源测试工具、Halo 开源建站工具、MaxKB 开源知识库问答系统等,涵盖运维面板、运维审计、BI 分析、软件测试、CMS 建站、知识库问答等多个领域。飞致云旗下的开源项目...
封面图

RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow

2024-07-30
阅读 10 分钟
14.2k
MaxKB = Max Knowledge Base,是一款基于 LLM 大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一下,你有一个虚拟助手,可以回答各种关于公司内部知识的问题,无论是政策、流程,还是技术文档,MaxKB 都能快速准确地给出答案:比如公司内网如何访问、...
封面图

国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]

2024-07-19
阅读 13 分钟
1.1k
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]0. 大模型选择司南测评结果:SuperCLue测评结果:自2023年5月以来,全球及中国国内的大模型技术均展现出了强劲的发展势头,尤其是以GPT系列为代表的海外顶尖模型,历经了从GPT3.5到GPT4、GPT4-Turbo乃至GPT4o的多次迭代飞跃,持续推动AI技术...
封面图

初识langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程

2024-07-19
阅读 26 分钟
3.1k
初识langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程1.大模型基础知识大模型三大重点:算力、数据、算法,ReAct (reason推理+act行动)--思维链Langchain会把上述流程串起来,通过chain把多个算法模型串联起来Langchain的 I/O系统,负责输入输出管理【文件形式加载提示词】LangChain优势简化开发流程:...
封面图

透视开源生态,OSGraph——GitHub全域数据图谱的智能洞察工具

2024-07-10
阅读 6 分钟
457
OSGraph (Open Source Graph) 是一个开源图谱关系洞察工具,基于GitHub开源数据全域图谱,实现开发者行为、项目社区生态的分析洞察。可以为开发者、项目Owner、开源布道师、社区运营等提供简洁直观的开源数据视图,帮助你和你的项目制作专属的开源名片、寻求契合的开发伙伴、挖掘深度的社区价值。
封面图

AI Agent【项目实战】:MetaGPT遇上元编程,重塑复杂多智能体协作的边界

2024-07-09
阅读 29 分钟
2.5k
MetaGPT 以一条需求作为输入,并输出用户故事/竞争分析/需求/数据结构/API/文档等。内部而言,MetaGPT 包含产品经理/架构师/项目经理/工程师等角色。它为软件公司提供了整个流程,并精心制定了标准化操作流程(SOP)。“代码=SOP(团队)”是核心理念。我们将SOP转化为代码,并将其应用于由LLM(大型语言模型)组成的团队。
封面图

AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望

2024-07-05
阅读 19 分钟
6.6k
RPA:RPA(Robotic Process Automation) 即机器人流程自动化,是一种软件自动化技术。RPA 通过模仿人类在电脑上的手动操作,如打开网站、点击鼠标、键盘输入等,实现业务流程的自动化。RPA 系统可以自动处理大量重复的、基于规则的工作流程任务,例如在银行中,纸质文件输入、文件票据验证、从电子邮件和文件中提取数据、...
封面图

煤矿安全大模型:微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答

2024-07-03
阅读 21 分钟
523
使用煤矿历史事故案例,事故处理报告、安全规程规章制度、技术文档、煤矿从业人员入职考试题库等数据,微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答。

解锁LLMs的“思考”能力:Chain-of-Thought(CoT) 技术推动复杂推理的新发展

2024-06-14
阅读 7 分钟
4.2k
Chain-of-Thought(CoT)是一种改进的Prompt技术,目的在于提升大模型LLMs在复杂推理任务上的表现,如算术推理(arithmetic reasoning)、常识推理(commonsense reasoning)、符号推理(symbolic reasoning)。
封面图

LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战

2024-05-31
阅读 18 分钟
1k
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战1.环境准备GPU设备: A10, 3090, V100, A100均可. {代码...} 2.推理加速vllm不支持bnb量化的模型. vllm支持的模型可以查看支持的模型.2.1 qwen-7b-chat {代码...} 2.2 流式输出 {代码...} 2.3 chatglm3 {代码...} 2.4 使用CLI {代码...} 2.5 微调后...
封面图

LLM 大模型学习必知必会系列(十二):VLLM性能飞跃部署实践:从推理加速到高效部署

2024-05-31
阅读 9 分钟
1.5k
训练后的模型会用于推理或者部署。推理即使用模型用输入获得输出的过程,部署是将模型发布到恒定运行的环境中推理的过程。一般来说,LLM的推理可以直接使用PyTorch代码、使用VLLM/XInference/FastChat等框架,也可以使用llama.cpp/chatglm.cpp/qwen.cpp等c++推理框架。
封面图

LLM 大模型学习必知必会系列(十一):大模型自动评估理论和实战以及大模型评估框架详解

2024-05-30
阅读 16 分钟
1.4k
大语言模型(LLM)评测是LLM开发和应用中的关键环节。目前评测方法可以分为人工评测和自动评测,其中,自动评测技术相比人工评测来讲,具有效率高、一致性好、可复现、鲁棒性好等特点,逐渐成为业界研究的重点。
封面图

LLM 大模型学习必知必会系列(十):基于AgentFabric实现交互式智能体应用,Agent实战

2024-05-30
阅读 12 分钟
769
Modelscope 是一个交互式智能体应用基于ModelScope-Agent,用于方便地创建针对各种现实应用量身定制智能体,目前已经在生产级别落地。AgentFabric围绕可插拔和可定制的LLM构建,并增强了指令执行、额外知识检索和利用外部工具的能力。AgentFabric提供的交互界面包括:
封面图

LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南

2024-05-28
阅读 9 分钟
1.8k
指令微调阶段使用了已标注数据。这个阶段训练的数据集数量不会像预训练阶段那么大,最多可以达到几千万条,最少可以达到几百条到几千条。指令微调可以将预训练的知识“涌现”出来,进行其他类型的任务,如问答类型的任务。一般指令微调阶段对于在具体行业上的应用是必要的,但指令微调阶段一般不能灌注进去新知识,而是将...
封面图

LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)

2024-05-28
阅读 21 分钟
2.8k
模型的推理过程是一个复杂函数的计算过程,这个计算一般以矩阵乘法为主,也就是涉及到了并行计算。一般来说,单核CPU可以进行的计算种类更多,速度更快,但一般都是单条计算;而显卡能进行的都是基础的并行计算,做矩阵乘法再好不过。如果把所有的矩阵都加载到显卡上,就会导致显卡显存的占用大量增加,尤其是LLM模型大...
封面图

LLM 大模型学习必知必会系列(四):LLM训练理论篇以及Transformer结构模型详解

2024-05-28
阅读 11 分钟
1k
基于上面的方程,如果追加一个要求,希望a=1,b=1,x=3的时候y=10呢?这显然是不可能的,因为按照上面的式子,y应该是4。然而在LLM中,我们可能要求模型在各种各样的场景中回答出复杂的答案,那么这显然不是一个线性方程能解决的场景,于是我们可以在这个方程外面加上一个非线性的变换:
封面图

LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践

2024-05-28
阅读 8 分钟
798
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践1.多模态大模型推理LLM 的推理流程:多模态的 LLM 的原理:代码演示:使用 ModelScope NoteBook 完成语言大模型,视觉大模型,音频大模型的推理环境配置与安装以下主要演示的模型推理代码可在魔搭社区免费实例 PAI-DSW 的配置下运行(显存 24G) :点击模型...

新一代AI搜索引擎神器推荐及效果测试:秘塔AI、天工AI、Perplexity等

2024-05-21
阅读 5 分钟
974
回到搜索引擎本身,搜索引擎的早期出现是为了解决互联网上信息过载的问题。随着互联网的快速发展,越来越多的网页被创建并发布,用户需要一种有效的方式来找到他们感兴趣的信息。因此,搜索引擎的出现提供了一种更便捷、更高效的方式来检索互联网上的信息但是,搜索的本质在于以最少的信息输入,获取到最精准的结果。用...
封面图

LLM 大模型学习必知必会系列(二):提示词工程-Prompt Engineering 以及实战闯关

2024-05-09
阅读 11 分钟
1.7k
prompt(提示词)是我们和 LLM 互动最常用的方式,我们提供给 LLM 的 Prompt 作为模型的输入,并希望 LLM 反馈我们期待的结果。 虽然 LLM 的功能非常强大,但 LLM 对提示词(prompt)也非常敏感。这使得提示词工程成为一项需要培养的重要技能。
封面图

检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统

2024-05-07
阅读 24 分钟
601
正是在这样的背景下,检索增强生成技术(Retrieval-Augmented Generation,RAG)应时而生,成为 AI 时代的一大趋势。RAG 通过在语言模型生成答案之前,先从广泛的文档数据库中检索相关信息,然后利用这些信息来引导生成过程,极大地提升了内容的准确性和相关性。RAG 有效地缓解了幻觉问题,提高了知识更新的速度,并增强...
封面图

LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等

2024-04-29
阅读 46 分钟
841
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本项目旨在收集和梳理中文LLM...
封面图