提示词优化的自动化探索:Automated Prompt Engineering

4 月 25 日
阅读 11 分钟
7
编者按: 作者在尝试教授母亲使用 LLM 完成工作任务时,意识到提示词的优化并不像想象中简单。提示词的自动优化对于经验并不丰富的提示词撰写者很有价值,他们没有足够的经验去调整和改进提供给模型的提示词,这引发了对自动化提示词优化工具的进一步探索。本文作者从两个角度分析了提示词工程的本质 —— 可将其视为超参...
封面图

Advanced RAG 04:重排序(Re-ranking)技术探讨

4 月 20 日
阅读 15 分钟
26
编者按:重排序(Re-ranking)技术在检索增强生成(Retrieval Augmented Generation,RAG)系统中扮演着关键角色。通过对检索到的上下文进行筛选和排序,可以提高 RAG 系统的有效性和准确性,为最终的结果生成提供更精准的信息。本文介绍了两种主要的 Re-ranking 方法,并演示了如何将其融入到 RAG 系统中,提高系统性能...
封面图

Advanced RAG 03:运用 RAGAs 与 LlamaIndex 评估 RAG 应用

4 月 17 日
阅读 11 分钟
60
编者按:目前,检索增强生成(Retrieval Augmented Generation,RAG)技术已经广泛使用于各种大模型应用场景。然而,如何准确评估 RAG 系统的性能和效果,一直是业界和学界共同关注的重点问题。若无法对 RAG 系统进行全面、客观的评估,也难以针对性地优化和改进它。因此,开发一套科学、可靠的 RAG 系统评估指标体系,...
封面图

LLM 推理优化探微 (4) :模型性能瓶颈分类及优化策略

4 月 11 日
阅读 11 分钟
27
编者按: 在人工智能浪潮袭卷全球的大背景下,进一步提升人工智能模型性能,满足更多应用需求已经刻不容缓。如何优化模型延迟和吞吐量,成为了业界亟待解决的重要问题。我们今天为大家带来的这篇文章,其观点为:不同的性能瓶颈需要采取不同的优化策略,识别并解决主要的性能瓶颈是提升模型性能的关键。文章指出,主要有...
封面图

Advanced RAG 02:揭开 PDF 文档解析的神秘面纱

4 月 7 日
阅读 16 分钟
55
编者按: 自 2023 年以来,RAG 已成为基于 LLM 的人工智能系统中应用最为广泛的架构之一。由于诸多产品的关键功能(如:领域智能问答、知识库构建等)严重依赖RAG,优化其性能、提高检索效率和准确性迫在眉睫,成为当前 RAG 相关研究的核心问题。如何高效准确地从PDF等非结构化数据中提取信息并加以利用,是其中一个亟待...
封面图

Advanced RAG 01:讨论未经优化的 RAG 系统存在的问题与挑战

4 月 3 日
阅读 3 分钟
98
编者按: 自 2023 年以来,RAG 已成为基于 LLM 的人工智能系统中应用最为广泛的架构之一。由于诸多产品的关键功能严重依赖RAG,优化其性能、提高检索效率和准确性迫在眉睫,成为当前 RAG 相关研究的核心问题。我们今天为大家带来的这篇文章指出,Naive RAG 在编制索引、检索和内容生成这三个核心步骤中都存在诸多问题:a...
封面图

LoRA 及其衍生技术总览:An Overview of the LoRA Family

3 月 30 日
阅读 11 分钟
68
编者按: 对于大语言模型的微调训练来说,传统的全参数微调方法需要处理数百万甚至数十亿级别的参数,计算量和显存占用都非常大。而 LoRA 这种技术方案,通过引入少量的可训练矩阵来调整预训练模型的行为,极大降低了训练所需的计算资源,是近年来大语言模型微调的一个重大突破。我们今天为大家带来的文章,介绍了众多具...
封面图

发掘非结构化数据价值:AI 在文档理解领域的现状与未来

3 月 28 日
阅读 5 分钟
83
编者按: 在当今这个由数据主导的时代,我们被海量多样的信息所环绕,但大部分数据都以非结构化的形式存在,诸如文档、电子邮件、合同等,这使得从中提取有价值的信息成为一大挑战。幸运的是,AI 领域正在悄然孕育一场革命性变革,它将帮助我们攻克长期以来困扰非结构化数据处理的种种困难。这篇文章首先解释了文档理解...
封面图

Mistral AI vs. Meta:两大 Top 开源模型的对比

3 月 20 日
阅读 16 分钟
85
编者按: 随着大模型的不断升级和参数量的持续扩大,越来越多人开始重视大模型存在的硬件资源要求高、碳排放量较大等问题。如何在保持模型性能的同时,降低计算成本和资源消耗,成为了业界一个迫切需要解决的问题。我们今天为大家带来的这篇文章,作者认为 Mistral AI 提出的一系列创新技术方案为解决这一问题提供了新思...
封面图

生成式 AI 术语指南:带有配图说明,没有数学公式

3 月 15 日
阅读 11 分钟
73
编者按: 生成式人工智能技术的发展日新月异,这一领域涉及到了越来越多的专业术语和概念。对于刚接触这一领域的新手来说,理解这些术语算是一个门槛。我们有必要整理和解释这些术语,帮助更多人快速入门,投身 AI 事业。文章首先将这些生成式 AI 术语分为11大类,包括Types of Models、Common LLM Terms、LLM Lifecycle...
封面图

LLM 推理优化探微 (3) :如何有效控制 KV 缓存的内存占用,优化推理速度?

3 月 9 日
阅读 12 分钟
237
编者按: 随着 LLM 赋能越来越多需要实时决策和响应的应用场景,以及用户体验不佳、成本过高、资源受限等问题的出现,大模型高效推理已成为一个重要的研究课题。为此,Baihai IDP 推出 Pierre Lienhart 的系列文章,从多个维度全面剖析 Transformer 大语言模型的推理过程,以期帮助读者对这个技术难点建立系统的理解,并...
封面图

LLM 推理优化探微 (2) :Transformer 模型 KV 缓存技术详解

3 月 6 日
阅读 7 分钟
136
编者按:随着 LLM 赋能越来越多需要实时决策和响应的应用场景,以及用户体验不佳、成本过高、资源受限等问题的出现,大模型高效推理已成为一个重要的研究课题。为此,Baihai IDP 推出 Pierre Lienhart 的系列文章,从多个维度全面剖析 Transformer 大语言模型的推理过程,以期帮助读者对这个技术难点建立系统的理解,并...
封面图

化是渐化,变是顿变:一窥 OpenAI Sora 相关技术的演进

3 月 1 日
阅读 9 分钟
266
编者按: 近期,OpenAI 发布通用视觉大模型 Sora ,这也是继文本模型ChatGPT和图片模型Dall-E之后,又一极具颠覆性的大模型产品,人们重新思考了生成式 AI 在视觉内容创作领域的应用前景,内容创作工作流有望被颠覆。我们今天要为大家分享的这篇博文,作者认为 Sora 代表了Transformer、NaViT、扩散模型等一系列视觉AI技...
封面图

OpenAI Sora 关键技术详解:揭秘时空碎片 (Spacetime Patches) 技术

2 月 22 日
阅读 4 分钟
720
编者按:近日,OpenAI发布其首个视频生成模型“Sora”,该模型生成的视频内容可以呈现出多个角色、特定动作以及复杂场景,为构建能够理解和模拟现实世界的人工智能模型奠定了基础。本文解析的重点即是 Sora 背后的核心技术 Spacetime Patches,作者认为该技术通过创新的时空数据建模方法,让 Sora 学会预测时空维度上事件...
封面图

LLM 模型融合实践指南:低成本构建高性能语言模型

2 月 21 日
阅读 12 分钟
668
编者按:随着大语言模型技术的快速发展,模型融合成为一种低成本但高性能的模型构建新途径。本文作者 Maxime Labonne 利用 mergekit 库探索了四种模型融合方法:SLERP、TIES、DARE和passthrough。通过配置示例和案例分析,作者详细阐释了这些算法的原理及实践操作。作者的核心观点是:相比训练全新模型,融合现有模型可...
封面图

LoRA:语言模型微调的计算资源优化策略

2 月 5 日
阅读 7 分钟
380
编者按:随着数据量和计算能力的增加,大模型的参数量也在不断增加,同时进行大模型微调的成本也变得越来越高。全参数微调需要大量的计算资源和时间,且在进行切换下游任务时代价高昂。本文作者介绍了一种新方法 LoRA,可以在保持模型性能的同时大幅减少微调的参数量和所需资源。LoRA通过引入两个低秩适配矩阵,用矩阵乘...

LLM 推理优化探微 (1) :Transformer 解码器的推理过程详解

1 月 31 日
阅读 5 分钟
412
编者按:随着 LLM 赋能越来越多需要实时决策和响应的应用场景,以及用户体验不佳、成本过高、资源受限等问题的出现,大模型高效推理已成为一个重要的研究课题。为此,Baihai IDP 推出 Pierre Lienhart 的系列文章,从多个维度全面剖析 Transformer 大语言模型的推理过程,以期帮助读者对这个技术难点建立系统的理解,并...
封面图

探讨 LLM 的潜在风险 (偏见与毒性等),是否存在解决之道?

1 月 25 日
阅读 13 分钟
321
编者按:随着 GPT-4 等大语言模型(LLM)的蓬勃发展,人们开始关注它们在社会伦理、安全性和偏见等方面的表现。本文探讨了 LLM 在偏见、毒性和越狱方面的最新研究进展。作者的核心观点是,LLM 仍存在一定的偏见问题,但相关公司正在努力改进,LLM 的整体发展趋势是向好的。作者首先介绍了 OpenAI、Google 等公司采取的伦理...
封面图

如何写好大模型提示词?来自大赛冠军的经验分享(进阶篇)

1 月 22 日
阅读 14 分钟
871
编者按:近期,如何通过 Prompt Engineering 最大程度发挥大模型的潜力已成为一个热点话题。人们越来越关注如何通过 Prompt Engineering 技术低成本地用好大模型。今天我们推荐的这篇文章,作者认为 Prompt Engineering 需要结合艺术与科学,需要在理解技术背景的同时,发挥创造力和战略思维。本系列文章详细介绍了作者...
封面图

如何写好大模型提示词?来自大赛冠军的经验分享(基础篇)

1 月 17 日
阅读 7 分钟
320
编者按:近期,如何通过 Prompt Engineering 最大程度发挥大模型的潜力已成为一个热点话题。人们越来越关注如何通过 Prompt Engineering 技术低成本地用好大模型。今天我们推荐的这篇文章,作者认为 Prompt Engineering 是一门融合了艺术和科学的学科,需要在理解技术背景的同时,发挥创造力和战略思维。本系列文章详细...
封面图

Prompt Engineering 可能会是 2024 年最热门的“编程语言”?

1 月 16 日
阅读 13 分钟
193
编者按:“Prompt Engineering”是否已经过时?模型本身的能力是否已经足够,不再需要特意设计 prompt?我们今天为大家带来的文章,作者认为 Prompt Engineering 不会过时,相反随着模型能力的增强,编写高质量 prompt 的重要性也将继续增加。文章详细论点归纳:(1)大语言模型应被视为操作系统的内核,而 prompt 是调用其...
封面图

MoE模型性能还能更上一层楼?一次QLoRA微调实践

1 月 10 日
阅读 14 分钟
203
编者按:最近,混合专家(Mixture of Experts,MoE)这种模型设计策略展现出了卓越的语言理解能力,如何在此基础上进一步提升 MoE 模型的性能成为业界热点。本文作者使用一种名为 QLoRA 的方法,通过量化和 LoRA 技术对 MoE 模型 Mixtral-8x7B 进行微调,以期大幅提高其性能。作者详细阐明这种方法的诸多优势,包括显著增强...

大模型Chatbots评估新视角:结合定性与程序方法的实践经验

1 月 8 日
阅读 6 分钟
185
编者按: 随着大语言模型(LLM)在 Chatbots 领域的广泛应用,如何有效评估这些基于 LLM 的 Chatbots 的质量变得日益重要,这也是一个极具挑战性的问题。本文作者认为可以从质性评估(qualitative)和通过程序评估(programmatic)这两个维度对基于 LLM 的 Chatbots 进行评估。作者详细探讨了以下几个方面的内容:(1) 质性...
封面图

LLM评估:通过7大指标监测并评估大语言模型的表现

2023-12-29
阅读 10 分钟
301
编者按: 如今,大模型及相关的生成式人工智能技术已经成为科技产业变革的新焦点,但大模型存在一些风险(容易产生偏见内容、虚假信息),其行为难以预测和控制。因此,如何持续监控和评估大模型行为以降低这些风险成为当下产学研各界的研究难点。本文作者通过分析 ChatGPT 在 35 天内对一组固定 prompt 的回答,探索了 ...
封面图

生成式 AI 的下一阶段将走向何方?

2023-12-25
阅读 4 分钟
210
编者按: 最近,随着 ChatGPT 的出现,很多人认为人工智能领域进入了大探索时代。然而这仅仅只是生成式 AI 发展的第一幕。我们今天要给大家带来的这篇文章认为,生成式 AI 已经进入第二幕,即整合时代,不同系统和企业之间将出现广泛合作,以定制解决方案将 AI 能力深度嵌入各行各业。文章详细阐述了第二幕的几个特征:(...
封面图

如何优化 RAG 系统的性能表现?10 条实用策略

2023-12-20
阅读 6 分钟
331
编者按: 检索增强生成(RAG)系统最近备受关注,ChatGPT的火爆更让这类系统成为广泛讨论的热点。我们今天为大家带来的这篇文章,作者Matt Ambrogi的核心观点是:构建一个基本可用的RAG系统非常简单,但要使其达到实际生产可用的程度则异常困难,需要我们投入大量精力。为此,作者详细介绍了10种策略,包括清洗数据、尝试...
封面图

AI分布式训练:DDP (数据并行)技术详解与实战

2023-12-18
阅读 14 分钟
279
编者按: 如今传统的单机单卡模式已经无法满足超大模型进行训练的要求,如何更好地、更轻松地利用多个 GPU 资源进行模型训练成为了人工智能领域的热门话题。我们今天为大家带来的这篇文章详细介绍了一种名为 DDP(Distributed Data Parallel)的并行训练技术,作者认为这项技术既高效又易于实现。文章要点如下:(1)DDP 的...
封面图

从信息量角度看人类智能与机器智能

2023-12-15
阅读 3 分钟
215
编者按: 近日,美国科技巨头 Google 宣布推出其认为规模最大、功能最强大的人工智能模型 Gemini,这种技术能够处理视频、音频和文本等不同内容形式的信息。那么机器学习模型与人类智能相比,谁的学习效率高? 许多人认为,人类大脑在学习效率上要远远优于我们目前训练的任何机器学习模型。面对这样的观点,本文作者进行...
封面图

Q-learning 入门:以 Frozen Lake 游戏环境为例

2023-12-11
阅读 20 分钟
245
编者按:近年来,强化学习在游戏和机器人控制等领域取得了较大的进步。如何设计一种强化学习算法,使机器人或 Agent 能够在复杂环境中学习最优策略(Optimal Policy )并作出最优的决策,这成为一个重要课题。我们今天为大家带来的这篇文章,作者指出可以通过设计并训练 Q-learning 算法来解决强化学习中的决策问题。作...
封面图

GPU深度学习性能的三驾马车:Tensor Core、内存带宽与内存层次结构

2023-12-04
阅读 6 分钟
262
编者按:近年来,深度学习应用日益广泛,其需求也在快速增长。那么,我们该如何选择合适的 GPU 来获得最优的训练和推理性能呢?今天,我们为大家带来的这篇文章,作者的核心观点是:Tensor Core、内存带宽和内存层次结构是影响 GPU 深度学习性能的几个最关键因素。作者详细解析了矩阵乘法运算在深度学习中的重要性,以及...
封面图