长上下文LLMs:RAG 的终结者还是最佳搭档?

10 月 16 日
阅读 9 分钟
74
编者按:随着大语言模型(LLMs)的上下文窗口不断扩大,您是否开始思考:我们还需要花费大量时间和资源来构建复杂的检索增强生成(RAG)系统吗?本文深入探讨了长上下文 LLMs 与 RAG 系统的优劣势,揭示了它们在实际应用中的表现差异。通过对最新四篇学术研究的全面分析,作者阐明了长上下文 LLMs 在某些任务中的优势,...
封面图

部署 LLMs 前如何计算与优化 GPU 内存需求?

10 月 10 日
阅读 7 分钟
107
编者按:想要部署大语言模型(LLMs),却不知该如何估算所需的 GPU 内存?在项目预算有限的情况下,是否曾因为 GPU 内存估算不准而导致资源浪费或性能不足?这些问题不仅影响项目进度,还可能直接导致成本超支或服务质量下降。本文作者凭借丰富的 LLM 部署经验,深入剖析了 GPU 内存需求的计算方法。从模型参数到 KV 缓...
封面图

对 AI 产品定价模式的新思考:基于人数 or 工作量?

9 月 26 日
阅读 5 分钟
80
编者按:传统的基于用户数量的定价模式是否还适用于AI产品?我们今天为大家带来的这篇文章中,作者提出:AI 产品应该采用基于工作量的定价模式,而非传统的基于用户数量的定价方式。传统的基于用户数量的定价模式在 AI 产品中往往会导致资源浪费和成本分配不均。一些员工可能每天都在大量使用 AI 工具,而另一些人可能几...
封面图

快速理解 GraphRAG:构建更可靠、更智能的 Chatbot

9 月 24 日
阅读 4 分钟
83
编者按:传统的检索增强生成(RAG)技术在处理需要深入理解实体关系的问题时常常力不从心,那么有什么新的技术可以突破这一限制吗?本文深入探讨了 GraphRAG 技术,这一创新方案通过将非结构化文本转化为结构化知识图谱,巧妙地解决了上述难题。GraphRAG 能显著提升 AI 系统理解和回答复杂问题的能力,尤其在跨时代、跨...
封面图

NPU 与 GPU 相比,有什么差别?| 技术速览

9 月 13 日
阅读 3 分钟
432
编者按: 随着2024年被业界誉为“AI PC元年”,各大笔记本电脑厂商纷纷推出搭载NPU的全新AI PC,而在介绍产品性能时,“NPU”一词频频被提及。但NPU和我们所熟知的GPU之间的区别究竟是什么?我们今天为大家分享的这篇文章将和大家一起初探NPU vs GPU。简而言之,NPU专为加速AI任务而设计,包括深度学习和推理,能够高效地处...
封面图

化“腐朽”为“神奇”:5 种 RAG 优化技术应对千奇百怪的 Query

9 月 11 日
阅读 7 分钟
108
编者按:您是否曾经遇到这样的情况:明明构建了一个功能强大的 RAG 系统,但用户却频繁抱怨“找不到想要的信息”或“返回的结果不够准确”?这是许多 RAG 应用开发者面临的共同挑战。这个问题不仅会导致用户体验下降,更可能直接影响 RAG 系统的使用率和实际价值。如果未能得到妥善解决,之前的辛苦工作恐将付之东流,甚至影...
封面图

LLM 工程师入门:生成式AI的简易指南

9 月 6 日
阅读 11 分钟
157
编者按: 大模型发展了近两年,Baihai IDP公众号也分享了近百篇LLM各环节的技术洞察,有前沿探讨、有落地实践、有应用经验。但回头来看,我们似乎从来没有认真、从0开始探讨过LLM的基本原理。最近,一些企业客户和伙伴来询问,是否有LLM的从0到1的科普贴。他们说:“虽然在很多场景中,LLM都已经渗透入我们的工作生活,但...
封面图

“创造神迹” -> “打造利器”:AI 从实验室走向市场的五大障碍

9 月 5 日
阅读 8 分钟
108
编者按: AI 能立即改变世界吗?为何巨额投资却难见成效?你是否也在思考:我们开发的 AI 产品真的解决了用户的需求吗?面对这些问题,许多公司陷入了困境:要么过于专注模型开发而忽视实际应用,要么盲目将 AI 融入产品而不考虑是否需要。这不仅导致资源浪费,更可能使我们错失 AI 真正的价值所在。本文深入剖析了 AI ...
封面图

从工程师视角看 “Multi-Agent as a Service (MAaaS)”

8 月 28 日
阅读 23 分钟
156
编者按:目前 AI Agents 在各行各业的应用前景广阔,越来越多的企业开始尝试部署 AI Agents ,然而如何在企业生产环境中有效部署和管理 AI Agents,是工程师们面临的一大挑战。你是否曾面临这样的困惑:如何确保 AI Agents 在生产环境中稳定可靠地运行?如何应对突发的高并发请求?当 AI Agents 出现"幻觉"或系统崩溃时...
封面图

「模型量化技术」可视化指南:A Visual Guide to Quantization

8 月 22 日
阅读 19 分钟
659
编者按:随着大语言模型(LLMs)规模的不断扩大,如何在有限的计算资源下高效部署这些模型成为了一个迫切需要解决的问题。模型量化作为一种有效的模型压缩技术,在保持模型性能的同时大大降低了计算和存储开销,因此广受关注。但对于许多人来说,模型量化的具体原理和实现方法仍然是一个“黑盒”。我们今天为大家带来的这...
封面图

理性看待、正确理解 AI 中的 Scaling “laws”

8 月 17 日
阅读 8 分钟
297
编者按:LLMs 规模和性能的不断提升,让人们不禁产生疑问:这种趋势是否能一直持续下去?我们是否能通过不断扩大模型规模最终实现通用人工智能(AGI)?回答这些问题对于理解 AI 的未来发展轨迹至关重要。在这篇深度分析文章中,作者提出了一个令人深思的观点:单单依靠扩大模型规模来实现 AGI 的可能性几乎为零。这篇文...
封面图

Advanced RAG 11:对用户输入的内容进行「分类处理」和「再优化」

8 月 12 日
阅读 10 分钟
255
编者按: 你是否曾经遇到过这些情况:你向 AI 助手提出了一个比较复杂的问题,但它给出的回答却比较浅显,甚至完全偏离了你的意图🤔?或者,你询问了一个非常简单的问题, AI 助手却给出了一大堆不必要的信息,让你感到烦恼😣?传统的 RAG 技术虽然能有效减少 AI 回答内容中的错误,但并不能改进用户最初提交的 query 内容...
封面图

相同的 LLM 在「不同 GPU 上」会产生不同输出?为什么?

8 月 9 日
阅读 8 分钟
193
编者按: 在大语言模型(LLMs)的部署及其相关的算力扩容过程中,更换 GPU 是否也可能会对模型的输出产生重大影响?这个问题的答案对于确保 LLMs 在不同硬件环境下的一致性和可靠性至关重要。我们今天为大家带来的这篇文章,作者的核心观点是:即使在相同的开发环境、系统配置和随机种子下,不同的 GPU 也会导致 LLMs 产生...
封面图

实践出真知:Agents 领域“一年打怪升级”的经验分享

8 月 5 日
阅读 9 分钟
215
编者按:在你构建 AI Agents 时,是否曾遇到这些困扰:总是在简单任务上出错,从而让你有时会怀疑自己的技术水平?面对客户的需求,AI Agent 表现得像个“笨蛋”,无法准确理解和执行指令?随着底层模型的更新,AI Agents 的性能不升反降,让人手足无措?这些问题不仅影响了 AI Agents 的性能,甚至可能导致项目延期、成本...
封面图

汽车长翅膀:GPU 是如何加速深度学习模型的训练和推理过程的?

7 月 24 日
阅读 9 分钟
313
编者按:深度学习的飞速发展离不开硬件技术的突破,而 GPU 的崛起无疑是其中最大的推力之一。但你是否曾好奇过,为何一行简单的“.to('cuda')”代码就能让模型的训练速度突飞猛进?本文正是为解答这个疑问而作。作者以独特的视角,将复杂的 GPU 并行计算原理转化为通俗易懂的概念。从 CPU 与 GPU 的设计哲学对比,到 CUDA ...
封面图

哪些基于 LLMs 的产品值得开发?从用户体验和市场接受度的角度探讨

7 月 17 日
阅读 10 分钟
220
编者按:在大语言模型(LLMs)相关技术高速发展的今天,哪些基于 LLMs 的产品真正值得我们投入精力开发?如何从用户体验和市场接受度的角度评估这些产品的潜力?今天为大家分享的这篇文章,作者的核心观点是:优秀的产品应该将 GenAI 无缝集成到现有工作流中,引入 AI 不仅要能为用户提供高价值、变革性的体验,同时还需...
封面图

给 「大模型初学者」 的 LLaMA 3 核心技术剖析

7 月 13 日
阅读 16 分钟
1.1k
编者按: 本文旨在带领读者深入了解 LLaMA 3 的核心技术 —— 使用 RMSNorm 进行预归一化、SwiGLU 激活函数、旋转编码(RoPE)和字节对编码(BPE)算法。RMSNorm 技术让模型能够识别文本中的重点,SwiGLU 激活函数则如同“神笔”,让模型生成的文本更加突出重点且易于理解;RoPE 赋予了模型处理序列中词语位置的灵活性,而 B...
封面图

Advanced RAG 10:引入检索评估、知识精练的 CRAG 技术详解

7 月 10 日
阅读 7 分钟
757
编者按:本文介绍的 CRAG 技术通过引入轻量级检索评估机制和知识精炼算法,试图解决传统检索增强生成(RAG)方法在处理复杂查询语句时存在的问题(包括检索结果不够精确、引入无关信息等),这些问题会影响模型回答的质量。CRAG 技术如何评估检索文档与用户查询之间的相关性?检索评估器的具体工作原理是什么?CRAG的知...
封面图

「多模态大模型」解读 | 突破单一文本模态局限

7 月 5 日
阅读 6 分钟
226
编者按:理想状况下,世界上的万事万物都能以文字的形式呈现,如此一来,我们似乎仅凭大语言模型(LLMs)就能完成所有任务。然而,理想很丰满,现实很骨感——数据形态远不止文字一种,大多数数据也不是以文本的形式呈现的,我们日常接触到的数据涵盖了图像、视频、音频、语音(images or video, audio, speech)等多种形...
封面图

Llama-2 vs. Llama-3:利用微型基准测试(井字游戏)评估大模型

7 月 4 日
阅读 12 分钟
213
编者按: 如何更好地评估和比较不同版本的大语言模型?传统的学术基准测试固然重要,但往往难以全面反映模型在实际应用场景中的表现。在此背景下,本文作者别出心裁,通过让 Llama-2 和 Llama-3 模型进行井字游戏对决,为我们提供了一个新颖而有趣的模型评估视角。此文不仅展示了一种创新的模型比较方法,更揭示了当前大...
封面图

检索生成(RAG) vs 长文本大模型:实际应用中如何选择?

7 月 3 日
阅读 3 分钟
449
编者按:大模型的上下文理解能力直接影响到 LLMs 在复杂任务和长对话中的表现。本期内容聚焦于两种主流技术:长上下文(Large Context Windows)和检索增强生成(RAG)。这两种技术各有何优势?在实际应用中,我们又该如何权衡选择?文章不仅详细阐述了这两种技术的工作原理,还深入分析了它们在效率、准确性和实施成本等方...
封面图

Advanced RAG 09:『提示词压缩』技术综述

6 月 29 日
阅读 36 分钟
528
编者按: 如何最大限度地发挥 LLMs 的强大能力,同时还能控制其推理成本?这是当前业界研究的一个热点课题。针对这一问题,本期精心选取了一篇关于"提示词压缩"(Prompt Compression)技术的综述文章。正如作者所说,提示词压缩技术的核心目标是压缩向 LLMs 输入的上下文信息,删减非关键内容,保留语义核心,从而在不影响...
封面图

合成数据:解锁通用人工智能的“关键之钥”?

6 月 26 日
阅读 5 分钟
771
编者按: 人工智能技术的发展离不开高质量数据的支持。然而,现有可用的高质量数据资源已日渐接近枯竭边缘。如何解决训练数据短缺的问题,是当前人工智能领域亟待解决的一个较为棘手的问题。本期文章探讨了一种经实践可行的解决方案 —— 合成数据(Synthetic Data)。如 AlphaZero、Sora 等已初步证实了合成数据具备的巨...
封面图

Advanced RAG 08:使用 Self-RAG 打造高质量、可追溯的 RAG System

6 月 19 日
阅读 14 分钟
534
编者按: RAG 技术通过检索并利用外部知识源,能够较为有效地提升生成内容的准确性和多样性。然而,经典 RAG 流程也存在一些不足,例如不必要的检索会浪费计算资源,并可能引入无关内容或错误信息,影响生成质量。本文介绍了 Self-RAG 这一技术,通过引入 Reflection Tokens,语言模型能够根据具体需求动态决定是否检索...
封面图

Netflix 机器学习科学家的提示词优化经验分享

6 月 15 日
阅读 4 分钟
456
编者按: 如何充分发挥大模型的潜能,用好大模型,关键在于如何优化向它们发送的提示词(prompt),是为提示词工程(prompt engineering)。本文Netflix 机器学习科学家Cameron R. Wolfe的提示词优化经验分享,阐述了目前提示词的主要构成要素,介绍了与提示词相关的上下文窗口相关信息,并总结了一些行之有效的优化策略...
封面图

提升 LLMs 效率,降低使用成本:一种减少 Tokens 消耗的实战策略

6 月 12 日
阅读 7 分钟
631
编者按: LLMs 被视为 AI 领域的一个里程碑式的突破,但要将其应用于实际生产环境,并且还能用对、用好并非易事。模型的使用成本和响应延迟是目前将大语言模型(LLMs)应用于生产环境中的核心难题之一。在本期刊载的这篇文章中,作者从自身项目的实践经验出发,分享了一系列实用技巧,帮助优化 LLM Prompt ,能够一定程...
封面图

Next-Level Agents:释放动态上下文(Dynamic Context)的巨大潜力

6 月 5 日
阅读 9 分钟
488
编者按: 本文深入探讨了如何通过优化动态上下文信息(Dynamic Context)来提升 AI Agents 的工作效率和准确性。文章首先概述了五种常见的技术策略,包括信息标识(Message Labeling)、针对不同需求设定不同上下文、优化系统提示词(System Prompts)、精简 RAG 系统中冗余信息,以及其他处理上下文的高级策略。随后,作者...
封面图

探索 LLMs 在数据标注中的应用潜力:观察、思考与前景展望

5 月 31 日
阅读 7 分钟
461
编者按: 目前,LLMs 在机器翻译、文本生成、多轮问答等任务上已表现得非常出色了。人们开始思考它们是否也可以用于数据标注工作。数据标注是训练和评估各种机器学习模型的基础,一直是一项昂贵且耗时的工作。是否能够借助 LLMs 的强大能力来为数据标注流程降本增效呢?本文深入探讨了这一问题。本文作者从业界最新研究...
封面图

一种人机协作新范式?为每个人准备的 AI Agents “羊皮卷”

5 月 29 日
阅读 5 分钟
421
编者按: 当前大热的大语言模型和检索增强生成模型,虽然在语言理解和内容生成方面取得了突破性的进展,但仍然存在诸多限制。它们缺乏根据目标导引行为、持续学习和与环境交互的能力,难以应对复杂多变的现实场景需求。今天为大家带来的这篇文章,作者的观点是人工智能领域正朝着开发更智能、更自主的 AI Agent 系统迈进...
封面图

让 LLMs 学会使用工具 | 函数调用(Function Calling)技术实例探索

5 月 23 日
阅读 16 分钟
3.2k
编者按: 大语言模型拥有令人惊叹的语言理解和生成能力,却也存在自主决策、与外部系统交互等方面的不足。函数调用(Function Calling)技术的出现,正是为解决这一难题而生的创新方案,它赋予了大语言模型更强的自主能力和与外部世界连接的能力,成为实现真正智能自主 Agent 的关键一环。本期我们精心为各位读者伙伴呈...
封面图