image.png

背景

在客户上云旅程的起点,电话销售团队承担着至关重要的角色——他们不仅需要快速了解客户需求,还要通过精准的话术激发客户兴趣,推动转化。然而,当前销售话术的准备工作面临诸多挑战:

  • 信息获取难:销售人员需要手动收集、筛选和整合大量数据,费时费力。
  • 通话质量受限:缺乏实时、个性化的话术支持,影响客户沟通效果。
  • 传统 LLM 方案存在局限:单纯依赖大语言模型(LLM)生成话术,容易产生“幻觉”问题,且无法准确调用企业内部知识。

为解决这些痛点,我们采用检索增强生成(RAG) 技术,结合 Amazon Bedrock 和 Dify,打造智能销售话术推荐系统。该方案通过构建企业知识库,利用先进的检索算法,精准匹配客户需求,并生成高质量、可信赖的话术内容,为电话销售团队提供强有力的支持。

解决方案架构

方案基于 Amazon Bedrock 构建高效数据摄取与 RAG,并利用 Dify 生成销售话术。Web 爬虫和 Amazon EventBridge 定期更新知识库,将数据存储至 S3 并导入 Bedrock Knowledge Base。查询时,Dify 编排工作流并调用 Bedrock RetrieveAndGenerate API 进行检索和生成。流程如下图:

image.png

下面对这两部分流程进行详述。

数据摄取流程

  1. Web 爬虫:在 Lambda 或 EC2 部署爬虫,从各种在线数据源收集信息。
  2. Amazon EventBridge:定期触发爬虫,确保知识库时效性。
  3. Amazon S3:存储爬虫收集的原始数据或手动上传内部文档。
  4. Amazon Bedrock Knowledge Base:支持多种分块策略与向量嵌入(如 Amazon OpenSearch Serverless),提高检索效率。

在线查询流程

  1. 用户查询输入
  2. Dify 编排工作流:构建自定义工作流完成复杂文本生成。
  3. Bedrock RetrieveAndGenerate API

    • 提供查询分解、元数据过滤、重排序等功能,优化检索效果。
    • 生成的回复包含引文信息,便于人工验证。
  4. 响应输出:通过 Dify 返回用户。

下图是基于 Dify 构建的工作流示意,基于多种组件例如 LLM 节点、代码执行模块等,通过拖拉拽和简单的配置,就可以快速搭建 LLM 应用,不需要开发能力。此外,Dify 提供了很多内置工具,还可以自定义工具,弥补 Dify 原有工具的局限性。

image.png

实施细节

RAG 实现思路比较清晰明了,但是在实际生产落地时,仍有很多工程化的问题亟需解决。随着知识库中的文档数量增加,检索准确率往往有所下降。在海量文档中高效准确的检索信息成为 RAG 系统的主要瓶颈。为提升检索准确率,以下是一些常用的优化思路。

元数据过滤

元数据过滤是一种在检索前缩小搜索范围的有效方法。通过为每个文档添加结构化的元数据标签(如主题、时间、作者等),我们可以在执行语义搜索之前先基于元数据标签做一次预筛选。

具体的实施步骤如下:

  • 设计合适的元数据 schema:确保元数据标签能够覆盖业务中的关键属性。
  • 在文档入库时自动或手动添加元数据标签。
  • 查询阶段的元数据预筛选:在执行语义搜索之前,基于用户查询和上下文对文档集合进行 元数据筛选,只保留相关文档。
  • 仅对过滤后的文档子集执行向量检索:减少计算资源消耗,同时提高检索速度和响应准确性。

特别地,Amazon Bedrock Knowledge Base 目前支持自动生成查询过滤(Auto-Generated Metadata Filtering),扩展了手动元数据过滤(Manual Metadata Filtering)的功能。该功能可自动识别查询中的关键属性,并智能应用元数据筛选条件。用户可以在不手动构建复杂过滤规则的情况下,自动筛选出高相关性的文档,从而优化 RAG 系统的整体表现。

例如:

  • 查询:“How to file a claim in Washington”
  • 自动生成的过滤条件:”state = Washington”
  • 最终检索的文档:仅包含 Washington 州相关的文档,而非全国范围的所有索赔指南。
  • 如若文档本身有置信度高的、贴合业务的元数据标签,可以考虑此种优化思路。

重排序(Re-ranking)

排序是一种 后处理技术,用于在 初始向量检索 之后,通过更复杂的评分机制对 Top-K 检索结果 进行重新排序,以提升最终返回内容的 精准度与相关性。

Amazon Bedrock Knowledge Base 内置 Re-rank 模型,可自动对检索结果进行重新排序,确保最相关的文档排在前面。该模型利用深度语义匹配(Deep Semantic Matching) 技术,以更精细的方式计算 查询与文档之间的匹配度,相比于仅基于向量相似度的检索方式,能够提供 更高质量的结果。

知识质量

知识质量对 RAG 系统的性能至关重要。数据质量越高,数据的组织结构越清晰,信息的可检索性越强。反之,若知识库中的信息密度较低,回答一个问题可能需要引用多个文本块,从而在 LLM 的上下文窗口中插入更多文本。这不仅增加了 token 的消耗和计算成本,还可能导致关键信息因湮没在大量文本中而被稀释,使得 LLM 失焦。所以,清洗数据在构建知识库中十分重要,降低与业务无关信息出现在知识库中的可能性。此外,为了提高数据块的信息密度,可以考虑利用 LLM 作为事实提取器,从原始文档中筛选和提炼关键信息。

查询重写(Query Rewriting)

查询重写是一种从客户的查询入手,以优化 RAG 性能的策略。旨在通过改写、扩展或分解用户查询,提高检索系统的召回率和准确性,确保重写后的用户问题能够更贴合、更匹配知识库中的文档。Amazon Bedrock Knowledge Base 支持 Query Decomposition(查询分解)是查询重写的一个子类。具体做法是:先将复杂查询拆解为多个子查询,并分别检索相关内容;之后动态组合子查询的结果,生成更全面的答案。

例如,针对查询 “2022 年 FIFA 世界杯上谁得分更高,阿根廷队还是法国队?“,Amazon Bedrock 知识库可能会首先生成以下子查询,然后再生成最终答案:

1. 阿根廷队在 2022 年 FIFA 世界杯决赛中进了多少球?
2. 2022 年 FIFA 世界杯决赛中法国队进了多少球?

通过拆分长查询,分别搜索再整合答案,提高对复杂问题的支持能力。

总结

在方案研发阶段,我们与电话销售团队展开深度需求调研,锚定业务痛点与技术可行性的最佳结合点。基于场景化建模与 ROI 分析,构建起兼顾技术可行性与商业回报的解决方案框架,重点通过双轮驱动实现价值闭环:

第一,通过生产级 RAG 优化确保落地可靠性。尽管 RAG 基础架构逻辑简明,但在应对高并发、低延迟的业务场景时,我们通过元数据过滤、重排序(Re-ranking)、知识质量提升和查询重写等技术攻关,将平均响应时间压缩至 800ms 以内,对话术生成准确率提升至 92% 以上。特别是在知识库动态更新、会话状态保持等工程细节上,形成了标准化处理范式。

第二,为电话销售部门创造可量化的业务价值。 实际部署后,销售团队成功实现三大提升:话术准备效率提升 70%、首次接触转化率提升 18%、异议处理采纳率提高 32%。系统生成的个性化推荐话术,可依据客户画像自动匹配保险产品卖点与抗辩策略,真正成为销售人员的智能作战助手。

需要特别说明的是,当前技术方案结合了 Amazon Bedrock 的托管服务优势与 Dify 的流程编排能力,实际项目中亦可采用亚马逊云科技的不同技术栈实现。我们始终主张根据企业的数据规模、成本预算和运维能力进行定制化设计——人工智能从来都不是单选题,而是需要持续探索的最优解。

*前述特定亚马逊云科技生成式人工智能相关的服务仅在亚马逊云科技海外区域可用,亚马逊云科技中国仅为帮助您了解行业前沿技术和发展海外业务选择推介该服务。

附录

Dify 部署方式:https://github.com/aws-samples/dify-self-hosted-on-aws

本篇作者:

image.png
朱文倩
亚马逊云科技解决方案架构师,负责亚马逊云科技云计算方案咨询和设计。同时致力于生成式 AI 应用方面的研究和推广,并通过可实施的解决方案,帮助客户取得业务价值。

image.png
杨广文
亚马逊云科技解决方案顾问,致力于云计算、生成式 AI 的市场挖掘和洞察分析,具有丰富的云和 AI 咨询经验,为客户提供数字化转型咨询,帮助加速企业客户业务发展和创新。

本期最新实验《多模一站通 —— Amazon Bedrock 上的基础模型初体验
✨ 精心设计,旨在引导您深入探索Amazon Bedrock的模型选择与调用、模型自动化评估以及安全围栏(Guardrail)等重要功能。无需管理基础设施,利用亚马逊技术与生态,快速集成与部署生成式AI模型能力。
⏩️[点击进入实验] 即刻开启 AI 开发之旅
构建无限, 探索启程!

亚马逊云开发者
2.9k 声望9.6k 粉丝

亚马逊云开发者社区是面向开发者交流与互动的平台。在这里,你可以分享和获取有关云计算、人工智能、IoT、区块链等相关技术和前沿知识,也可以与同行或爱好者们交流探讨,共同成长。


引用和评论

0 条评论