Uber 的业务生态
<br/><br/>
Uber 在哪些业务场景使用了大模型能力?
Uber 在多个业务中使用了大模型的能力,具体包括以下几个方面:
- 自动驾驶技术:Uber 的自动驾驶部门(ATG)利用大规模识别真实道路场景的大模型来支持其自动驾驶技术的发展。
- 叫车系统优化:Uber 的 AI 实验室支持叫车系统的优化,通过大模型技术提升用户体验和效率。
- Uber Eats 业务优化:在 Uber Eats 外卖服务中,大模型被用于优化配送路线和时间预测,以提高服务质量和客户满意度。
- 客服自动化运营:Uber 利用大模型技术来自动化客服运营,提升客户服务效率。
- 个性化推荐系统:Uber 使用由大语言模型(LLM)支持的复杂推荐算法,根据用户的偏好和行为定制通知和建议,从而实现个性化功能。
- 电动汽车相关问题解答:Uber 计划推出一款由 OpenAI 的 GPT-4o 提供支持的人工智能助手,用于解答与电动汽车相关的问题,帮助司机解决电动汽车使用中的各种问题。
这些应用展示了 Uber 如何通过大模型技术在不同业务领域中实现创新和优化。
<br/>
Uber 自动驾驶技术中大模型的具体应用和效果如何?
- Uber 在自动驾驶技术中应用了大模型,这些大模型在多个方面提升了自动驾驶系统的性能和安全性。<br/>大模型在自动驾驶的感知、预测和决策层面提供了赋能,使得车辆能够更准确地感知环境并做出决策。<br/>具体来说,大模型可以在云端实现数据自动标注和数据增强等任务,在车端实现视觉、语音、SLAM 等感知任务。
- Uber ATG(先进技术小组)使用机器学习模型开发自动驾驶汽车的感知、预测、运动计划和控制组件,并通过 VerCD 工具实现模型的生命周期管理和自动化持续交付。这表明 Uber 在其自动驾驶系统中采用了先进的机器学习架构,以确保系统的高效运行和持续改进。
<br/>
Uber 如何利用大模型技术优化叫车系统的用户体验和效率?
Uber 通过利用大模型技术优化叫车系统的用户体验和效率,主要体现在以下几个方面:
- 实时数据智能平台:Uber 建立了大型实时数据智能平台,利用乘车请求数、可用司机数、天气等数据进行动态定价、预计到达时间计算以及供求预测。这些数据帮助运营团队做出明智的决策,从而改善用户体验。
- 机器学习平台:Uber 的 Michelangelo 平台支持端到端的机器学习工作流,包括数据管理、模型训练、评估和部署。这一平台使得内部团队能够无缝构建和运作适合 Uber 量级的机器学习解决方案,进一步提升系统的效率和用户体验。
- 自然语言处理技术:通过自然语言处理技术,Uber 可以构建智能客服系统,提供 24/7 的服务。这些系统能够理解用户的问题并提供即时反馈,显著减少用户等待时间,提升客户满意度。
- 派单机制:Uber 采用“中心调度+按需分配”的规则,通过算法不断学习和优化派单机制,最大化车辆利用效率,减少浪费时间和空驶率。这种机制对乘客和司机都提高了效率。
- 数据驱动的应用改进:Uber 通过高质量的数据收集和分析,不断改进乘客端 App 的功能和用户体验。例如,根据数据收集机制了解到的信息,对 App 进行更改以更好地满足用户需求。
- 极简设计:在软件设计上,Uber 采用了极简法则,当用户打开 App 时,系统默认用户要打车,并已经在匹配距离最近的车辆。用户无需输入目的地,只要一键点击用车,后台就会很快发送给最近的车辆。这种设计提高了系统的响应速度和用户体验。
<br/>
在 Uber Eats 外卖服务中,大模型是如何优化配送路线和时间预测的?
在 Uber Eats 外卖服务中,大模型通过深度学习和机器学习技术优化配送路线和时间预测。<br/>具体来说,Uber 使用了一种名为 DeepETA 的低延迟深度神经网络架构,该架构结合了历史数据和实时信号来细化到达时间预测(ETAs)。<br/><br/>DeepETA 不仅利用了历史数据,还结合了实时信号,通过自注意力机制和特征编码来提高预测的准确性和通用性。
此外,大模型可以通过分析历史数据和实时交通状况,为物流企业提供最优的运输路线,减少不必要的行驶里程,从而降低燃油成本和时间成本。
<br/>
这种优化不仅限于配送路线,还包括对配送时间的预测。例如,基于外卖员之前的配送信息,使用机器学习算法来预测外卖的配送时间。
<br/><br/>
在实际应用中,Uber Eats 利用这些技术来预测食品准备完成的时间以及从餐厅到用户手中的配送时间。<br/>这些预测结果以预计送达时间的形式展现在用户的客户端,帮助用户了解何时能够收到餐品。这种预测不仅提高了配送效率,还提升了用户体验。
<br/>
Uber 使用大语言模型(LLM)支持的推荐算法在个性化推荐系统中的具体实现方式是什么?
Uber 使用大语言模型(LLM)支持的推荐算法在个性化推荐系统中的具体实现方式主要体现在以下几个方面:
- 异构知识融合:Uber 采用大模型 LLM 从用户的异构行为信息中提取和融合异构知识,然后将这些知识与推荐任务相结合,在 LLM 上执行指令微调进行个性化推荐。这种方法能够处理用户的各种异构行为数据,以用户为中心,筛选出该用户的异构行为信息,从而实现更精准的个性化推荐。
- 复杂推荐算法:Uber 使用由 LLM 提供支持的复杂推荐算法,根据个人用户的偏好和行为定制通知和推荐内容。这种算法能够根据用户的历史行为和偏好,生成个性化的推荐结果,增强用户参与度。
- 交互式和可解释的推荐:Uber 可能采用了 Chat-REC 方法,利用 ChatGPT 进行交互式和可解释的推荐。这种方法通过与用户的交互,理解用户的偏好和意图,解决了冷启动和跨域推荐问题。
- 指令调优:Uber 可能还采用了 InstructRec 方法,通过指令调优的 LLM 实现用户偏好和意图的理解。这种方法将推荐任务视为 LLM 的指令执行问题,用户的偏好或需求可以用自然语言描述(称为指令),以便 LLM 可以理解并进一步执行指令,以完成推荐任务。
- 特征工程和编码改进:Uber 可能结合了推荐模型的微调和尝试让 LLM 独立处理推荐的方法。这包括特征工程、特征编码和打分排序的改进,以及利用 LLM 的通用知识来辅助推荐,改善推荐效果和用户体验。
Uber 使用大语言模型(LLM)支持的推荐算法在个性化推荐系统中的具体实现方式包括异构知识融合、复杂推荐算法、交互式和可解释的推荐、指令调优以及特征工程和编码改进等方面。
Uber 计划推出的由 OpenAI 的 GPT-4o 提供支持的人工智能助手在电动汽车相关问题解答方面的功能和预期效果。
Uber Technologies 将推出由 OpenAI 技术提供支持的 AI 助手,以帮助司机过渡到电动汽车,作为其降低排放努力的一部分。这家网约车公司多年来一直倡导转向电动汽车,并承诺提供 8 亿美元来支持其司机合作伙伴到 2040 年完全转向电动汽车。<br/>Uber 表示,它将根据驾驶员所在的城市和符合条件的激励措施提供个性化的答案。该公司还将在 2025 年初将聊天机器人的使用范围扩大到回答电动汽车以外的查询。在北美和欧洲,每月约有 180,000 名 Uber 司机转向电动汽车。
该 AI 助手的主要功能包括:
- 电动汽车的优势:提供关于电动汽车的优势和好处的信息,帮助司机了解为什么选择电动汽车是明智的选择。
- 充电指南:提供充电站的位置信息和充电指南,帮助司机找到最近的充电站并了解如何充电。
- 电池安全性:解答关于电动汽车电池安全性的常见问题,确保司机对电动汽车的安全性有充分的信心。
- 车型推荐:提供当前市场上最佳电动汽车的推荐,帮助司机选择最适合自己的车型。
预期效果方面,这一新功能预计将对 Uber 降低排放的目标发挥关键作用。<br/>通过推广电动汽车的使用,Uber 希望提高其运输业务的可持续性。
<br/><br/><br/><br/>
Uber 基于内部 60+AI 场景衍生出的 GenAI Gateway
Uber 最近推出了一个名为 GenAI Gateway 的创新平台,旨在统一管理和使用大型语言模型(LLM)。<br/>这个平台的诞生源于公司内部对人工智能技术日益增长的需求。<br/><br/>Uber 内部已有超过 60 个使用 LLM 的应用场景,涵盖了客户支持、市场营销、产品开发等多个领域。<br/><br/>然而, 各个团队采用的集成方式不尽相同,这种分散的管理方式导致了效率低下和资源浪费。<br/>为了解决这个问题,Uber 决定开发一个统一的平台来管理所有与 LLM 相关的应用。
GenAI Gateway 的核心功能是提供一个统一的接口<br/>
让公司内部的各个团队可以方便地访问包括 OpenAI、Google 的 Vertex AI 在内的第三方 LLM 服务,以及 Uber 自己开发的模型。<br/>这个平台大大简化了团队使用 LLM 的流程,使得开发人员可以更快速地将 AI 能力集成到他们的应用中。<br/>同时,GenAI Gateway 还提供了集中的使用情况监控和预算管理功能,让公司能够更好地控制 AI 相关的支出。
在技术实现上,GenAI Gateway 采用了一些巧妙的设计
<br/>首先,它的 API 接口设计模仿了 OpenAI 的 API,这使得平台能够与现有的开源生态系统无缝兼容。<br/>开发人员可以轻松地将原本使用 OpenAI API 的代码迁移到 GenAI Gateway 上,无需大幅修改。<br/><br/>平台主要使用 Go 语言开发,这种选择考虑到了 Go 语言在并发处理和性能方面的优势。<br/>同时,GenAI Gateway 还提供了多种编程语言的客户端库,包括 Python、Java、JavaScript 等,以满足不同开发团队的需求。
GenAI Gateway 内置 PII(个人身份信息)保护功能
这个功能使用了复杂的算法来识别和屏蔽可能包含敏感信息的文本,如姓名、电话号码、地址等。这不仅保护了用户隐私,也帮助 Uber 遵守各种数据保护法规。<br/>然而,实现这个功能也带来了一些挑战,比如如何在保护隐私的同时不过度影响模型的输出质量,以及如何平衡隐私保护和系统响应速度。
GenAI Gateway 还面临着其他一些技术挑战
- LLM 技术发展迅速,新的模型和功能不断涌现,平台需要具备足够的灵活性来快速适应这些变化。
- 此外,由于部分功能依赖于第三方供应商的服务,如何保证系统的稳定性和可用性也是一个重要问题。<br/> 为此,Uber 团队实施了一系列措施,包括多供应商策略、故障转移机制等,以提高系统的可靠性。
<br/><br/><br/><br/>
实际应用场景
在实际应用中,GenAI Gateway 已经在 Uber 的多个业务领域发挥了重要作用。<br/>例如,在客户支持方面,平台被用来自动总结客户与支持人员之间的对话内容。<br/>系统能够快速分析长篇对话,提取关键信息,生成简洁明了的摘要。<br/>这大大提高了客户服务团队的工作效率,使他们能够更快地理解问题并提供解决方案。
另一个有趣的应用是在市场营销领域。GenAI Gateway 被用来生成个性化的营销文案和广告内容。系统可以根据用户的历史行为、偏好等数据,生成更有针对性的推广信息,从而提高营销活动的效果。
<br/><br/><br/><br/>
关键架构
在技术细节方面,GenAI Gateway 采用了一种模块化的架构设计。<br/>核心组件包括:
- 请求路由器:负责将 incoming 请求分发到适当的模型或服务。
- 模型适配器:用于连接不同的 LLM 服务,处理 API 差异。
- 令牌管理器:控制 API 调用的频率和配额。
- 缓存层:存储常见查询的结果,减少重复计算。
- 监控和日志模块:记录系统性能和使用情况。
平台还实现了一个智能的负载均衡系统,能够根据不同模型的性能特征和当前负载情况,<br/>动态地将请求分配到最合适的服务上。这不仅提高了整体的响应速度,也帮助优化了成本。
在安全性方面,除了前面提到的 PII 保护,GenAI Gateway 还实施了多层次的安全措施。<br/>这包括严格的身份验证和授权机制、全程加密传输、敏感数据的安全存储等。<br/>系统还有一个专门的审计模块,可以追踪每一个 API 调用的来源和用途,这对于合规性管理和潜在问题的排查非常重要。
<br/><br/><br/>
未来规划
Uber 团队计划进一步增强 GenAI Gateway 的功能。<br/>一个重要方向是简化新模型的接入流程,使得平台能够更快速地集成最新的 AI 技术。<br/>另外,团队也在研究一些高级功能,如智能缓存策略、防止 AI 模型产生幻觉的机制等。<br/>在安全性方面,计划引入更先进的隐私保护技术,如联邦学习和差分隐私,以在保护用户数据的同时,不影响模型的学习能力。
GenAI Gateway 代表了 Uber 在 AI 技术应用方面的一个重要里程碑。<br/>它不仅解决了公司内部 AI 应用管理的问题,也为如何在大型企业中有效利用 LLM 技术提供了一个很好的范例。<br/>随着 AI 技术的不断发展,像 GenAI Gateway 这样的统一管理平台将在企业的数字化转型中扮演越来越重要的角色。
本文由mdnice多平台发布
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。