分享嘉宾:孙方彬 中国移动云能力中心 软件开发工程师
编辑整理:Hoh Xil
出品平台:DataFunTalk
导读:在云原生 + 大数据的时代,随着业务数据量的爆炸式增长以及对高时效性的要求,云原生大数据分析技术,经历了从传统数仓到数据湖,再到湖仓一体的演进。本文主要介绍移动云云原生大数据分析 LakeHouse 的整体架构、核心功能、关键技术点,以及在公有云 / 私有云的应用场景。
主要内容包括:
- 湖仓一体概述
- 移动云LakeHouse
- 实践应用场景
01 湖仓一体概述
- 关于湖仓一体
“湖仓一体” 是最近比较火的一个概念,“湖仓一体” 的概念最早起源于 Databricks 公司提出的 Lakehouse 架构,它不是某个产品,而是数据管理领域中的一种开放的技术架构范例。随着大数据和云原生技术的发展和融合,湖仓一体更能发挥出数据湖的灵活性与生态丰富性,以及数据仓库的成长性。这里的成长性包括:服务器的成本,业务的性能,企业级的安全、治理等特性。
大家可以看到(左图),在特定业务规模前,数据湖的灵活性有一定优势,随着业务规模的增长,数据仓库的成长性更有优势。
湖仓一体的 2 个关键点:
- 湖和仓的数据 / 元数据在不需要用户人工干预的情况下,可以无缝打通、自由顺畅地流(包括:由外向内入湖、由内向外出湖、围绕周边环湖);
- 系统根据特定的规则自动地将数据在湖仓之间进行缓存和移动,并能与数据科学相关的高级功能打通,进一步实现敏捷分析和深度智能。
- 主要理念
随着业务数据量的爆炸式增长以及业务对高时效性的要求,大数据分析技术经历了从传统数仓到数据湖,再到湖仓一体的演进。传统基于 Hadoop 的大数据平台架构也是一种数据湖架构,湖仓一体的核心理念以及与当前 Hadoop 集群架构的区别大致如下:
- 存储多种格式的原始数据:当前 Hadoop 集群底层存储单一,主要以 HDFS 为主,对于湖仓一体来说,逐渐会演进为支持多种介质,多种类型数据的统一存储系统
- 统一的存储系统:当前根据业务分多个集群,之间大量数据传输,逐渐演进到统一存储系统,降低集群间传输消耗
- 支持上层多种计算框架:当前 Hadoop 架构的计算框架以 MR/Spark 为主,未来演进为在数据湖上直接构建更多计算框架和应用场景
湖仓一体的产品形态大致有两类:
- 基于公有云上数据湖架构的产品和解决方案(例如:阿里云 MaxCompute 湖仓一体、华为云 FusionInsight 智能数据湖)
- 基于开源 Hadoop 生态的组件(DeltaLake、Hudi、Iceberg)作为数据存储中间层(例如:Amazon 智能湖仓架构、Azure Synapse Analytics)
02 移动云 LakeHouse 实践
下面介绍移动云 LakeHouse 的整体架构及对湖仓一体的探索和实践:
- 整体架构
上图是我们的整体架构图,名字叫云原生大数据分析 LakeHouse。云原生大数据分析 LakeHouse 采用计算和存储分离架构,基于移动云对象存储 EOS 和内置 HDFS 提供了支持 Hudi 存储机制的湖仓一体方案,通过内置 Spark 引擎进行交互式查询,可以快速洞察业务数据变化。
我们的架构具体包括:
- 数据源:包括 RDB、Kafka、HDFS、EOS、FTP,通过 FlinkX 一键入湖
- 数据存储(数据湖):我们内置了 HDFS 和移动云的 EOS,借助 Hudi 实现 Upsert 能力,达到近实时的增量更新,我们还适当地引入 Alluxio,进行数据缓存,来达到数据分析的 SQL 查询加速能力。
- 计算引擎:我们的计算引擎都是 Severless 化的,跑在 Kubernetes 中。我们引入了统一资源访问 / 调度组件 YuniKorn,类似于传统 Hadoop 生态体系中 YARN 的资源调度,会有一些常见的调度算法,比如共性调度,先进先出等常见的调度
- 智能元数据:智能元数据发现,就是将我们数据源的数据目录转化成内置存储中的一个 Hive 表,统一进行元数据管理
- 数据开发:SQLConsole,用户可以直接在页面上编写 SQL 进行交互查询;还有 SDK 的方式,以及 JDBC/ODBC 接口;后续我们会支持 DevIDE,支持在页面上的 SQL 开发
- 核心功能
核心功能主要有以下四方面:
① 存储和计算分离:
- 存储层与计算层分离部署,存储和计算支持独立弹性扩缩容,相互之间没有影响
- 存储支持对象存储和 HDFS,HDFS 存储结构化数据,提供高性能存储,对象存储存储非结构化、原始数据、冷数据,提供高性价比
- 计算支持多引擎,Spark、Presto、Flink 均实现 serverless 化,即开即用,满足不同查询场景
② 一键入湖: - 支持连接移动云云上云下多种数据库、存储、消息队列
- 入湖流程自动化,降低用户的配置成本
- 降低对数据源的额外负载,控制在 10% 以内,支持根据数据源的实例规格自动调整连接数(比如在 MySQL 同步数据时,会在 MySQL 负载允许的情况下,自动调整连接数)
- 支持增量更新(通过 Hudi 实现增量更新)
③ 智能元数据发现: - 基于特定的规则,智能识别结构化、半结构化文件的元数据,构建数据目录
- 自动感知元数据变化
- 统一元数据,提供类 HiveMeta API,针对不同计算引擎访问底层数据
- 智能数据路由和权限统一管控(借助移动云的账号体系和 Ranger 实现的)
④ 按量计算: - 存储资源按照使用量计费
- 计算资源支持多种计费模式
- 支持弹性调整租户集群资源规格,快速扩缩容
- 基于 RBF 的逻辑视图
在基于 Hive 构造的数据湖体系中,每个 Hive db 通常对应一个数仓实例,共享统一的存储 HDFS,为了实现存储资源的多租户隔离特性,我们借鉴 RBF 的统一视图隔离能力,通过 Zookeeper 上不同的 Znode 来隔离多个数仓实例 StateStore,使每个数仓拥有自己独立的逻辑视图,同时利用 RBF 挂载多 NameSpace 的能力来实现 NameNode 负载均衡的效果。此外,为顺应云原生趋势,我们将 RBF 服务容器化部署,在创建 Hive db 时指定由 RBF 构成的 HDFSschema 路径,可以实现资源快速的创建、扩展和回收。
上图是我们的一个简单的架构图,RBF 以 Pod 的形式部署在 Kubernetes 中,然后 Hivedb 分别映射为一个 RBF 的 schema 路径。然后,下面是借助了 NameSpace 的负载均衡能力。
这样,通过为用户提供单独的存储逻辑视图,不仅可以隔离不同数仓实例之间的数据,又能借助 RBF 对底层 HDFS 的负载均衡来实现对 Hive 数据的负载均衡能力。
例如,对 Hive db 目录 hivedbdir 通过 RBF 方式 mount 到两个 Namespace,挂载命令如下:
$ hdfs dfsrouteradmin -add/hivedbdir ns1,ns2 /data -order HASH_ALL
- Hive 在对象存储的多租户实现
在公有云场景下,不同用户的 bucket 认证信息不同,需要多次配置并重启 HiveServer 服务,无法在对象存储上实现 Hive 多租户的效果。为解决这个问题,我们通过修改 Hive 源码在表属性 tblproperties 中添加 s3 的认证参数,在访问 bucket 时加载表属性中的认证信息至 threadlocal conf 变量,来完成 session 级别的认证参数传递。这样就在不重启 Hive 服务的情况下支持了多 bucket 认证,达到了对象存储上的 Hive 多租户效果。
如图所示,如果在服务端为用户配置不同的参数,就需要重启服务,这时不能够接受的。经过我们的改造之后,建表语法就变成了下面这种格式:
create external table testcephtbl(id int) location 's3a://bucket1/tmp/testlocation' tblproperties('fs.s3a.access.key'='xxx,'fs.s3a.endpoint'='xxx','fs.s3a.secret.key'='xxx);
- 优化引擎访问对象存储
在大数据生态中,多种计算引擎都可以通过 Metastore 服务访问 Hive 中的数据,例如 SparkSQL 要访问存在对象存储中的 Hive 数据,需要在提交作业的 Driver 模块中根据表的 location 信息加载对应 bucket 认证信息,SQL 提交命令如下:
$SPARK_HOME/bin/beeline-u “jdbc:hive2://host:port/default?fs.s3a.access.key=xxx;fs.s3a.endpoint=xxx;fs.s3a.endpoint=xxx”-e “selecta.id from test1 a join test2 on a.id=b.id”
也就是说,用户需要感知数据是存在对象存储中,并且很难确定一个 SQL 中的多个表属于哪几个 bucket,严重影响了业务开发进度。为此,我们基于之前的 Hive 表属性实现了获取对象存储认证参数插件,用户无需感知 SQL 中的表来自哪个 bucket,也无需在提交 SQL 时指定认证参数。如上图橙色框所示,Spark SQL 在 Driver 中实现参数,来匹配认证参数信息。对 MetaStore 来说是一个统一的访问视图。
最终提交 SQL 作业命令如下:
$SPARK_HOME/bin/beeline -u “jdbc:hive2://host:port/default”-e “select a.id from test1 a join test2 ona.id=b.id”
- Serverless 实现
这里以 Spark 为例,通过 RBF 的多租户实现,Spark 进程运行在安全隔离的 K8S Namespace 中,每个 Namespace 根据资源规格对应不同的计算单元(例如:1CU=1 core * 4GB)。对于微批的场景,使用 SQL Console 每提交一个 task,engine 模块会启动一个 Spark 集群,为 Driver 和 Executor 按特定的算法申请相应的计算资源来运行计算任务,任务结束后资源即刻回收;对于即席 ad-hoc 的场景,可以使用 JDBC 提交 task,engine 模块通过 Kyuubi 服务启动一个 session 可配置的 spark 集群,长驻一段时间后回收资源;所有的 SQL task 只有在运行成功后按实际的资源规格计费,如果不使用是不收费的。
逻辑视图如上,我们的 Kubernetes 通过每个 Namespace 把资源进行隔离;上面是一个统一调度的 YuniKorn 进行 Capacity Management/Job Scheduling 的调度。再往上是 SQL Parser 组件,会把 SparkSQL 和 HiveSQL 语法进行兼容;最上方,我们还提供了 Spark JAR 的方式,能够支持分析 HBase 或者其它介质中结构化 / 半结构化的数据。
通过 Serverless 的实现,我们大大的降低了用户的使用流程。
没有用 Serverless 时的流程:
① 购买服务器,构建集群
② 部署一套开源大数据基础组件:HDFS、Zookeeper、Yarn、Ranger、Hive 等③ 利用不同工具导入数据
④ 编写查询 SQL 计算,输出结果
⑤ 各种繁琐的运维
使用 Sercerless 后的流程:
① 注册移动云账号,订购 LakeHouse 实例
② 创建数据同步任务
③ 编写查询 SQL 计算,输出结果
④ 服务全托管,全程无运维
- 元数据管理与发现
元数据管理模块基于特定规则,智能识别结构化、半结构化文件的元数据来构建数据目录,通过周期性的元数据爬取实现自动感知元数据变化,并提供多种优化策略来降低爬取时对数据源的负载;同时,提供类 Hive Metastore 的 API 供多种计算引擎直接对表进行访问:
元数据管理模块整体架构如左图所示:通过元数据爬取 RDB/EOS 数据,格式有 json/parquet/avro 等常见的半结构化数据,然后是 Hive MetaStore 统一访问层,计算引擎 hive/spark/presto 可以通过类 metastore api 来访问存在湖中的数据,用户通过 Web UI 进行目录映射。
文件类元数据发现过程,如右图所示:有一张表,下面有几个目录,比如按 year 分开的,然后在某个具体目录有两个子目录,对于它的元数据发现过程,就会出现 3 行的数据,id、name 和 type,就会映射成同一张表,然后不同的目录是按不同的字段进行分区。
- Serverless 一键入湖
为实现 Serverless 的入湖创建,我们采用了基于 Flink 的分布式数据同步框架 FlinkX,来满足多种异构数据源之间高效的数据迁移,具备以下特点:
- 资源弹性:作业运行在 Kubernetes 上,资源隔离,支持分布式运行和弹性扩缩容
- 灵活性:将源 / 目标数据源抽象成 Reader/Writer 插件,支持双向读写和多种数据源
- 易用性:操作简化,支持批流一体、断点续传,可自动调整数据源连接数,降低侵入性
上图是我们通过 FlinkX 进行调度任务的流程:
- 用户通过 JobManager 创建并提交 task 配置,通过 Quartz 调度 task,作业运行时调用 Flink Kubernetes 客户端访问 Kubernetes Master 创建出 Flink Master 所需要的资源,并启动相应的 Container;
- Flink Master Deployment 里面内置一个用户 FlinkX Jar,这时 Cluster Entrypoint 就会从中去运行 main 函数,然后产生 JobGraph;之后再提交到 Dispatcher,Dispatcher 会启动一个 JobMaster 向 KubernetesResourceManager 申请资源,RM 发现没有可用的资源会继续向 Kubernetes Master 申请资源,请求资源之后将其发送回去,启动新的 TaskManager;
- TaskManager 启动之后再注册回来,此时 RM 再向它申请 slot 提供给 JobMaster,最后由 JobMaster 将相应的 FlinkX Task 部署到 TaskManager 上。这样整个 Flink 集群的拉起,到用户提交 Jar 都完成了。
我们的 Flink 集群其实也是一种 serverless 的实现。
- JDBC 支持
为了提升不同用户的数据分析体验,我们基于 Apache Kyuubi 来支持多租户、多种计算引擎的 JDBC 连接服务,Kyuubi 具有完整的认证和授权服务,支持高可用性和负载均衡,并且提供两级弹性资源管理架构,可以有效提高资源利用率。
在接触 Kyuubi 前,我们尝试使用了原生的 Spark thrift server 来实现,但是它有一定的局限性,比如不支持多租户,单点的不具备高可用,资源是长驻的,资源调度需要自己来管理。我们通过引入 Kyuubi 来支持多租户和高可用,通过 engine 动态申请释放,并且 Kyuubi 支持 Yarn 和 Kubernetes 资源调度。
在使用过程中,为了适配移动云的账号体系以及 LakeHouse 架构,我们对 Kyuubi 相应的模块进行了优化和改造,部分如下:
- 用户认证:基于移动云 AccessKey,SecretKey 对接移动云认证体系。
- 资源管理:Kyuubi 原生只支持用户指定资源,基于云原生适配后禁止用户指定资源,统一由 Lakehouse 进行资源调度和分配。
- 权限管控:适配 Lakehouse 底层权限管理体系,实现细粒度权限的管控。
- 云原生部署:基于 Helm3 的 kyuubi server 云原生部署,支持高可用和负载均衡
- 对象存储:支持对象存储表识别和动态 ak,sk 权限认证
- 增量更新
我们使用 Hudi 作为数据存储中间层,能够基于 HDFS、对象存储等底层存储,支持 ACID 语义、实现快速更新能力。常见的流场景如下:
- 将 Kafka/MySQL binlog 中的数据借助 DeltaStreamer/CDC 通过定时 Flink 任务写入到 Hudi 表中
- 通过 Flink/Spark 任务同步 Hive 元数据
- 部分源数据修改
- 用户访问和查询数据
如右图所示,我们封装了 Hudi 自带的 DeltaStreamer / CDC,自定义 FlinkX 的 Reader / Writer 特性,实现 serverless 入湖和数据同步。
如左图所示,我们比较了两种数据格式:
- 对于实时性要求不高的场景尽量使用 COW(写时复制)表类型,如果对数据新鲜度有一定要求则可使用 MOR(读写合并)
- MOR 会比 COW 更容易产生小文件并且对资源需求更高
以上就是移动云 Lakehouse 实现的细节。
03 应用场景
最主要的场景是构建云原生大数据分析平台:LakeHouse 支持多样化数据来源,包括但不限于应用自身产生的数据、采集的各类日志数据、数据库中抽取的各类数据,并提供离线批处理、实时计算、交互式查询等能力,节省了搭建传统大数据平台需投入的大量软硬件资源、研发成本及运维成本。
另外,在私有云场景下,在充分利用现有集群架构的前提下,以新增组件方式引入 Lakehouse 能力;引入数仓能力,适配多种数据统一存储和管理;统一元数据,形成湖仓一体的元数据视图:
- Hadoop 平台视图:Lakehouse 作为 Hadoop 平台上一个组件,能够提供 SQL 查询能力,并支持多种数据源
- 湖仓视图:基于 LakeHouse 提供数据湖仓平台,HDFS/OceanStor 提供存储,计算云原生,多种服务统一元数据管理。
今天的分享就到这里,谢谢大家。
分享嘉宾:
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。