本文根据OPPO云平台高级后端工程师蔡逸煌在DBAplus的线上分享整理而成,主要讲述OPPO云平台存储容器化的实践。关于作者:蔡逸煌,OPPO云平台高级后端工程师,主要从事云平台开发工作,擅长K8S、容器网络、存储等领域。
今天分享的主题是OPPO云存储的上云之路。
1. 分布式存储介绍
存储相比于其他组件,更底层,所以有必要做一个简单的科普。
1.1 对象存储
主要是对整个文件进行操作,提供了对整个文件进行增删查改的能力。不支持对对象内容进行增量修改,如七牛的对象存储,AWS S3,阿里OSS,呈现给我们调用方式是http api。
1.2 分布式文件系统
文件存储实现了文件的POSIX接口,由于整个文件系统不依赖操作系统,常用于实现共享文件系统,常见的比如说ceph fs,gluster fs呈现给我们的使用方式是文件系统。
1.3 分布式块存储
提供裸块的能力交由物理机使用,协议是SCSI,iSCSI,文件系统层由操作系统提供。呈现给我们的使用方式是裸盘,不带任何文件系统,需要格式化后使用,或者使用块API。
2. 云平台存储基本架构
目前块存储主要是三个组件,gateway、storage、 cluster manager。
-
gateway主要是解析iscsi协议,把块请求解析发送到storage进行处理;
- storage则是对块的读写操作进行处理,管理磁盘数据
- cluster manager为元数据中心,保存节点的状态,对整个集群的健康状态做仲裁
3. 云原生存储
现在Kubernetes 的趋势愈演愈烈,Kubernetes 逐渐成为云原生时代的基础设施,为了给上云的程序提供服务,云原生也随之出现,目前世面上已经有OpenEBS Portworx 和Rook等产品。
云原生存储不仅要为上云的服务提供服务,自身也利用云的特性增强自身的功能,依赖Kubernetes的特性,我们可以轻运维,轻部署,利用容器隔离的能力,减少异常进程之前的相互影响,提高整体资源的利用率。
4. Kubernetes与CSI
Kubernetes作为未来云上的操作系统,把存储整个生命周期和管理抽象成三种资源。
4.1 StorageClass
抽象了管理存储相关的配置,主要是provisioner、parameters、reclaimPolicy这三个配置。
- provisioner: 表示某一种存储资源
- parameters: 相当于自定义配置,自定义一些存储属性
- reclaimPolicy:设置volume释放后,pv的动作,Delete or Retain
通过声明不同stroageclass可以管理多种类型的存储比如说ceph,glusterfs等等。
4.2 PersistentVolume
表示一段已分配的存储,可以是文件系统,也可以是裸块,云存储的云盘或者文件系统映射到Kubernetes 就是一个PersistentVolume。
4.3 PersistentVolumeClaim
用户存储的请求,可以请求特定的容量大小和访问模式(例如,可以以读/写一次或指向多次模式挂载)。
抽象出PersistentVolumeClaim把存储和管理分离,通过PersistentVolumeClaim我们可以控制访问存储的权限,存储的容量和类型。
下图是Kubernetes使用存储的一个方式:
这里衍生下Kubernetes 的一些设计理念,Kubernetes 使用声明式的API,通过YAML声明请求,并保存到etcd,这样做的好处是把整个请求记录下来,对于问题的回溯也比较方便,不用自己去记录日志提炼请求。
另外Kubernetes 还提供了对于各种资源的watch Api,各种资源的crud都可以通过watch api实时的拿到对应的YAML,这样的设计的好处是让Kubernetes 拥有非常好的扩展性,通过实现controller 去watch各种资源的变化情况,定义该资源的crud行为。
4.4 Container Storage Interface
提供一个将任意块或者文件存储系统对接到给容器编排系统(COs)上的接口标准,如Kubernetes。
把存储从创建到销毁整个生命周期抽象成一组标准接口,Kubernetes通过对接CSI,实现对存储整个生命周期的管理。
下图就是CSI定义的存储卷的生命周期:
4.5 Kubernetes中对接CSI
上文说道Kubernetes 对存储的抽象是StorageClass,PersistentVolume ,PersistentVolumeClaim等资源CSI 则是提供一组标准接口。所以需要引入一层把Kubernetes 中的资源行为转为CSI接口的程序,Kubernetes 提供了多个sidecar屏蔽这个过程。
这里简单科普下sidecar,一般来说,引入sdk实现某些功能,在编译的时候把sdk代码编译进去,更新sdk要重新发布,和工程耦合的比较紧密,sidecar则是把sdk实现的功能通过在pod运行一个独立的容器实现,通过sidecar们提供rpc接口进行交互,可以作为被调用方,也可以是把服务包装起来增强服务功能,增加这样子的好处是解耦,让更新sidecar容器的版本更简单。
通过引入以下sidecar,我们可以只专注于实现CSI定义的接口。
- external-attacher:辅助触发ControllerPublishVolume
- external-provisioner:辅助触发Controller相关接口
- node-driver-registar:辅助注册csi插件到kubelet
- external-resizer:辅助实现volume扩容
- external-snappshotter:辅助实现volume快照
- livenessprobe:转换csi prob到k8s的liveness
4.6 Kubernetes和CSI的架构
从官网给的图我们就可以直白的看到粉红色框的sidecar们相当于一层胶水,把Kubernetes和csi链接起来。
1)PV与调度
至此我们已经讲完了Kubernetes和CSI与K8S怎么交互的,接下来讲下PV与调度的关系。
在调度阶段,PV的affinity 会影响Pod的调度,所以有调度需求的可以通过PV的affinity控制。
2)NodeStatgeVolume与NodePublishVolume
之前查阅资料的时候发现这两个接口的说明讲的比较少。
NodeStatgeVolume的接口是把远端的云盘挂到物理机上面。NodePublishVolume的接口是把NodeStatgeVolume之后的盘挂进容器里面。Kubernetes 在NodeStatgeVolume阶段会给每个PV生成一个全局挂载点,如下图:
通过判断这个挂载点是否挂载可以方式PV重复挂载导致出错。接下来NodePublishVolume把NodeStatgeVolume的的挂载点挂载的自己Pod文件夹下,最终这个Pod的挂载点会被挂载进容器里面。
5. 存储容器化
存储作为基础组件,直接和本地盘打交道,所以我们一个要解决的事情就是如果Kubernetes 管理本地盘。
kubernetes管理本地盘
通过官方提供的local-static-provisioner自动生成LocalPersistentVolume管理磁盘。
LocalPersistentVolume是Kubernetes提供的一种管理本地盘的资源。
5.1 使用Statefulset管理存储容器
通过statefulset 管理有状态的存储服务, 为每个pod分配一个单独的磁盘可以使用volumeClaimTemplates给每个pod生成唯一的pvc,具体规则${claimNmae}-${podName},事先准备好PVC 和 PV,通过Statefulset 我们就可以把我们的存储托管到云上了。另外借助daemonset,可以把我们gateway模块部署到每一个node上面。处理云存储的请求。
5.2 存储容器化的收益
1)降低运维成本
基于Kubernetes和statfulset获得了滚动更新,灰度更新,健康检查,快速扩容等功能,只需要一组yaml文件就可以快速搭建一个集群,相比于传统写ansible脚本部署的方式复杂度大大降低。
2)降低开发运维成本
由于Kubernetes把存储抽象成StorageClass PersistentVolume PersistentVolumeClaim。我们可以通过他们管理我们的存储资源,基于Kubernetes lable的过滤功能,可以实现简单的关系查询,通过PVC与PV管理存储资源,减少管理端的开发。定位问题也能通过POD信息快速定位到问题机器和问题云盘。而且接入Kubernetes生态上的prometheus后,监控告警也能快速开发。
3)隔离性增强
docker限制cpu memory使用,减少进程之间资源互相干扰,进一步提升资源利用率。
线上问答
Q1:基于K8S的在线集群实现离线任务的混合部署,有什么心得吗?
目前我们线上的转码job就是部署在在线集群,由于离线任务用到的cpu比较多,部署的时候需要通过affinity策略设置pod强制分散在各个物理机,不过最重要还是要看整个集群的监控大盘,根据负载设置离线任务的资源。
Q2:OPPO这边用的是什么监控?做了什么改进吗?
我们这边是自研的监控,监控核心是tsdb,我们这边自研了一个分布式的tsdb,性能非常强大,每秒支撑上千万的metrics入库,所以我们现在是每秒采集一次监控指标,相比于普遍的30秒采集一次,我们在分析性能峰刺的问题有更多数据可以参考。
Q3:自研监控和Prometheus相比,对于监控是怎么取舍的?
我们这边的tsdb是监控Prometueus的接口,能够充分利用Prometheus的开源生态,相当于是分布式版本的Prometheus。
Q4:存储的伸缩性是怎么处理的?
这里不知道是指哪个伸缩性哈,我理解的有两个:
存储集群的伸缩性:有存储集群本身的扩缩容机制保证;
存储卷的伸缩性,csi提供了expand接口,可以通过这次接口实现对卷的扩缩容。
Q5:K8S每次更新pod版本判断服务ready有什么好的方法吗?
我们这边是写了个controller watch了K8S pod的事件,通过事件判断pod是否ready。
Q6:除了通过storageclass、pv/pvc对接存储外,有尝试过把ceph、hdfs等存储集群自身也部署到容器集群内吗?
有的,我们目前有部分存量数据用了ceph,storageclass、pv、pvc这三个是K8S对于整个分布式存储的抽象,想要灵活高效的使用存储都避不开这三个,此外K8S还提供了flexvolume,这个是以二进制的形式扩展到K8S里面的,比较简单,没有controller做中控,对动态扩容、快照之类的功能支持的比较弱。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。