头图

本文将从敏捷研发团队的环境需求与痛点出发,分享如何基于云构建可弹性伸缩的自动化生成式多测试环境;更在经济效益层面,提供了多种成本优化方案,以满足研发团队低成本、高效益的多测试环境运行目标。

一、当前遇到的环境问题

初期,根据实际研发需要,LigaAI主要应用了以下四套环境:

  • Dev环境是开发环境,专供前/后端开发人员进行功能开发自测、联调等;
  • Sit环境为测试环境,供测试成员进行迭代功能验收;
  • Pre环境为预发布环境,主要承担整体测试、回归测试等;
  • 最后,Prod环境为生产环境。

随着团队规模不断扩大、业务组划分走向清晰,以及微服务拆分愈发精细,环境资源开始逐步缩紧,资源紧张带来的冲突频繁制约着团队发展。

  • 对迭代有风险的复杂需求需要剥离迭代,进行单独测试;
  • 开发人员需要不同的Dev环境进行联调;
  • 迭代小组的迭代进度各异,需要分批提测;
  • 紧急Hotfix急需测试,但环境已被占用;
  • 需要进行系统压测,却缺乏一套压测环境;

为缓解环境资源紧张问题,LigaAI对原有的Dev环境和Sit环境做了如下扩展。

如此虽一定程度上满足了不断增加的环境需求,但不可避免地导致了其他问题。因此,针对以下环境需求痛点,LigaAI着手搭建了一套高弹性、可伸缩的测试环境。

二、测试环境的改造目标

开始正式改造前,LigaAI结合研发流程和环境需求,对目标测试环境提出了几点要求:

  • 多环境:针对不同的测试场景,可以提供不同的测试环境。
  • 互相区隔:数据、配置信息和应用访问在不同环境之间要相互隔离。
  • 高效稳定:环境要保持稳定且高效地运转,不能影响正常迭代进度。
  • 低成本:产生尽可能较低的额外成本,任何时期都要将资源用在刀刃上。
  • 可复用:针对特殊需求可快速扩展新环境;简化测试环境维护,让团队聚焦研发与测试。

第一步:测试环境的标准化改造

Step 1:搭建底层基础设施

围绕弹性、扩展和部署等关键词,LigaAI最终选用Amazon EKS作为环境伸缩的底层基础设施。

Amazon EKS即Amazon Elastic Kubernetes Service,是一项完全托管的服务。无需安装、操作或维护集群也可轻松运行Kubernetes,而其内置的控制面板则为LigaAI的集群管理提供了便利。

Step 2:规范中间件资源

为方便应用接入,我们梳理了系统中需要改造或命名规范化的基础资源和中间件,包括域名命名、数据库地址、消息队列、Redis和Elasticsearch等。

命名规范化可以以环境名称为统一标识,采用「资源名称_环境名称」等形式完成。

Step 3:应用改造

下一步,依据梳理好的基础资源和中间件规范,重新整理并统一测试环境配置信息,规范化应用配置和持久化数据。

应用改造目标是,只需注入环境名称,即可替换所有与环境相关的配置信息,如回调地址、消息队列、数据库信息等;而持久化的数据不应保存与环境信息相关的数据。

该阶段可能涉及到一部分代码改造,需要开发团队参与配合。

Step 4:制作环境模板

想要自动生成环境,首先必须有一套含有持久化数据、配置文件和应用包的环境模板;其中,应用包数据包括后端镜像和前端资源包。

在本次改造中,LigaAI指定Pre环境作为基准环境模板来源。

Step 5:一键搭建环境

为最大程度提高产研团队效率,环境搭建必须方便快捷,且满足可复用要求。

将环境搭建流程的各个环节脚本化,并将这些脚本集成到流水线任务当中,实现环境搭建的一键生成效果;其中,将部分流程并行处理,也会加快环境生成速度。

Step 6:环境登记责任人

除一键生成环境外,制定标准化的环境管理流程也很重要。明确环境负责人,将环境生成、重置与释放流程集成到运维平台,让申请信息可视化;

同时,通过信息通知集成IM,支持环境生成/释放信息、环境到期提醒等通知的及时触达。

四、标准化改造成果:环境生成自动化

至此,测试环境的标准化改造告一段落,而LigaAI也成功打通了环境模板生成流程和环境申请流程的数据传递通道。

左边:环境模板生成流程

发布生产后,触发模板构建任务;

通过提取Pre环境的数据,找出当前的镜像信息,打上Tag并标记为模板镜像;

再将环境模板所需要的数据库、配置文件和前端资源等数据上传到Amazon S3进行保存。

右边:环境申请流程

环境申请人先在运营平台登记申请,填写使用时间和使用范围;

提交申请后,触发任务:从Amazon S3拉取配置数据,初始化中间件资源,从镜像仓库拉取模板镜像部署应用,一键生成环境;

环境到期后会自动释放,如需继续使用,提交延长登记信息即可。

环境生成的标准化改造通过流水线任务自动搭建、环境自动释放和申请人登记,解决了环境需求的三大痛点。想要进一步解决环境资源紧缺或浪费的问题,需要继续完成测试环境的弹性伸缩改造。

第二步:测试环境的弹性伸缩改造

容器资源主要分为Pod级别和Node级别。每个Pod包含一个或多个应用容器,并以整体的形式在Node之上运行。

与资源分类对应,资源伸缩也有两种模式:

  • Pod级别的资源伸缩为HPA,是Kubernetes的内置服务,主要用于副本数量的调整;
  • Node级别的资源伸缩为Cluster Autoscaler,非Kubernetes内置服务,需要手动部署Deployment安装;

想要让服务器资源满足变化频繁的研发环境需求,则需要对Node级别进行弹性伸缩改造。

Amazon EC2 Auto Scaling groups(以下简称自动伸缩组)提供了弹性扩展服务器实例的功能,支持设置服务器的初始生成数量、最小数量以及最大数量限制。

当扩展策略生效时,自动伸缩组会在指定的最小和最大容量值之间调整组的所需容量,并根据需要启动或终止实例。

痛点4:服务器资源不足时,如何扩容?

环境申请成功后,Pod数量增加,但因节点资源饱和/不足,此时新的Pod会处于Pending状态。

Cluster Autoscaler定期(默认间隔 10 秒)检测节点资源的使用情况。一旦监测到Pending状态的Pod,便会触发节点扩容,调用Cloud Provider,创建新的Node以满足增加的环境需求。

痛点5:服务器资源过剩时,如何缩容?

测试完成后,环境资源释放,Pod被删除。此时,Node资源呈闲置状态。

当检测到一个Node已超过 10 分钟没有执行任何扩展操作,或资源利用率均低于 50% 时,Cluster Autoscaler会控制自动伸缩组进行回收节点,自动将其删除;原来的Pod也会自动调度到其他Node上。

以上,Cluster Autoscaler通过Cloud Provider插件,操作自动伸缩组完成服务器资源的扩展与回收,达成测试环境的弹性伸缩改造。

六、如何实现低成本,高效运行环境?

1. 中间件资源复用

云环境下,对数据库、Redis、Elasticsearch、配置中心和注册中心等中间件资源进行复用,可大幅节省使用成本和资源,降低环境扩展难度。

比如,在一个数据库实例上,以环境名称为索引标识,创建不同环境的数据库,以节省资源。

### 2. 合理分配资源

此外,还可以通过以下几个方面,控制云服务器上的成本支出。

第一,合理分配CPU和内存的Pod资源预留与资源限制。 资源预留(Requests)表示Pod需要占用的最小资源,即节点上必须有大于Request值的资源,才能调度这个节点;而资源限制(Limits)则表示Pod可使用资源的最大值,当容器占用资源超过Limit值时,就会被终止或重启。

CPU是弹性资源,而大部分IO密集型应用在测试时对CPU的使用率和消耗都比较低,因此建议将CPU的Requests设置小一些,将Limits调大一点。

Java应用分配内存则可以通过分析GC日志、应用监控信息、JVM监控信息等,根据GC频率和GC耗时的表现,找到一个可接受的内存设置平衡点,用较小的内存满足当前的服务需要。

第二,关注节点的配置比例和大小选取。CPU和内存的节点配置比例需要根据实际业务系统的需求确定。比例设置原则是避免CPU或内存成为明显的短板,常见的应用比例是 1:4 或者 1:8。

节点的选择上,一方面要避免选择配置低的小节点。因为节点上需要部署Kubernetes的基础组件,这会消耗固定的资源,且节点越多,整体开销和成本越大;此外,过小的节点还可能出现资源碎片的问题,所以建议适当挑选大一些的节点。

另一方面,切忌盲目追求大节点。大节点允许的Pod数量较多,一旦节点出现问题,影响范围也会更大。同时,大节点的自动伸缩成本更高,容易出现「杀鸡用牛刀」的情况。

第三,奉行勤俭节约原则。 一次性运行的任务或执行频率较低的周期任务,可以通过K8S Job和CronJob执行。另外,资源节约意识也表现在环境不用时及时回收、没有特别情况不随便申请环境、避免非常规环境空置等习惯之中。

### 3. 控制云上的成本

LigaAI的测试环境改造采用了多项亚马逊云科技服务,因此我们也通过减少云服务商的成本费用,进一步实现低成本的高效运行。

首先,挑选合适的区域很重要。就亚马逊云服务而言,不同区域的费用标准也会有所差异。可以多多对比中国区和外国区,或宁夏区域和北京区域的相关费用标准,选择最合适的区域服务。

其次,还可以关注云服务器的不同定价方案。以Amazon EC2云服务为例,我们主要考虑按需实例、预留实例和竞价实例三种定价方案。

  • 按需实例/On-Demand Instances:按小时或秒(最少 60 秒)收费。
  • 预留实例/Reserved Instances:类似按年付费;相比按需实例,最高可提供 72% 折扣。
  • 竞价实例/Spot Instances:在服务器需求不高时,可出售空闲服务器资源;相比按需实例,最多可享 90% 折扣。

采用「预留实例+竞价实例」的组合方式,也能进一步实现经济效益最大化。

对于固定的环境,提前计算好需要的服务器数量,申请预留实例,并将其设置为自动伸缩组中的最小实例数量;再将额外的扩展环境设置为最大数量,以此实现弹性扩容。

对稳定性要求不高的环境或应用(如开发环境),可以通过Spot自动伸缩组进行环境扩容。

01 配置节点亲和性和污点

设置节点亲和性或污点,让对的Pod被调度到正确的节点上。节点亲和性使得Pod被吸引到一类具有特定标签的节点上,而节点污点(Taint)则相反,它使得Pod避免被调度到这些节点上。

通过将需要稳定运行的Pod固定在按需实例或预留实例的节点组上,将可容忍中断的Pod限制在Spot节点组上,也可满足成本控制的需要。

为了方便环境回收时的节点释放,按环境名称设置Pod亲和性,将同一环境的Pod尽量放置到相同的节点,减少节点中的Pod转移,提高节点回收率。

02 如何降低Spot节点中断的影响?

第一,选择多个可用区和多种实例类型。 注意,同一个节点组的实例类型的CPU核心数量跟内存大小必须一致,这样会有更充足的资源。

第二,设置Pod优先级。 对非关键Pod设置低优先级,可以在节点回收时,率先将重要的Pod转移到其它空闲资源中去;

第三,还可以在节点关闭前,先将Pod调度转移。具体实现路径如下:

首先,开启自动伸缩组的「容量再平衡设置」。开启后,如果Spot节点有中断风险,自动伸缩组就会提前发出容量再平衡通知,并重新分配一个新的Spot节点。

旧节点关闭前两分钟,自动伸缩组会发出终止实例的通知(需手动开启相应的通知配置)。

而在Kubernetes中,我们需要部署AWS Node Termination Handler服务,并通过它来接收事件,驱逐旧节点里的Pod;Pod驱逐完成后,再关闭旧的节点。

以上步骤可以基本保证Spot节点的相对稳定性。

### 4. 账单费用监控告警

最后,做好费用的监控预警也很重要。以下服务可用于监控费用明细,提供资源优化支撑,也可以对账单费用突增、预留实例覆盖率进行告警通知。

  • Amazon Cost Explorer
  • Amazon Budgets
  • AWS Tweaker

本文内容整理自Apps Everywhere系列活动 - 深圳站(线上直播)的主题分享。该活动由亚马逊云科技User Group举办,聚焦云原生开发技术,探索云原生技术下的测试、交付、安全等话题的全新思维碰撞。

未来,LigaAI将持续为开发者社区提供高质量技术分享,与更多开发者和团队一起探索高效益的研发管理之道。

了解更多敏捷开发、项目管理、行业动态等消息,关注我们的sf账号-LigaAI~ 或者点击LigaAI-新一代智能研发协作平台,在线申请体验我们的产品。

LigaAI
52 声望16 粉丝

全新的智能研发管理平台。持续产出敏捷开发、机器学习等干货内容ing……