一. 现状问题
代码评审 Code Review 是提高代码质量、促进团队合作、知识间共享的关键环节,对于系统代码质量和稳定性都至关重要。
【人为代码评审(Code Review)】存在很多弊端 |
---|
时间消耗大:代码评审是一个耗时的过程,特别对于大型项目和复杂的代码更是如此。 |
无档期: 评审者无时间会造成研发卡点。 |
一致性缺乏:不同的审查者可能会有不同的编码标准和偏好,这可能导致代码审查的反馈缺乏一致性,给开发者带来混淆。 |
可能遗漏错误:人为审查的过程中可能会因为疲劳、疏忽或知识限制而遗漏一些错误,尤其是对于难察觉的逻辑错误和性能问题。 |
主观性:代码审查很容易受到审查者个人偏好和情绪的影响,有时可能会导致不必要的争议。 |
二. 分析原因
🤔人为代码评审存在的弊端主要源于人力的局限性(如疲劳、无时间、主观偏见、认知局限等)。这些因素共同作用导致审查过程中可能出现的时间效率低、一致性差、错误遗漏和主观性问题。
🗣用五个词语总结: 易疲劳
主观偏见
规范少
沟通难
知识缺
三. 采取措施
🤖 利用AI大模型进行代码评审,可以显著提高效率、减少人为错误,通过自动化分析和建议,弥补人为评审的局限性。同时还能促进代码一致性和质量,但需要适当的人机协作模式以充分发挥其潜力。
将GPT嵌入到CI实时code review 助研发一臂之力。 |
---|
提高效率:自动化审查过程大大减少了人工审查所需的时间,加快了开发周期。 |
增强准确性:AI模型可以持续学习,减少人为疏漏,提高代码审查的准确性和质量。 |
一致性保障:确保代码遵循最佳实践和项目规范,整体一致性。 |
即时反馈:开发者可以即时获得反馈,快速修正问题,不卡点。 |
知识共享:AI评审过程中的建议可以作为学习资源,帮助开发团队提升编码水平。 |
底层依赖: 京东言犀大模型、行云流水线(云原生)、单元测试脚本、coding 代码评审机制(webhook)
【简易版📌】AI代码评审接入手册 👉 见评论 已成型机制,京东内部一键式接入!
群号见评论区哦!
四. 实践步骤
4.1 接入京东言犀大模型(行业内类ChatGPT大模型均可)
言犀大模型文档 (JD内部免费-代码安全)
申请接入GPT( 评论区加群 or 私信我 审批连接):填写申请原因和基础信息。 🖐(行业内类ChatGPT大模型均可~)
审批完成会收到API key (chatrhino-14B 暂时输入内容的最大长度为45000字符,通常代码修改可以满足)
4.2 内置AI Review脚本(Git代码库API打通)
1、调用coding API(获取MR的commit起止点) 2、调用coding API(获取本次代码diff) 3、调用GPT- API(京东大模型)
脚本链接汇总(评论区加群 or 私信我 获取): 目前支持的模型有Chatrhino-14B(最新版本-选择此模型) 、Chatrhino、Chatrhino-JingYan 其它模型持续集成中。
AiCodeReview.java 脚本案例(java语言-junit5版本)粘贴到自己代码库中即可
📢注意:不必须依赖junit5,可以自行切换junit4,demo只是提供框架思路,落地后可根据代码库场景优化脚本!
替换2个变量:
① API Token
•建议申请协同虚拟账号(优势:很稳定,不会随个人账号离职等变化):部门公共AI架构师评审,设置API Token
【流程中心-协同办公-协同(虚拟)账号管理】👉 别忘了coding给他加个权限!
② PROJECT_ID:替换为您的Git 应用id(如下查看)
③ 大模型api-key:替换为您的key(查看4.1部分)
•核心脚本逻辑步骤 如下示例:
void aiCodeReviewByChatrhino() {
//1、get mr
String mergeRequest = System.getProperty("mergeRequest");
if (mergeRequest == null) return;
System.out.println("【流水线触发MergeRequest】------------------------------------------------ " + mergeRequest);
//2、get coding diff
String codeDiff = getCodingDiff(mergeRequest);
System.out.println("【coding的diff内容】------------------------------------------------" + codeDiff);
//3、gpt code review
String result = gptReview(codeDiff);
System.out.println("【京东言犀大模型评论】------------------------------------------------" + result);
//4、output review content
note(objectMapper.readTree(result).get("choices").get(0).get("message").get("content").asText(), mergeRequest);
System.out.println("【coding评审note记录】------------------------------------------------" + noteContent + "-----------------------------------------------");
}
✋脚本内设定AI人设 (content字段) :根据自己需求定义prompt
比如你想用于分析本次改动业务语义、或者专注于找bug、亦或者代码写法是否规范等
4.3 搭建CI流水线(持续集成)
① 新建流水线:导入AI流水线脚本模版yaml 创建AI Code Review机制
流水线原子:【下载代码】+【java编译】+【咚咚通知】
② 原子参数配置修改:【下载代码原子】+【maven编译原子】改为自己代码库和脚本路径
•【咚咚通知原子】默认配置即可,📢 提交代码研发
✍️ 同部门下建议独立脚本代码库,projectID动态传入,不同应用可实现《一键式接入》(只需导入流水线即可实现AI评审)-DprojectId=${globalParams.user.WEBHOOK_ATTR_PROJECT_ID}
分支:${globalParams.user.BRANCH}
相对目录(脚本放置位置):${globalParams.system.APP_IDENTIFIER}
mvn test -Dtest=com.jdwl.wms.common.AiCodeReview -DmergeRequest=${globalParams.user.WEBHOOK_ATTR_MERGE_REQUEST_ID} -DfailIfNoTests=false -Dmaven.test.failure.ignore=true
③【触发设置】绑定自己代码库,MR Create/Updated 事件(原因:coding的push操作统一触发mr create/update操作)
4.4 配置coding(Webhook联合CI)
① 增加【持续集成】账号 master权限
② webhook: 流水线生成的webhook链接(Push + Merge Resuest)
③ 代码评审机制:* 所有分支push时 自动创建MR 阻塞合入
五. 达成效果
5.1 Coding AI评审记录
👉 不同系统根据自己需求来设定AI人设:有的可能用于分析本次改动业务语义、有的专注于找bug、有的看代码写法规范度等
1.代码push稍等片刻 收到咚咚通知: AI代码评审完成
◦自动创建Merge Request触发code review流水线,自动AI架构师-代码评审记录!
👉 可以针对代码中【潜在bug】和【不规范写法】可以指出优化建议!
👉 可以分析代码变动,警示研发一些注意事项!
5.2 流水线运行
六. 效能提升
6.1 人效提升,降低研发人力成本,减少研发阶段占比
自动替代人为评审,每次push都会自动评审,活跃代码库 评审需求量>10次/天,减少了 提交人和评审人的沟通 时间成本总和。
自动2024-13周落地实践后,开发阶段占比阶段性降低,从需求周期的 62% 降低至 52%,大约降低了10%的比例(多数为代码push后评审的耗时,评审时间、沟通时间、返工时间、修复时间 ......)
6.2 需求交付提升,缩短需求交付周期
自从2024-13周落地实践后,研发节省大量人力成本在每一次push的代码评审,只是辅助评审,则更多精力在需求研发设计交付上,需求交付周期之前的 26.57天 缩短至目前 17.14天。
6.3 过程质量提升,有效减少BUG数
自从2024-13周落地实践后,AI评审代码后,新增bug数呈现下降趋势,从之前的14个/人减少到目前 6个/人。
七. 简要总结
🤖 AI Code Review 机制通过CI流水线自动化评审代码,显著提升了 研发效率 和 代码质量,使研发能够更专注于创新和核心业务的开发,进而 优化用户体验 和 提升需求交付速率。
👏 很荣幸推动了JD的AI代码评审生态,机制还有很多优化之处,欢迎大家共同交流! 群在评论区。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。