头图

前不久,2024中国大学生服务外包创新创业大赛正式启动!作为中国高等教育学会“全国普通高校学科竞赛排行榜”竞赛,飞桨赛道已经吸引了超过200位选手报名参赛。

本文旨在助力“A01-基于文心大模型智能阅卷平台设计”赛道选手,更快地明确产品设计与开发的路径,并用好飞桨星河社区各类工具与资源。

往何处去:结合赛题背景,定位自己的产品方向

看到赛题中的“阅卷”二字,想必选手们首先会有三个疑问:

  • 需要评阅什么学科的试卷?
  • 需要评阅什么样的试卷?
  • 需要评出什么结果?


图1:定位选题空间

由于赛题并没有指定具体的评阅对象,给选手们发散空间则比较宽裕。那么,在选题的过程中,选手们就可以从难度和对AI的需求两个角度着手,根据自己的偏好和团队的实力,在客观分析出来的一个难度空间中(如图1),定位好自己的选题设计。

拆解赛题任务:抽丝剥茧,核心搞定4大关键模块

不难发现,本赛题融入了大模型与小模型,选手们要完成的作品,是需要打通感知、理解与生成全流程,是一道能力考核全面但又场景聚焦的题目。


图2:拆解赛题任务

面对赛题众多的任务点(如图2左侧),选手们或许有一些迷茫,不用担心!当我们初步进行任务的聚类,会发现:任务的核心在于四大模块的设计。

在AI小模型、AI大模型和网站产品开发上,飞桨星河社区都提供了一站式的工具,这些工具串联起来的pipline,能够快速帮大家又快又标准地完成模块能力的建设工作。

以终为始:看赛题背景,看技术要求

当选手有了大致选题方向,踌躇满志之时,接下来,则需要对照赛题任务要求,确定工作发力点。


图3:赛题要求拆解

在视觉技术和深度学习框架要求上,飞桨星河社区会为本次大赛提供算法模型验证平台,考虑到试卷的手写字体是通用型的识别需求,因此本次算法部分的任务提交与飞桨模型评测,仅围绕手写字。

在多格式和速度等要求上,考虑到选手选择的学科和内容并不一样,选手除了基于上述手写字的算法验证要求,还可以自行选择数据集,基于更多学科、更多试卷类型和更多评阅材料中样本的特点,进行能力效果的举证。

在评阅结果可视化与数据管理要求上,选手可以针对用户及场景的需求,设计合理的可视化体验与数据管理逻辑,使产品更加可用、更加成熟。

串联产品整体逻辑:为何出发,如何抵达,结果怎样

在产品开发的末尾中,如何面向最终的竞赛答辩,有一套完整的价值叙事逻辑,是至关重要的。要是想在答辩现场游刃有余,必须直面以下这些问题,提前“汗流浃背”!


图4:整体答辩逻辑

产品定位问题:为什么选择这样的评阅对象作为研究方向呢?有没有经过各类试卷样本的比较分析?有没有对教师需求和评阅现场有精准分析?有没有了解目前市面上还有哪些竞品?……

工作量问题:工作量够不够?有哪些独特创新和技术壁垒呢?有没有自己采集过样本和数据,还是用成熟模型;有没有自己做过大模型微调;怎么样把产品直观质量,做到high level?……

成果问题:产品有没有实际投入使用?产品有多少个用户测试反馈?有没有主动去推动产品向真实用户去做测试?……

这些问题的模拟回答,是希望能够让大家在繁重的开发过程中,在“深陷”琐碎的技术细节的同时,有一个全局视角,能够时不时地进行自我反思与迭代。

未来,我们也将有更多直播、课程和实际的开发案例,帮助大家持续去学习和迭代,为大家的备赛过程再加一个氮泵!

更多问题,可联系liuconglin@baidu.com

另外,为了更好地助力设计师、产品经理和初阶开发者更快速地入门AI产品原型设计,我们联合全球顶尖高保真原型设计工具ProtoPie ,基于ERNIE SDK能力,共同推出《如何提高AI产品原型表现力》公开课!欢迎大家报名!


飞桨PaddlePaddle
30 声望34 粉丝

飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件、丰富的工具组件于一体,是中国首个自主研发、功能丰富、开源开放的产业级深度...