头图

2025-02-27 ,由西班牙阿利坎特大学计算机研究所发布的DIPSER数据集,是首个专注于真实场景下学生课堂参与度识别的数据集。该数据集的创建填补了教育技术领域在学生注意力分析方面的数据空白,为开发更精准的教育工具和提升教学质量提供了有力支持。

一、研究背景

随着教育技术的不断发展,对学生课堂参与度的实时监测和分析成为提升教学质量的重要手段。然而,目前大多数研究依赖于实验室环境中的数据,这些数据无法完全反映真实课堂场景下的学生行为。

目前遇到的困难和挑战:

1、数据稀缺性:真实场景下的学生参与度数据难以获取,大多数研究依赖于模拟环境。

2、复杂性:真实课堂环境中的学生行为更加复杂,涉及多种模态(如表情、动作、语音等),难以全面捕捉。

3、标注难度:对学生参与度的标注需要专业知识,且标注过程耗时耗力

数据集地址:DIPSEER|情感识别数据集|教育技术数据集

二、让我们一起来看一下DIPSER数据集

DIPSER是一个专注于真实课堂环境下学生参与度识别的数据集,目的为教育技术研究提供高质量的数据支持。

DIPSER数据集包含了多种模态的数据,如视频、音频和传感器数据,涵盖了学生在课堂上的各种行为表现。数据采集自真实的课堂环境,确保了数据的真实性和多样性。

数据集构建:
数据集由西班牙阿利坎特大学计算机研究所构建,采集自多个真实课堂场景,涵盖了不同年龄段和学科的学生。数据经过专业标注,确保了数据的准确性和可用性。

数据集特点:
真实场景:数据采集自真实的课堂环境,反映了学生在自然状态下的行为。

多模态数据:包含视频、音频和传感器数据,支持多模态分析。

高质量标注:由教育专家进行标注,确保数据的准确性和可靠性

基准测试:
DIPSER数据集提供了基准测试,帮助研究人员评估模型性能,并与其他研究进行比较。

图片

            每个教育环境中两个主体的单独图像

图片
主要RGB注意力数据集的特点总结:种族优势、录制时长和环境、主体数量、额外的上下文摄像头、IMU(惯性测量单元)的存在、野外收集以及标签。
图片

            每个学习环境的上下文摄像头的总体图像

图片

            各种传感器及其相应数据值的描述

图片

            实验1到5的捕获设置

图片

            实验6到9的捕获设置

图片

            实验过程中心率的变化

图片

            每次实验的标签数量

图片

        使用t-SNE进行手表传感器数据的降维

图片

            每组学生的描述性统计

三、让我们一起来看一下DIPSER应用场景

以前,老师上课的时候,只能靠自己的眼睛去观察学生们是不是在认真听讲。比如,老师会看看学生有没有走神、有没有在下面偷偷玩手机,或者是不是在小声聊天。但是这种方法很有限,因为老师一个人要管全班几十个学生,很难注意到每一个细节。而且,有些学生可能表面上看起来很认真,但实际上心思早就飞到别的地方去了。老师只能凭借自己的经验来判断,很难做到完全准确。

而且,老师课后也很难知道每个学生到底学得怎么样,哪些地方没听懂。他们只能通过作业或者考试来了解,但这些方法都有点滞后,等发现问题的时候,可能已经错过最佳的辅导时机了。

现在有了DIPSER数据集,情况就不一样了!

这个数据集就像是给智能教育系统提供了“超级眼睛”和“超级大脑”。比如,学校可以用这个数据集训练一个智能系统,系统会在课堂上实时观察学生的行为。它可以通过摄像头看学生的表情,比如是不是在点头、是不是在皱眉(可能是因为没听懂),还能通过麦克风听学生有没有在小声讨论问题。

这个系统还能分析学生的动作,比如有没有频繁地看手表(可能是因为无聊),或者有没有在认真记笔记。这些数据都会被系统实时分析,然后生成一个学生的参与度报告。

老师上课的时候,就可以通过平板或者电脑看到这个报告,知道哪些学生需要多关注一下。比如,如果系统发现小明已经连续好几分钟没有抬头看黑板了,老师就可以及时提醒他,或者调整教学方式,让他重新参与到课堂中来。

而且,课后老师还能拿到更详细的报告,比如哪些知识点学生参与度高,哪些部分学生可能没听懂。这样老师就能更有针对性地备课,或者给学生提供个性化的辅导。比如,如果发现全班同学在某个复杂的数学公式上参与度都很低,老师就可以在下一节课重点讲解,或者用更生动的方式重新讲解一遍。

总之,有了DIPSER数据集,老师就像有了一个超级助手,不仅能看到学生表面的行为,还能更深入地了解他们的学习状态,教学效果肯定能提升不少!

**更多开源的数据集,请打开:遇见数据集
https://www.selectdataset.com/**


数据猎手小k
1 声望0 粉丝

为你解读每一个数据集背后的故事。