美文网首页
TVCG2020 EmotionCues: Emotion-Or

TVCG2020 EmotionCues: Emotion-Or

作者: Hoyer | 来源:发表于2022-05-07 14:02 被阅读0次

    0、关键词

    emotion, classroom videos, visual summarization, visual analytics

    1、链接

    该论文提出的系统EmotionCues来自香港科技大学(The Hong Kong University of Science and Technology, 简称“港科大”(HKUST)) 的技术团队,主要贡献在UI可视化设计,这也与期刊名称和主题(Transactions on Visualization and Computer Graphics)相称。其中的主题内容,专注于教室场景中,通过捕捉与可视化展示学生的表情变化,来辅助教师改进和提升教学。

    论文链接:https://ieeexplore.ieee.org/abstract/document/8948010

    论文主页:无

    论文代码:无

    自制公开思维导图:https://www.processon.com/mindmap/5e3e2efee4b0a3daae803868

    在论文中,来自香港科技大学、哈尔滨工程大学等机构的研究者提出了一种名为EmotionCues的系统。该系统主要关注如何记录学生面部表情,并据此来分析学生在课堂上的情绪变化注意力集中程度。作者之一、香港科技大学计算机教授屈华民介绍说,这个系统「为教师提供了一种更快速、更方便去衡量学生在课堂上参与度的方法。」这项研究的初衷是「善意」的:依靠该系统去监控学生在课堂上的情绪反馈,判断学生在什么时候开始感到无聊,什么时候注意力更加集中,以此来提醒老师该如何改善课堂内容、提高授课质量。

    2、主要内容概述

    ※ Abstract

    ● 指出分析学生表情有助教师和家长快速掌握学生上课专注程度。

    ● 高清相机的普及为记录课堂场景创造了机会。但是通过观察视频了解表情分布和异常表情非常耗时间。

    ● 文章提出了EmotionCues视觉分析系统进行表情分析,有3部分:表情概略、个人表情、原视频路

    ● 考虑到表情识别算法的一些不精确因素,系统也会展示face size和occlusion,辅助判断准确度。

    ● 实验部分:执行了两种use cases,即end usesdomain experts,来说明提出系统的用途和高效性。

    ※ Introduction

    ● 说明表情在教室分析中的意义:研究表明表情可以影响学生学习行为,包括注意力、学习动力、学习策略和自觉性

    ● 提问如何才能通过录制的课堂视频,帮助教师和家长快速了解学生的情绪状态

    ● 指出直接观看视频非常耗时,而现有的视频分析技术不适用于表情分析,并解释原因,凸显可视化交互分析系统的重要性

    ● 回到系统本身,实现可视化分析一节课中所有学生的表情变化并不容易,引出三大挑战,不再赘述

    ● 为了解决上述挑战,作者设计了EmotionCues系统,系统包括三种视角:the summary view、character view、video view,同时,系统也考虑到了表情识别的不准确性,在交互设计时加入了可能的不稳定因素。

    ● 论文三大贡献:设计了表情可视化交互系统;加入了模型不稳定性;执行了两个真实案例说明实际效果

    ※ Related Work

    ● Emotion Analysis in Learning Scenarios:再次叙述表情分析对掌握学生状态的重要性,细节处有参考文献。在此之前,有很多方法被用于分析学生学习状态下的表情,文章将其分为两大类:self-report methodsnon-self-report methods,论文选择后者 ,并借助CV技术分析表情。另外,数据可视化更加有助于这一过程,通过文献举例说明现有可视化系统的短板和缺陷,为后续引出提出系统的相应功能做准备。

    ● Video Visualization:视频可视化的初衷是帮助快速了解视频内容,这一领域已经发展较为成熟。文章按照是否包含视频关键帧,将这项技术分为两大类:image-based techniquesabstract techniques,前者是视频关键信息组成的更简短视频,后者通常依据时间顺序非直接地给出视频的可视化属性,例如音频分析、人物轨迹图等。论文采用了后者,同时加入了表情识别模型不确定性分析模块,这是文章主打的一大创新。

    ● Temporal Data Visualization:首先引用具体文献,介绍了一些强关联的时序数据可视化方法,接着,从中受启发挑选了系统将要使用的方法:the aggregation flowstoryline visualization techniques。此系统最终将提供全体学生的表情变化分析,以及每个学生的表情状态跟踪线

    ※ Data and Design Requirements

    ● Data Description:课堂视频数据来自合作方幼儿园,采用1K相机录制,每份时长约10分钟。为了对比,还会选择分析大学实验室的组会讨论场景

    The workflow of data modeling and processing

    ● Data Modeling and Processing:上图为视频数据处理流程。人脸检测使用的是MTCNN(SPL2016),人脸识别使用的是facenet(CVPR2015),人脸表情识别使用的是ResNet-50,使用的数据集为FER2013。此外,系统还会考虑表情识别算法的不准确性,加入了可能的影响因素,包括人脸尺寸、人脸遮挡程度,遮挡程度的深度检测算法来自TIV2017中的一篇文章。

    ● Design Requirements:经过与4位系统用户的沟通,搜集整理他们的反馈,得到了以下5点需求

    1)Obtain the emotion status of all the people in a video.  

    2)Uncover emotion patterns of an individual in a video.

    3)Compare emotion portraits of different people. 

    4)Reveal model uncertainty with influencing factors.

    5)Provide context for video analysis.

    ※ System Overview

    按照之前的设计规划,一共包括三种视角,summary view;character view;video view

    The visualization system pipeline for emotion-oriented video summarization

    ※ Visualization Design

    ● Design Rationales:EmotionCues系统包括以下三种设计理念:Intuitive encoding and design,Smooth interactions with prompt feedback,Multi-scale visual exploration.

    ● Summary View:这是EmotionCues系统的前端界面,每个part所展示的含义,通过简单阅读下图说明,即可了解

    The visualization system for emotion-oriented video summarization with three major views

    ● Character View:该视角观察每个学生在整堂课中的表情变化,设计方式见上图中的子图C

    ● Video View:该视角播放原课堂视频路,用户可以暂停查看每一帧的检测结果,并对不准确的结果进行纠查

    ※ Use Cases

    ● Case One: A kindergarten classroom video: 受访对象是幼儿园教师,具体教室场景如上图中的子图D,以及下图。据教师使用系统之后反映,EmotionCues上手较为方便,能够在一定程度上监测学生的听课状态,并帮助及时了解每个学生的情绪变化。反映的缺点是,表情识别算法的准确率很低

    Findings in Case One

    ● Case Two: Seminar videos: 受访对象为大学教授,场景是实验室组会讨论现场,如下图所示。教授觉得系统可以帮助其快速了解组会的讨论情况,有较大实用价值,缺点是系统不能直接看到学生的专注度指标

    Case Two: Seminar videos

    ※ Interviewers and Feedback

    通过采访调查之前提到的4位用户使用感受,验证系统的有效性可用性,并收集意见和建议

    ※ Discussion and Limitations

    隐私问题需要注意;深度模型的应用性能问题;表情识别的准确性低;可扩展性;通用性

    ※ Conclusion and Future Work

    在重述并肯定了EmotionCues系统的贡献之后,作者觉得可以加入头部姿态估计来辅助情绪判断,或者换用更好的更准确的表情识别算法。甚至将EmotionCues系统拓展到其他领域,如电影和演讲。

    3、新颖点

    这篇文章发表于A刊TVCG2020,其实早在2020年春节期间,我就已经搜集到并拜读之,向申老师作了汇报(当时老师还健在:-( 如今斯人已逝)。内容是关于教室场景的学生表情分析,整体脉络和我们当时和当下研究的智慧教室系统十分相似,于是将阅读笔记整理制作了思维导图。整体感觉有以下三点 :

    1)智慧教室相关的系统性设计类文章可以被顶级期刊接受,至少TVCG是个好的开始;

    2)EmotionCues系统,算法和技术原创性不高,亮点是题材新颖和良好的可视化界面设计;

    3)按照文章这种思路,我们的智慧教室项目,即可以分拆成各个子系统出文章,也可以综合多项指标,主要难点和工作量在写作构思上。

    4、总结

    实际上,在汇报完EmotionCues后的一到两年,尤其是2021年,我先后将我们自己的工作整理成paper投稿UbiComp,却接连多次碰壁,主要的问题还是学生隐私问题。EmotionCues并未太多强调算法创新,也就没有制作相关私有数据集的需求,而是直接在教室中使用,尚未太多触及学生隐私。相比较之下,我们的智慧教室研究,需要制作多个私有数据集,其成文过程总,不可避免地要展示很多直观性的示例图,有涉及到真实教室场景。在大规模应用的设想阶段,也让西方审稿人感觉到了极大的隐私侵犯性,这些中西方文化差异上不可调和的矛盾,让我们的系统极难被外文主流教育顶会或期刊接收。退一步讲,即使我们着重强调技术或系统框架上的创新,也有与我们的技术路线极为相似的CMU的EduSense在现,这又进一步阻碍了我们的工作作为整体系统去投稿的路线。

    以这篇EmotionCues系统作为参考,我们完全可以在接下来的研究中,将重心转向各个指标形成的子系统上,仿照该文的思路,围绕具体的指标展开详细的方法描述和设计讨论。待以后积少成多,再图划综合性系统,更有胜算。

    相关文章

      网友评论

          本文标题:TVCG2020 EmotionCues: Emotion-Or

          本文链接:https://www.haomeiwen.com/subject/zwxxurtx.html