报告人简介:
李晓白,浙江大学百人计划研究员,博导,浙江省千人。本科毕业于北京大学,硕士毕业于中科院大学,博士毕业于芬兰奥卢大学。获得芬兰科学院博后奖金,2020年至2023年4月在芬兰奥卢大学担任tenure track助理教授,获奥卢大学2019最具科学领导力的青年学者奖。2023年加入浙江大学网络空间安全学院,兼任奥卢大学客座教授。研究领域包括机器视觉、机器学习、情感计算、生物识别等。具体方向有微表情识别、基于视频的远程生理信号测量、生物特征识别、人脸活体检测、对抗攻击和伪造检测、多模态情感识别和内容生成等等。发表期刊和会议文章70余篇,包括高水平期刊和会议文章如IEEE TPAMI、TAC、SPM、PIEEE、IJCV、ICCV、CVPR等十余篇,谷歌学术检索H指数41,总引用9200,入选2022至2024年全球2%高被引学者。担任IEEE-TCSVT、IEEE-TMM、CVIU等期刊副编辑。关于微表情的研究被麻省理工科技评论报道,远程心率测量文章获IEEE芬兰区2020年最佳学生论文奖,rPPG身份认证文章获评IJCB2024最佳论文提名奖。
个人主页:
https://xiaobaili-uhai.github.io/
报告摘要:
相较于其它识别任务情绪识别具有其特殊的挑战,其中一个主要挑战来自于人的行为复杂性。早期的情绪识别关注面部表情识别,前提假设是高兴、悲伤等每类典型情绪对应一个表情原型。但此类情绪识别在实际应用中帮助有限,日常交流场景中的情绪多在更细微和隐晦的层面体现,融合其它的行为、生理反应信息或能实现更准确、细粒度的识别和理解。本次报告汇报课题组近期在融合多模态信息融合用于非典型情绪识别的一些探索,期待各位老师和同学的反馈指正。
参考文献:
[1]
Computational Analysis of Stress, Depression and Engagement in Mental Health: A Survey, arXiv 2025(https://arxiv.org/abs/2403.08824)
[2]
Gaze-GZ: Generalized Gaze Estimation with Multi-scale Gaze Zone Prediction. ICASSP 2025.
[3]
Behavior-prompted Learning with Tree Attention for Advanced Facial Action Unit Detection. IJCNN, 2025
[4]
Multimodal Interpretable Depression Analysis Using Visual, Physiological, Audio and Textual Data. WACV, 2025
[5]
Cross-Cultural Nuances of Micro-Expressions and Action Units: A Comparative Study. ICMEW, 2025
[6]
Contrast-Phys+: Unsupervised and Weakly-supervised Video-based Remote Physiological Measurement via Spatiotemporal Contrast. TPAMI, 2024
[7]
TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals. CVPRW, 2024
[8]
Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features. CVPRW, 2024
[9]
Estimating Stress in Online Meetings by Remote Physiological Signal and Behavioral Features, UbiComp 2022