date

Baseline paper

Champion paper

Model & Feature

Test_acc

2013

[1]

[2]

EmoNets

41.03

2014

[3]

[4]

HOG,DSIFT,DCNN

50.37

2015

[5]

[6]

AU-aware facial feature,CNN

53.8

2016

[7]

[8]

CNN-LSTM,C3D

59.02

2017

[9]

[10]

SSE

60.34

2018

[11]

[12]

MTCNN,VGG16,LMED

61.87

 

参与文献:

[1]. Dhall A, Goecke R, Joshi J, et al. Emotion recognition in the wild challenge 2013[C]//Proceedings of the 15th ACM on International conference on multimodal interaction. ACM, 2013: 509-516.

[2]. Kahou S E, Pal C, Bouthillier X, et al. Combining modality specific deep neural networks for emotion recognition in video[C]//Proceedings of the 15th ACM on International conference on multimodal interaction. ACM, 2013: 543-550.

[3]. Dhall A, Goecke R, Joshi J, et al. Emotion recognition in the wild challenge 2014: Baseline, data and protocol[C]//Proceedings of the 16th international conference on multimodal interaction. ACM, 2014: 461-466.

[4]. Liu M, Wang R, Li S, et al. Combining multiple kernel methods on riemannian manifold for emotion recognition in the wild[C]//Proceedings of the 16th International Conference on multimodal interaction. ACM, 2014: 494-501.

[5]. Dhall A, Ramana Murthy O V, Goecke R, et al. Video and image based emotion recognition challenges in the wild: Emotiw 2015[C]//Proceedings of the 2015 ACM on international conference on multimodal interaction. ACM, 2015: 423-426.

[6]. Yao A, Shao J, Ma N, et al. Capturing au-aware facial features and their latent relations for emotion recognition in the wild[C]//Proceedings of the 2015 ACM on International Conference on Multimodal Interaction. ACM, 2015: 451-458.

[7]. Dhall A, Goecke R, Joshi J, et al. Emotiw 2016: Video and group-level emotion recognition challenges[C]//Proceedings of the 18th ACM International Conference on Multimodal Interaction. ACM, 2016: 427-432.

[8]. Fan Y, Lu X, Li D, et al. Video-based emotion recognition using CNN-RNN and C3D hybrid networks[C]//Proceedings of the 18th ACM International Conference on Multimodal Interaction. ACM, 2016: 445-450.

[9]. Abhinav D, Roland G, Shreya G, et al. From individual to group-level emotion recognition: Emotiw 5.0[J]. ACM ICMI 2017, 2017.

[10]. Hu P, Cai D, Wang S, et al. Learning supervised scoring ensemble for emotion recognition in the wild[C]//Proceedings of the 19th ACM international conference on multimodal interaction. ACM, 2017: 553-560.

[11]. Dhall A, Kaur A, Goecke R, et al. Emotiw 2018: Audio-video, student engagement and group-level affect prediction[C]//Proceedings of the 2018 on International Conference on Multimodal Interaction. ACM, 2018: 653-656.

[12]. Liu C, Tang T, Lv K, et al. Multi-Feature Based Emotion Recognition for Video Clips[C]//Proceedings of the 2018 on International Conference on Multimodal Interaction. ACM, 2018: 630-634.

 

posted @ 2019-06-19 23:22 denny402 阅读(2567) 评论(0) 推荐(0) 编辑
摘要: 如果要对视频帧进行处理,可以先把视频帧读取出来。 sh文件代码如下: 阅读全文
posted @ 2019-06-09 19:18 denny402 阅读(2474) 评论(0) 推荐(0) 编辑
摘要: 第一步:从前一个隐藏层到后一个隐藏层,对结点进行特征变换 第二步:对第一步进行具体实现 第三步:对邻接矩阵进行归一化(行之和为1) 邻接矩阵A的归一化,可以通过度矩阵D来实现(即通过D^-1*A来实现对A的归一化)。 在实践中,使用对称归一化更加有效和有趣。变成下式: 第四步:加入自循环(每个结点从 阅读全文
posted @ 2019-05-24 14:02 denny402 阅读(14665) 评论(0) 推荐(2) 编辑
摘要: 安装或者更新完pytorch后,运行不了,显示错误: 错误显示为:libmkl_intel_lp64.so: cannot open shared object file: No such file or directory libmkl_intel_lp64.so是一个动态链接库文件,系统找不到。 阅读全文
posted @ 2019-05-11 14:04 denny402 阅读(16748) 评论(1) 推荐(2) 编辑
摘要: 利用pytorch来构建网络模型有很多种方法,以下简单列出其中的四种。 假设构建一个网络模型如下: 卷积层--》Relu层--》池化层--》全连接层--》Relu层--》全连接层 首先导入几种方法用到的包: 第一种方法 这种方法比较常用,早期的教程通常就是使用这种方法。 第二种方法 这种方法利用to 阅读全文
posted @ 2017-09-25 18:40 denny402 阅读(35955) 评论(2) 推荐(4) 编辑
摘要: 大部分的pytorch入门教程,都是使用torchvision里面的数据进行训练和测试。如果我们是自己的图片数据,又该怎么做呢? 一、我的数据 我在学习的时候,使用的是fashion-mnist。这个数据比较小,我的电脑没有GPU,还能吃得消。关于fashion-mnist数据,可以百度,也可以 点 阅读全文
posted @ 2017-09-14 12:54 denny402 阅读(85860) 评论(10) 推荐(11) 编辑
摘要: 图片数据一般有两种情况: 1、所有图片放在一个文件夹内,另外有一个txt文件显示标签。 2、不同类别的图片放在不同的文件夹内,文件夹就是图片的类别。 针对这两种不同的情况,数据集的准备也不相同,第一种情况可以自定义一个Dataset,第二种情况直接调用torchvision.datasets.Ima 阅读全文
posted @ 2017-09-12 22:17 denny402 阅读(32955) 评论(7) 推荐(2) 编辑
摘要: #!/usr/bin/env python # -*- coding: utf-8 -*- __author__ = 'denny' __time__ = '2017-9-9 9:03' import torch import torchvision from torch.autograd import Variable import torch.utils.data.dataloader a... 阅读全文
posted @ 2017-09-11 19:26 denny402 阅读(17143) 评论(1) 推荐(1) 编辑
摘要: 本文转自:https://zhuanlan.zhihu.com/p/27238630 在学习tensorflow的过程中,有很多小伙伴反映读取数据这一块很难理解。确实这一块官方的教程比较简略,网上也找不到什么合适的学习材料。今天这篇文章就以图片的形式,用最简单的语言,为大家详细解释一下tensorf 阅读全文
posted @ 2017-06-29 09:51 denny402 阅读(8629) 评论(2) 推荐(2) 编辑
摘要: 1、f 散度(f-divergence) KL-divergence 的坏处在于它是无界的。事实上KL-divergence 属于更广泛的 f-divergence 中的一种。 如果P和Q被定义成空间中的两个概率分布,则f散度被定义为: 一些通用的散度,如KL-divergence, Helling 阅读全文
posted @ 2017-06-20 16:35 denny402 阅读(35780) 评论(0) 推荐(3) 编辑
点击右上角即可分享
微信分享提示