数据矿工学习-情感分析框架DeepEmo论文简析

来自台湾国立清华大学的Elvis Saravia等研究人员提出了一种基于图论(graph-based)的机制来提取丰富情感(rich-emotion)的相关模式(pattern),用来加强对语料库的线上情感表达进行深入分析。论文实验结果表明,所提出的情感分析框架DeepEmo比目前大多数的情感分析框架的F1-score都要高(仅次于Volvoka(2016)),而且其提出的富集模式(enriched patterns)也被证实了具有很高的领域适用性。

首先我们先通过思维导图来简要了解下这篇DeepEmo论文的整体结构:



WHAT

情感分析框架DeepEmo是什么?



DeepEmo论文提出了三种方法论,分别是:

(1) 基于图论的基本模式提取方法;

(2) 利用词嵌入的基本模式丰富方法-富集模式(enriched patterns)

(3) 对tf-idf(词频-逆文件频率)进行修改的pf- ief(模式频率 - 逆情感频率)评分机制;

DeepEmo情感分析框架正是由这三种方法论搭配卷积神经网络CNN组成,由这三种方法论所生成的基于图论的嵌入矩阵,作为输入数据,最后由卷积神经网络CNN输出其情感类别。


WHY

情感分析框架DeepEmo的优势在哪里?

近些年的情感识别系统一般采用表征学习进行特征检测。一般来说,词语嵌入(如word2vec)作为输入和深度学习模型(如卷积神经网络(CNN))的组合在句子分类中表现良好。由于这些类型的模型的性质和他们学习的特征类型,它们往往具有较高的覆盖率(覆盖率 - 特征应该能够隐藏重要的隐性和显性情绪信息),较高的适应性(适应性 - 这些特征可以应用于其他类型的情绪语料库,起源于不同的领域),仅需要很少的监督(即自动学习特征),并且能在一定程度上捕捉上下文。然而,这种类型的模型在可解释性高性能之间是存在一定的权衡的。基于图论的特征提取机制DeepEmo更侧重于语言组件之间的底层交互。因此,模式会自动显示隐式和明确的情绪表达。


为了验证DeepEmo的性能,研究人员DeepEmoscikit-learn提供的常用于句子分类的传统情感分析器(例如,字袋(BoW),字符级(char),n-gramTF-IDF)进行比较,结果如下表:

从这张表我们能看到一些较“反常”的情况,根据一些以往的经验来说,深度学习的效果应该比传统的学习方法效果要好,但从这张结果表中,我们可以看出基于TF-IDF的BoW基于词频的BoW的得分都比基于基本模式的CNN模型识别效果都要好,从这里我们看出,深度学习器并不一定总比传统学习器的分类效果要好,从这里我们可以得到一个更为重要的论点,DeepEmo的情感识别效果好并不是因为使用了CNN,而是因为使用了富集模式(Enriched Patterns)


How

DeepEmo使用细则

目前的话,DeepEmo的研究人员还未将DeepEmo的模型代码放出来,所以现阶段我们要使用DeepEmo的话只能照着论文自己手打出来,这里就简要说明下DeepEmo的运行流程,让大家对DeepEmo的运行有个较为清晰的整体理解:


深度学习架构支持从文本信息中自动学习的功能。目前在用于情感分类的深度学习模型的学习器中,它们因输入的选择而异:预先训练的词/字符嵌入端到端学习的词/字符表示。DeepEmo的不同之处在于使用丰富的基于图论的表征矩阵作为输入,所以构建DeepEmo框架最重要的部分就是生成基于图论的矩阵,关于具体的生成,论文里面写的非常详细,有兴趣的同学可以自行查看(DeepEmo论文的中文版笔者我将在修改润色后发布),在提取基本模式这一步上,由于DeepEmo的研究者并不在模式提取过程中强行添加语法启发或规则,因此,提取的基本模式倾向于自然而然地具有更高的覆盖率并更全面地捕捉隐含和明确的情感内容


DISCUSS

关于DeepEmo的讨论与思考



从DeepEmo研究人员的样本分布表中不难看出情感样本其实是具有一定的样本不均匀的厌恶(disgust)期盼(anticipation)的样本相对较少,但其实DeepEmo研究人员也发现了这个问题,但平衡样本后F1的平均分数并没有得到提升。



在与目前最新的论文所提出情感分类器相对比,DeepEmo情感识别系统取得了比除(Volkova和Bachrach,2016)例外的大多数方法有更好的结果(F1得分为72%)。Volvoka情绪识别系统比DeepEmo的表现更好(F1分数为78%),因为Volvoka使用更为明确的语言特征,例如表情符号主题标签。而DeepEmo的数据集更容易受到噪音的影响,因为DeepEmo的目的是获得更高的覆盖范围,以捕捉更多隐含的情绪表达。但太过于明确的数据集也意味着生成的情感分析器可能不适用于其他的情感数据集,也就是泛化程度可能过低。


那目前DeepEmo的问题在哪里呢?在笔者看来,现在DeepEmo最大的问题在于数据集的规模太小,这个问题在吴恩达的深度学习课程第一周就有提到过,根据上方的图得知,深度学习的高性能一般得在百万级别的数据集的学习上才体现的出来,小样本学习深度学习器跟传统学习器效果差不多,所以目前DeepEmo要想有更上一步的性能提高,笔者认为可以从数据集的规模方面入手,给与DeepEmo更多的丰富样本去学习。


DeepEmo论文地址:

DeepEmo: Learning and Enriching Pattern-Based Emotion Representations


才学疏浅,欢迎评论指导






猜你喜欢

转载自blog.csdn.net/qq_33829740/article/details/80746531