分类算法(六)——softmax和sigmoid,二分类、多分类、多标签分类关系
我这里的介绍目前还在机器学习阶段, 深度学习的算法都还没有介绍到(后续会慢慢补充),下面推送下博客园的一些深度学习文本分类的介绍系列:
这里发现了一篇很不错的博客:文本分类实战 https://www.cnblogs.com/jiangxinyang/p/10241243.html
所有代码均在textClassifier仓库中。
想补充一下, BERT出来之前用到过腾讯张潼的一篇论文RamNet的文本分类方法,核心思想是多重注意力,效果跟BiLSTM+attention效果相当,且部分任务有提高。 但是相对于BERT出现之后,就显得略逊色了。 不过BERT等预训练模型还是量级比较重,我们有时候会用BERT来教RamNet进行模型蒸馏。后面会写相关博文进行详细介绍,感兴趣可以了解下 RamNet (Recurrent Attention Network on Memory for Aspect Sentiment Analysis)