2018/9/6

第一次使用CSDN来写博客,每次看完之后的东西都很容易忘记,自己也没啥动力,准备通过每天写博客的方式来强迫自己学习。今天算是杂谈,随便翻的一点知识。

维度灾难:

在传统机器学习中模型表现并不是随着特征数目的上升而上升的,而是呈现一种上升再急剧下降的模式。根本原因是样本数量无法支撑更高维的空间(更好分)。(会导致数据分布非常稀疏)当把这些数据投影到低维之后我们会发现很容易过拟合。

NE:网络嵌入

将网络的图节点在更低维度的空间表示。再用于后续的任务。(一个比较有意思的点是用于神经网络架构自动设计上去了NAO,减少了复杂度),对这类研究不是很感兴趣。

关键词:

word2vec,deepwalk

神经网络架构自动设计

AutoML
l两方面:基于强化学习,基于EA。强化学习中通过将收敛后的准确率作为奖励,EA通过变异组合生存来优化。实际上都是一个类似搜索的模式,比较低效。

NAO:
利用NE将网络映射到一个连续向量空间,再基于梯度进行优化。
由三个主要组成:
编码器,预测器,解码器

(这篇感觉不错,有空细看一下然后写个论文笔记)
论文链接:https://arxiv.org/abs/1808.07233

TODOLIST

  • 论文笔记(Interpret Neural Networks by Identifying Critical Data Routing Paths)
  • 论文笔记(Defense against Adversarial Attacks Using High-Level Representation Guided Denoiser)
  • NAO论文笔记
  • 各种网络结构对比
  • 黎曼空间

关于PCA之前自己有个完整的推导,抽空也写了吧。。。不能拖啊…喜欢忘。

猜你喜欢

转载自blog.csdn.net/dhl317618/article/details/82468536