一、神经网络起源:线性回归
1.线性回归:
(1)概念:线性关系来藐视输入到输出的映射关系
(2)应用场景:网络分析,银行风向分析
(3)线性回归问题:
优化方法:梯度下降法SGD
梯度下降总结:
2.线性回归多个y值的输出
(1)多目标学习的过程,通过合并多个任务loss,一般能够产生比单个模型更好的效果
(2)局限:线性回归能够清楚的描述分割线性分布的数据,对非线性分布的数据描述比较弱
二、从线性到非线性
1.非线性激励
2.评价非线性激励的标准:
(1)正向输入的调整
(2)反向梯度损失
3.常用的非线性激励函数
(1)Sigmoid
函数效果,导数
优点,缺点
将输入数据映射到[0,1]
梯度下降非常明显,至少减少75%
(2)tanh函数
函数效果,导数
优点、缺点
将数据映射到[-1,1],梯度损失明显
(3)relu函数,导数
优点,缺点
(4)Leaky ReLU
函数效果,导数
优点,缺点