深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam) 每种优化方法之间的区别与联系
【机器学习】神经网络-激活函数-面面观(Activation Function) 每种激活函数的优缺点
【Stanford CNN课程笔记】5. 神经网络解读1 几种常见的激活函数 看下整个系列的笔记
深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam) 每种优化方法之间的区别与联系
【机器学习】神经网络-激活函数-面面观(Activation Function) 每种激活函数的优缺点
【Stanford CNN课程笔记】5. 神经网络解读1 几种常见的激活函数 看下整个系列的笔记