神经网络和深度学习
神经网络基础
梯度下降法
-
梯度下降法可以在你测试集上,通过最小化代价函数(成本函数) 来训练的参数 和 。
-
梯度下降法的形象化说明:
- 在这个图中,横轴表示你的空间参数 和 ;
- 在实践中, 可以是更高的维度,但是为了更好地绘图,我们定义 和 都是单一实数;
- 代价函数(成本函数) 是在水平轴 和 上的曲面,因此曲面的高度就是 在某一点的函数值;
- 我们所做的就是找到使得代价函数(成本函数) 函数值是最小值时对应的参数 和 ;
- 由于逻辑回归的代价函数(成本函数) 特性,我们必须定义代价函数(成本函数) 为凸函数。
-
初始化 和 ,可以用如图那个小红点来初始化参数,也可以采用随机初始化的方法,对于逻辑回归几乎所有的初始化方法都有效,因为函数是凸函数,无论在哪里初始化,应该达到同一点或大致相同的点。
-
我们以如图的小红点的坐标来初始化参数 和 :
- 朝最陡的下坡方向走一步,不断地迭代,走到了如图中第二个小红点处:
- 我们可能停在这里也有可能继续朝最陡的下坡方向再走一步,经过两次迭代走到第三个小红点处:
- 直到走到全局最优解或者接近全局最优解的地方,通过以上的三个步骤我们可以找到全局最优解,也就是代价函数(成本函数) 这个凸函数的最小值点。
- 朝最陡的下坡方向走一步,不断地迭代,走到了如图中第二个小红点处:
-
梯度下降法的细节化说明(仅有一个参数):
- 假定代价函数(成本函数) 只有一个参数 ,即用一维曲线代替多维曲线,这样可以更好画出图像;
- ,迭代就是不断重复更新参数;
- 表示学习率,用来控制步长,即向下走一步的长度 就是函数 对 求导,在代码中我们会使用 表示这个结果;
- 对于导数更加形象化的理解就是斜率,如图该点的导数就是这个点相切于 的小三角形的高除宽;
- 假设我们以如下图点为初始化点,该点处的斜率的符号是正的,即
,所以接下来会向左走一步:
- 整个梯度下降法的迭代过程就是不断地向左走,直至逼近最小值点。
- 假设我们以如下图点为初始化点,该点处的斜率的符号是负的,即
,所以接下来会向右走一步:
- 整个梯度下降法的迭代过程就是不断地向右走,即朝着最小值点方向走。
-
逻辑回归的代价函数(成本函数) 是含有两个参数的。
- ;
- ;
- 表示求偏导符号, 就是函数 对 求偏导,在代码中我们会使用 表示这个结果;
- 就是函数 对 求偏导,在代码中我们会使用 表示这个结果;
- 小写字母 用在求导数,即函数只有一个参数, 偏导数符号 用在求偏导,即函数含有两个以上的参数。