神经网络的编程基础
损失函数: 逻辑回归中拥到的为
然后成本函数J(w,b)为m个样本的损失函数求平均,最终结果希望损失J尽可能小,其对每个位置的偏导为其权重
向量化:
向量化是一个重点,可以很大程度上减少需要的时间避免for循环
这一部分最主要的是使用一些库函数的api进行的
如逻辑回归上的向量化代码为
np.array.sum(axis=0为按列加,=1为按行)
神经网络的编程基础
损失函数: 逻辑回归中拥到的为
然后成本函数J(w,b)为m个样本的损失函数求平均,最终结果希望损失J尽可能小,其对每个位置的偏导为其权重
向量化:
向量化是一个重点,可以很大程度上减少需要的时间避免for循环
这一部分最主要的是使用一些库函数的api进行的
如逻辑回归上的向量化代码为
np.array.sum(axis=0为按列加,=1为按行)