Tutorial教程:训练深度学习如何选择损失函数
[email protected]
声明:本文为CSDN首发,谢绝转载,商业转载请联系笔者MrCharles本人获取同意
作为优化算法的一部分,必须反复估算模型当前状态的误差。这就需要选择通常称为损失函数的误差函数,该函数可用于估计模型的损失,以便可以更新权重以减少下次评估时的损失。通俗来讲,损失函数就是一种惩罚,如果你的错误率越大,那么我给你的惩罚就越多,模型就会根据当前的惩罚程度去更新模型,争取下次计算出来的错误率会变低,得到更少的惩罚。也就是我标题里面所说的,认错认罚。
神经网络模型从训练数据中学习输入到输出的映射,损失函数的选择必须与特定预测建模问题(例如分类或回归)的框架匹配。此外,输出层的配置还必须适合所选的损失函数。
在本教程中,您将发现如何针对给定的预测建模问题为深度学习神经网络选择损失函数。
完成本教程后,您将知道:
在回归问题中,如何配置均方误差模型以及其变体。
在二分类问题中,如何配置交叉熵和铰链损失函数模型。
在多分类问题中,如何配置多类分类的交叉熵和KL散度损失函数。
教程概述
本教程分为三个部分:他们是:
- 用于回归的损失函数
均方误差损失 MSE
均方对数误差损失 MSLE
平均绝对误差损失 MAE - 用于二分类损失函数
二元交叉熵
铰链损失
平方铰链损失 - 用于多类分类损失函数
多类交叉熵损失
稀疏的多类交叉熵损失
Kullback Leibler散度损失
我们将重点介绍如何选择和实现不同的损失函数。
用于回归的损失函数
回归预测建模问题涉及预测实数值。
在本节中,我们将研究适用于回归预测建模问题的损失函数。
我们将使用scikit-learn库的make_regressio