1.torch.optim.Adam(parameters, lr)什么含义
已知parameters代表每个神经网络的参数矩阵,lr代表学习率
2.pytorch 常用的 loss function
nn.L1Loss
nn.MSELoss()
nn.BCELoss()
nn.CrossEntropyLoss
该函数用于多分类,不需要加softmax层
BCELoss是二分类使用的交叉熵,用之前需要在该层前面加上Sigmoid函数。
3. 有个很无语的事,测试集和标签都是按顺序的没有打乱,结果测试集和验证集没有重合的标签,然后验证集的标签一个都没预测出来,准确率是0,服了自己了。所以大家分数据集的时候一定不要忘记shuffle
4. Binary Cross-Entropy 作为损失函数能够度量分类的准确性。降低loss的过程就使得
- y=1的样本,得到的预测概率p(y)变大
- y=0的样本,得到的预测概率p(y)变小