1. 在训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些?
不能说明这个模型就是无效的,造成模型不收敛的原因有很多,可能经过调整,模型效果很好。
原因:
- 数据分类的标注不准确,样本的信息量太大导致模型不足以fit整个样本空间。
- 学习率设置的太大容易产生震荡,太小会导致不收敛。
- 可能复杂的分类任务用了简单的模型。
- 数据没有进行归一化的操作。
https://blog.csdn.net/weixin_35479108/article/details/96981548
2. 什么是梯度消失?
神经网络中,当前面隐藏层的学习速率低于后面隐藏层的学习速率,即随着隐藏层数目的增加,分类或识别准确率反而下降了。这种现象叫做消失的梯度问题。
3. 图像处理中锐化和平滑的操作?
锐化就是通过增强高频分量来减少图像中的模糊,在增强图像边缘的同时也增加了图像的噪声。
平滑与锐化相反,过滤掉高频分量,减少图像的噪声是图片变得模糊。
4. Relu比Sigmoid的效果好在哪里?
Sigmoid的导数只有在0的附近时有较好的激活性,而在正负饱和区域的梯度趋向于0,从而产生梯度弥散的现象,而relu在大于0的部分梯度为常数,所以不会有梯度弥散现象。Relu的导数计算的更快。Relu在负半区的导数为0,所以神经元激活值为负时,梯度为0,此神经元不参与训练,具有稀疏性。
5. 请你简要描述一下,VGG使用3*3卷积核的优势是什么?
扫描二维码关注公众号,回复:
10258526 查看本文章
2个3*3的卷积核串联和5*5的卷积核有相同的感知野,前者拥有更少的参数。多个3*3的卷积核比一个较大尺寸的卷积核有更多层的非线性函数,增加了非线性表达,使判决函数更具有判决性。