本篇列出常见的深度学习基础问题,并拟打算在2020年3月31日前,出一个《深度学习100答》系列,针对这里列出的问题,一一作出简要的回答。
注:
如果只列出名词,则问题是:它的定义,推导与应用是什么?
- 神经网络的基本组成;
- 神经网络的输出计算;
- 常用的神经网络模型;
- 机器学习与深度学习的区别;
- 为什么训练深层网络很困难?
- 前向传播推导;
- 反向传播推导;
- 超参数;
- 超参数的一般搜索过程;
- 常见的激活函数;
- 各种激活函数的优缺点;
- 如何选择激活函数;
- 为什么需要非线性激活函数;
- Batch_size的选择;
- 什么是批归一化;
- softmax;
- dropout;
- 权重偏差初始化的各种方法;
- 常用的优化器;
- 如何选择优化器;
- CNN;
- LetNet;
- AlexNet;
- ZFNet;
- VGG;
- GoogleNet;
- 为什么现在的深度学习模型大多数是基于AlexNet/VGG/GoogleNet等调整的;
- Inception;
- Network in Network;
- ResNet;
- ResNet变体;
- Inception-ResNet;
- Densely Connected CNN;
- 卷积核的大小/步长/边缘填充;
- 输入与输出通道;
- 卷积网络分类;
- 卷积核的大小有什么影响;
- 如何减少卷积层的参数量;
- 常用的池化方法及优缺点;
- 什么是宽卷积和窄卷积;
- 图像的卷积与反卷积;
- CNN的参数经验设置;
- CNN的权值共享是什么;
- 如何提高模型的泛化能力;
- LSTM;
- RNN的原理;
- RNN的应用;
- 常见的目标检测模型有哪些;
- 滑动窗口检测器是什么;
- R-CNN;
- Fast-R-CNN;
- Faster-R-CNN;
- 候选区域网络;
- R-FCN;
- 单次目标检测器;
- SSD;
- YOLO系列有哪些;
- YOLO系列的每一次改进是什么;
- 常见的分割模型总结;
- FCN;
- 全卷积网络;
- U-net;
- SegNet;
- RefineNet;
- DeepLab;
- Mask-R-CNN;
- RCNN行人检测框架;
- 强化学习的原理;
- 强化学习的特点;
- 常见的强化学习算法;
- 模型微调;
- 什么是迁移学习;
- 迁移学习和微调的区别是什么;
- 深度迁移强化学习算法;
- 分层深度强化学习算法;
- 深度记忆强化学习算法;
- 深度强化学习算法总结;
- 什么是多任务学习;
- 什么是端到端的深度学习;
- 端到端的深度学习的优缺点;
- 广义线性模型是什么;
- 如何将广义线性模型应用到深度学习中;
- 如何考虑特征选择;
- 特征选择分类;
- GPU与CPU的比较;
- 训练样本少怎么办;
- 什么样的数据集不适合使用深度学习;
- 如何优化指标;
- 什么是可避免偏差;
- 如何提升模型;
- 有哪些超参数;
- 如何为超参数选择合适的范围;
- 如何调试超参数;
- 什么是异构计算;
- CUDA并行原理;
- CUDA编程核心;
- 如何选择深度学习框架;
- GPU主要性能指标;
- TPU与GPU的区别;
- Deep Learning在CV, NLP, 语音识别与推荐系统等方面的应用总结。
更多学习资料,请关注下面的公众号:不定期分享
深度学习网络总结
机器学习算法及其应用场景
算法与数据结构(leetcode 题解)
cuda编程与并行优化
其他读书分享如:《战国策》,《智囊全集》
宇宙常识科普与星座辨别
等等