卷积(Convolution)神经网络——图像,语言(具有连续性),视频处理,自然语言处理,药物分析,推荐relu激励函数
循环(Reccurent)神经网络——数据的关联,推荐relu和tanh激励函数
激励函数(activation function 掰弯利器——非线性)——必须是可微分的,这样误差才可反向传播。神经网络有多层时,谨慎选择激励函数——需要考虑(涉及梯度爆炸,梯度消失的问题)
卷积(Convolution)神经网络——图像,语言(具有连续性),视频处理,自然语言处理,药物分析,推荐relu激励函数
循环(Reccurent)神经网络——数据的关联,推荐relu和tanh激励函数
激励函数(activation function 掰弯利器——非线性)——必须是可微分的,这样误差才可反向传播。神经网络有多层时,谨慎选择激励函数——需要考虑(涉及梯度爆炸,梯度消失的问题)