- pre-net 激活函数relu
- normalize层的激活函数是relu, 输出范围(0,+∞)
- conv1d的activation=None
- highway 层 output = H * T + inputs *C
H–relu T–sigmoid C=(1-T) - tf.nn.bidirectional_dynamic_rnn()默认情况下是没有激活函数的
- tf.layer.dense 也没有
映射的特征lpcnet 数值范围大约是【-30, 30】
ps这是一个神奇的网络,TTS和vc都是一样的设置,靠着prenet, norm, before_highway , highway的激活函数,relu+sigmoid完成任务