5
神经网络中的“垂死的ReLU”问题是什么?
参阅有关视觉识别的卷积神经网络的斯坦福课程笔记,一段内容如下: “不幸的是,ReLU单元在训练过程中可能很脆弱,并且可能“死亡”。例如,流过ReLU神经元的大梯度可能导致权重更新,从而使神经元再也不会在任何数据点上激活。如果发生这种情况,那么从该点开始流过该单元的梯度将永远为零,也就是说,ReLU单元在训练过程中可能会不可逆地死亡,因为它们可能会从数据流形上脱落下来。例如,您可能会发现多达40个如果学习率设置得太高,您的网络中的%可能是“死亡”的(即永远不会在整个训练数据集中激活的神经元)。通过适当设置学习率,这通常不会成为问题。 这里的神经元死亡意味着什么? 您能否以更简单的方式提供直观的说明。