背景:在使神经网络适应relu激活的同时,我发现有时预测变得接近恒定。我相信这是由于如本文所述在训练过程中神经元神经元死亡。(神经网络中的“垂死的ReLU”问题是什么?)
问题:我希望做的是在代码本身中实现检查,以检查神经元是否死亡。之后,如果需要,代码可以重新调整网络。
因此,检查死亡神经元的最佳条件是什么?目前,我正在考虑将预测中的低方差作为一个标准进行检查。
如果有帮助,即时通讯使用keras。
添加总结为tensorboard的偏见:tensorflow.org/get_started/summaries_and_tensorboard
—
埃姆雷