Answers:
您基本上是正确的!ReLU确实存在梯度消失的问题,但仅存在于一侧,因此我们称之为“垂死的ReLU问题”。有关更多信息,请参见此堆栈溢出响应:神经网络中的“垂死的ReLU”问题是什么?
这是一个小的语义差异。当您超出标准操作范围时,许多函数(tanh和logistic / Sigmoid)的导数都非常接近零。这是“消失的梯度”问题。你变得越糟,就越难回到好的领域。ReLU 在正方向上越远不会变差,因此(在那一侧)没有消失的梯度问题。这种不对称可能足以证明将其称为不同的东西,但是想法却非常相似。