15 ReLU激活函数的导数定义为: ReLU(x)=max(0,x)ReLU(x)=max(0,x) 在处函数不连续的特殊情况呢?x=0x=0 self-study neural-networks — 汤姆·黑尔 source
17 导数是: f(x)={01if x<0if x>0f(x)={0if x<01if x>0 并且在未定义。x=0x=0 在未定义的原因是其左导数和右导数不相等。x=0x=0 — 吉姆 source 1 因此,在实践中(实现),对于情况,人们只是选择还是?0011x=0x=0 — 汤姆·黑尔 2 惯例是drdx = 1(x> 0) — neuroguy123 '18 @TomHale为什么不使用?实际实施是另一回事,值得提出新的问题。这只是数学。f(0)=12f(0)=12 — 吉姆(Jim) 3 @TomHale,请参阅quora.com/…上Nouroz Rahman的回答:“ [...]在我看来,在内置库函数中(例如:),将x = 0的导数取零以确保稀疏矩阵...”tf.nn.relu() — Jim