当我们对所有激活层使用ReLU时,深度卷积神经网络是否有可能具有负权重(在足够的历时之后)?
我看不出他们不能否定任何理由。您是否有特定的原因/意见?
—
索比2015年
我只是在想象SGD的过程,并思考负重是否常见且可能。
—
RockTheStar
他认为这是因为“权重”类似于突触,即神经元之间的联系,那么我们如何对神经元具有-2突触呢?我在Google上搜索了完全相同的东西后偶然发现了这里...我想无论如何还是有可能的,这可能意味着最终会丢失一个突触或链接,并且“跳数”会从另一侧到达b,并从微积分中减去b,但是我不确定,只是想想
—
一下