我很好奇知道偏置节点对于现代神经网络的有效性有多重要。我很容易理解,在只有几个输入变量的浅层网络中,它很重要。但是,诸如深度学习之类的现代神经网络通常具有大量的输入变量来决定是否触发某个神经元。仅仅从LeNet5或ImageNet中删除它们是否会产生真正的影响?
我很好奇知道偏置节点对于现代神经网络的有效性有多重要。我很容易理解,在只有几个输入变量的浅层网络中,它很重要。但是,诸如深度学习之类的现代神经网络通常具有大量的输入变量来决定是否触发某个神经元。仅仅从LeNet5或ImageNet中删除它们是否会产生真正的影响?
Answers:
消除偏差肯定会影响性能,这就是为什么...
每个神经元就像一个简单的逻辑回归,您有。输入值与权重相乘,偏差会影响S型函数(tanh等)中的初始压缩水平,从而产生所需的非线性。
例如,假设你想要一个神经元激发时,所有的输入像素都是黑色X ≈ 0。如果没有偏见无论什么权重w ^你,给出的公式Ÿ = σ (w ^ X )的神经元会一直火Ÿ ≈ 0.5。
因此,通过消除偏差项,您将大大降低神经网络的性能。