我的博士论文的主题是揭示具有一层或两层隐藏层的神经网络(特别是前馈神经网络)的黑盒特性。
我将接受挑战,在一个单层前馈神经网络中向所有人解释权重和偏差项的含义。将讨论两种不同的观点:参数性观点和概率性观点。
在下文中,我假设通过线性缩放(),已将提供给每个输入神经元的输入值全部归一化为间隔(0,1)。为每个输入变量选择系数和,使得。我区分实数变量和枚举变量(布尔变量作为特殊情况下的枚举变量):xinput=α⋅x+βαβxinput∈(0,1)
- 线性缩放后,实数变量以到之间的十进制数形式提供。01
- 枚举变量,以星期几(星期一,星期二等)表示,由输入节点表示,其中代表可取结果的数量,即一周中的天数为。vv7
为了能够解释输入层中权重的(绝对值)大小,需要使用这种输入数据表示形式。
参数含义:
- 的较大的绝对值的重量是输入神经元和一个隐藏的神经元之间,更重要的变量是,对于该特定的隐藏节点的“fireing”。权重接近
表示输入值与相关值一样好。 0
- 从隐藏节点到输出节点的权重表示,在绝对意义上被该隐藏神经元放大的输入变量的加权放大,它们可以促进或抑制特定的输出节点。体重的迹象表明促进(正)或抑制(负)。
- 在神经网络的参数中未明确表示的第三部分是输入变量的多元分布。也就是说,将值提供给输入节点频率有多大 -权重很大的隐藏节点呢?132
- 偏置项只是一个平移常数,它会移动隐藏(或输出)神经元的平均值。它的作用类似于上面介绍的。β
从输出神经元进行推理:哪些隐藏神经元在与输出神经元的连接上具有最高的绝对权重值?每个隐藏节点的激活频率接近频率(假定为S型激活函数)。我说的是在训练集上测得的频率。准确地说:对输入变量和具有较大权重的隐藏节点和,这些隐藏节点和接近的频率是多少?1iltsil1?根据定义,每个隐藏节点都会传播其输入值的加权平均值。每个隐藏节点主要提升或抑制哪些输入变量?另外,很大程度上解释了,在权重的权重之间的绝对差扇出从隐藏节点到两个输出节点和。Δj,k=∣wi,j−wi,k∣ijk
较重要的隐藏节点是输出节点(在训练集中以频率说话),哪个“输入权重乘以输入频率”最重要?然后,我们探讨了前馈神经网络参数的重要性。
概率解释:
概率观点意味着将分类神经网络视为贝叶斯分类器(最佳分类器,具有理论上定义的最低错误率)。哪些输入变量会影响神经网络的结果-以及多久影响一次?将此视为概率敏感性分析。一个输入变量的变化多久能导致一个不同的分类?输入神经元多久对哪个分类结果最可能产生潜在影响,这意味着相应的输出神经元达到最高值?xinput
个案-模式
当改变实数输入神经元可能导致最可能的分类发生变化时,我们说此变量具有潜在的影响。当更改枚举变量的结果时(将工作日从星期一更改为星期二或任何其他工作日),以及最有可能的结果更改,则该枚举变量可能会对分类结果产生潜在影响。xinput[1,0,0,0,0,0,0][0,1,0,0,0,0,0]
现在,当我们考虑到这种变化的可能性时,我们便说出了预期的影响。给定所有其他输入的值,观察变化的输入变量使得输入个案改变结果的概率是多少?预期影响是指预期值,的,即。这里是所有输入值的向量,输入除外。请记住,枚举变量由许多输入神经元表示。这些可能的结果在这里被视为一个变量。 X 我Ñ p ù 吨 È (X 我Ñ p ü 吨 | X - 我Ñ p Ù 吨)X - 我Ñ p ü 吨 X 我Ñ p ù 吨xinputxinputE(xinput∣x−input)x−inputxinput
深入学习-NN参数的含义
当应用于计算机视觉时,神经网络在过去十年中已显示出惊人的进步。LeCunn于1989年引入的卷积神经网络最终在图像识别方面确实表现出色。据报道,它们可以胜过大多数其他基于计算机的识别方法。
当训练卷积神经网络进行对象识别时,就会出现有趣的新兴属性。隐藏节点的第一层表示低级特征检测器,类似于尺度空间运算符T. Lindeberg,“具有自动尺度选择的特征检测”,1998年。这些比例空间运算符检测
和其他一些基本图像功能。
更有趣的是,事实证明,哺乳动物大脑中的知觉神经元类似于(生物)图像处理第一步中的这种工作方式。因此,使用CNN,科学界正在接近使人类的感知如此惊人的原因。这使得进行进一步的研究非常有价值。