回归中不缩小偏差(截距)项的原因


21

对于线性模型,收缩项始终为。P β y=β0+xβ+εP(β)

我们不缩小偏差(拦截)项的原因是什么?我们是否应该在神经网络模型中缩小偏差项?β0


scikit-learn中使用的用于logistic回归的liblinear库惩罚了偏差项(我认为这是一个实现工件,偏差被作为额外的输入变量来处理)
seanv507

Answers:


33

Hastie等人的《统计学习的要素》。如下定义岭回归(第3.4.1节,公式3.41):即明确将拦截项从山脊罚中排除。 β 0

β^ridge=argminβ{i=1N(yiβ0j=1pxijβj)2+λj=1pβj2},
β0

然后他们写道:

[...]请注意,截距已被排除在惩罚条款之外。拦截的惩罚将使程序取决于为选择的原点; 也就是说,将常数添加到每个目标不会简单地导致预测偏移相同的量。 ÿ Ç ÿ Çβ0Ycyic

实际上,在存在截距项的情况下,将添加到所有只会简单地导致增加,并且相应地所有预测值也会增加。如果截距受到惩罚,则情况并非如此:将必须增加小于。ÿ β 0 Ç ÿ Ç β 0 Çcyiβ0cy^icβ0C

实际上,线性回归有几个不错且方便的属性,这取决于是否存在适当的(未受罚的)截距项。例如平均值和的平均值相等,并且(因此)的平方的多个相关系数等于决定系数:请参见此线程一种解释:多重相关系数和确定系数几何解释ÿ - [R [R 2[R 2 = COS 2Ýÿ= ÿ2ÿ一世ÿ^一世[R[R2 - [R[R2

[R2=cos2ÿ^ÿ=ÿ^2ÿ2=[R2
[R[R2

对拦截进行惩罚将导致所有这些不再成立。


2

回想一下收缩或正则化的目的。这是为了防止学习算法过度拟合训练数据或等效地-防止选择任意大的参数值。对于存在噪声的情况下训练样本多于几个的数据集,这更有可能(关于噪声的存在及其影响的非常有趣的讨论在Yaser Abu-Mustafa的“从数据中学习”中进行了讨论)。在没有规则化的情况下从嘈杂数据中学到的模型可能会在一些看不见的数据点上表现不佳。

考虑到这一点,请想象您有要分类为两个类别的2D数据点。固定所有偏置参数后,更改偏置项只会使边界向上或向下移动。您可以将其推广到更高维度的空间。

学习算法不能为偏差项设置任意大的值,因为这可能会导致总损失值(模型将不适合训练数据)。换句话说,在给定一些训练集的情况下,您(或一种学习算法)无法任意将飞机移离真实飞机。

因此,没有理由缩小偏差项,学习算法将找到合适的方案而没有过度拟合的风险。

最后一点:我在一些论文中看到,在高维空间中进行分类时,并不需要严格地对偏差项建模。这可能适用于线性可分离的数据,因为添加了更多维度后,就有更多的可能性来分离这两个类。


您能为一些论文提供参考吗?这些论文说:“在高维空间中进行分类时,没有严格的建模偏倚项的必要条件”?
chandresh '16

1

截距项绝对不能避免收缩。一般的“收缩”(即正则化)公式将正则化项置于损失函数中,例如:

[R小号小号β=ÿ一世-X一世β2

[RËGü一种[R一世žËd大号Øssβ=[R小号小号β-λFβ

其中通常与Lebesgue规范有关,而是控制我们对收缩项施加多少权重的标量。λFβλ

通过将收缩项放在这样的损失函数中,会对模型中的所有系数产生影响。我怀疑您的问题源于对符号的混淆,其中(在)是所有系数的矢量,包括。您的线性模型最好写成,其中是“设计矩阵”,我的意思是这是您的数据,在数据的左侧附加了列(以截取)。P β β 0 Ý = X β + ε X 1 '小号βPββ0ÿ=Xβ+ϵX1个s

现在,我不能说神经网络的正则化。对于神经网络,您可能想要避免偏差项的缩小或以其他方式设计与上述公式不同的正则损失函数。我只是不知道 但是我强烈怀疑权重和偏差项是一起正规化的。


2
这取决于惯例,但是例如Hastie等人的《统计学习的要素》。定义岭回归,以使拦截不受惩罚(请参阅我的答案)。我怀疑这可能比其他标准更为标准。
变形虫说恢复莫妮卡

1

我不确定大卫·马克思的上述回答是否正确。根据吴安德(Andrew Ng)的说法,按照惯例,偏差/截取系数通常不会在线性回归中进行正则化,并且无论如何,将其进行正则化都不会产生重大影响。


1

我将给出最简单的解释,然后进行扩展。

ÿŤ=εŤ
Ë[εŤ]=Ë[ÿŤ]0

β

ββ0

ÿŤ=β0+εŤ
Ë[ÿŤ]=β0+Ë[εŤ]
Ë[εŤ]=0β0=μ=Ë[ÿŤ]

实际上,该模型不像原始模型那样性感。但是,这是一个合法的模型。例如,您可以在其上运行ANOVA。

β0=Ë[ÿŤ]

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.