罚线性回归的几何解释


26

我知道线性回归可以认为是“垂直上最接近所有点的线”

在此处输入图片说明

但是,通过可视化列空间,还有另一种查看方式,即“在系数矩阵的列所跨越的空间上的投影”

在此处输入图片说明

我的问题是:在这两种解释中,当我们使用惩罚线性回归(如岭回归LASSO)时会发生什么?在第一个解释中该行会发生什么?在第二种解释中,投影会发生什么?

更新: @JohnSmith在评论中提到了惩罚发生在系数空间中的事实。在这个领域也有解释吗?


1
我不确定是否可以提出这样的解释。仅仅是因为您提供的是功能和响应的原始空间中的图像。惩罚回归涉及系数空间,这是非常不同的。
德米特里·拉普捷夫

“垂直于所有点的线”?通常取平方和-参见Wikipedia Coefficient_of_determination上的精美图片。垂直距离的总和为L1范数,它对异常值较不敏感,但较不常见。
2014年

Answers:


21

对不起,我的绘画技巧,我将尽力给您以下直观信息。

f(β)ββ1β2

在红色圆圈中间,此功能最少。这个最小值为我们提供了非惩罚性的解决方案。

g(β)g(β)=λ(|β1|+|β2|)g(β)=λ(β12+β22)λλg(x)

f(β)+g(β)

LASSO和Ri​​dge回归

惩罚越大,我们得到的“越窄”的蓝色轮廓,然后各图在接近零的点彼此相遇。反之亦然:惩罚越小,轮廓线扩大,蓝色和红色曲线的交点越靠近红色圆圈的中心(非惩罚解)。

β1=0β2=0

0

希望这能解释一些关于在参数空间中惩罚回归如何工作的直觉。


我认为,像您所做的那样,从经典的图片开始是一个好的开始。为了真正理解这一点,我认为描述轮廓与问题的关系将很有帮助。特别是,在两种情况下,我们都知道,我们付出的代价越小,我们越接近OLS解决方案,而获得的惩罚越大,我们越接近纯拦截模型。要问的一个问题是:这如何在您的形象中体现出来?
红衣主教

顺便说一句,您的绘画技巧似乎还不错。
红衣主教2012年

谢谢你的评论!这里的一切在直观上都很简单:惩罚越大,我们得到的“越窄”的蓝色轮廓(然后两个图相遇的点接近于零)。反之亦然:惩罚越小:情节将要遇到的红色圆圈中心(OLS)越近。
德米特里·拉普捷夫

2
g(x)λ

1
感谢您的清晰说明。我在其他地方读过,目标的最小总和是相切的。我得到如果f(\ beta)'= -g(\ beta)',那意味着和的导数为零,这是极值的要求。这是“两个等高线彼此相遇时”的意思吗?
odedbd 2015年

3

我的直觉如下:在最小二乘情况下,帽子矩阵是正交投影,因此是幂等的。在惩罚的情况下,帽子矩阵不再是幂等的。实际上,无限次地应用它会把系数缩小到原点。另一方面,系数仍必须位于预测变量的范围内,因此尽管不是正交的,但仍是一个投影。惩罚因子的大小和规范的类型控制着缩向原点的距离和方向。


1
我看不到为什么它不是幂等的:如果我在空间中投影向量(即使它不是正交投影),并且在系数中设置了约束,为什么这个投影向量的新投影会与以前的投影有所不同一?
卢卡斯·里斯

1
直观地说:假设您第二次将惩罚平方和最小化。第二个最小化的平方和小于第一个最小化的平方和。惩罚系数的范数的相对重要性将增加,即,通过进一步缩小系数可以获得更多的收益。Ridge回归是一个很好的示例,其中您有一个很好的帽子矩阵封闭形式,您可以直接检查它是否等幂。
2012年
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.