最小角度回归使相关性单调递减并受束缚?


9

我正在尝试解决最小角度回归(LAR)问题。这是一个问题3.23页面上97黑斯蒂等,统计学习的要素,第2位。ed。(第5次打印)

考虑所有变量和响应均值为零,标准差为1的回归问题。还假设每个变量与响应具有相同的绝对相关性:

1N|xj,y|=λ,j=1,...,p

令为上最小二乘系数,并令为。β^yXu(α)=αXβ^α[0,1]

要求我显示 ,我对此有疑问。请注意,这基本上可以说,随着我们向前进,每个与残差的相关性在大小上保持相等。

1N|xj,yu(α)|=(1α)λ,j=1,...,p
xju

我也不知道如何显示相关性等于:

λ(α)=(1α)(1α)2+α(2α)NRSSλ

任何指针将不胜感激!


2
@Belmont,你叫吗?您能否提供有关您的问题的更多背景信息?例如,链接到具有LAR标准属性的文章会很有帮助。üα
mpiktas 2011年

@Belmont,这似乎是Hastie等人在《统计学习的要素》第二版中提出的问题。ed。这是作业吗?如果是这样,您可以添加该标签。
主教

@Belmont,既然@cardinal给出了完整的答案,您能否指定LAR真正是什么,以供将来参考?从答案来看,这是给定一些初始约束的最小二乘回归乘积的标准操作。没有认真的理由,就不应有一个特殊的名称。
mpiktas 2011年

1
@mpiktas,它是一个阶段算法,因此每次变量在正则化路径上进入或离开模型时,的大小(即基数/维度)分别会增大或缩小,并且将基于当前的“活动”变量。在套索的情况下,这是一个凸优化问题,该过程本质上是在KKT条件下利用特殊结构来获得非常有效的解决方案。也有一些概括,例如基于IRLS和Heine-Borel的逻辑回归(以证明有限步数的收敛。)β
主教,

1
@Belmont -1,我最近买了Hastie的书,我可以确认,这是它的练习。所以我给您一个大-1,因为您甚至都没有给出所有定义,所以我什至没有在谈论提供参考。
mpiktas 2011年

Answers:


21

这是问题3.23页面上97黑斯蒂等,统计学习的要素,第2位。ed。(第5次打印)

这个问题的关键是对普通最小二乘法(即线性回归)的良好理解,尤其是拟合值和残差的正交性。

正交引理:设为设计矩阵,为响应向量,为(真)参数。假设是满秩(我们将在整个)的OLS估计是。拟合值为。然后。即,拟合值与残差正交。这是因为。Xñ×pÿβXββ^=XŤX-1个XŤÿÿ^=XXŤX-1个XŤÿÿ^ÿ-ÿ^=ÿ^Ťÿ-ÿ^=0XŤÿ-ÿ^=XŤÿ-XŤXXŤX-1个XŤÿ=XŤÿ-XŤÿ=0

现在,令为列向量,使为第列。假定的条件是:XĴXĴĴX

  • 1个ñXĴXĴ=1个对于每个,,Ĵ1个ñÿÿ=1个
  • 1个ñXĴ1个p=1个ñÿ1个p=0其中表示长度的那些的向量,和1个pp
  • 1个ñ|XĴÿ|=λ为所有。Ĵ

请注意,特别是,在最后陈述正交引理是相同的所有。XĴÿ-ÿ^=0Ĵ


相关性是并列的

现在,。因此, 并且由于正交引理在右边的第二项为零,因此 根据需要)。相关的绝对值就是 üα=αXβ^=αÿ^

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
1N|xj,yu(α)|=(1α)λ,
ρ^j(α)=1N|xj,yu(α)|1Nxj,xj1Nyu(α),yu(α)=(1α)λ1Nyu(α),yu(α)

注意:上面的右侧与无关,并且分子与协方差相同,因为我们假设所有和都居中(因此,尤其是不必减去均值)。jxjy

重点是什么?随着增加,响应矢量将被修改,使其朝着仅通过在模型中合并第一个参数而获得的(受限!)最小二乘法求解的方向扩展。这同时修改了估计的参数,因为它们是预测变量与(修改的)响应向量的简单内积。修改采取特殊形式。在整个过程中,它使预测变量和修改后的响应之间的相关性(的幅值)保持相同(即使相关性的正在变化)。考虑一下这是怎么做的,您将了解该过程的名称!αp


(绝对)相关的显式形式

让我们集中讨论分母中的术语,因为分子已经是必需的形式。我们有

yu(α),yu(α)=(1α)y+αyu(α),(1α)y+αyu(α).

代入并使用内积的线性,我们得到u(α)=αy^

yu(α),yu(α)=(1α)2y,y+2α(1α)y,yy^+α2yy^,yy^.

观察一下

  • y,y=N(假设),
  • y,yy^=yy^,yy^+y^,yy^=yy^,yy^,通过对中间的第二项应用正交引理(又一次);和,
  • yy^,yy^=RSS

放在一起,您会发现我们得到了

ρ^j(α)=(1α)λ(1α)2+α(2α)NRSS=(1α)λ(1α)2(1RSSN)+1NRSS

总结一下,,因此很显然,在和单调递减为。1RSSN=1N(y,y,yy^,yy^)0ρ^j(α)αρ^j(α)0α1


结语:在这里集中思想。真的只有一个。该正交引理做几乎所有的工作我们。剩下的只是代数,符号,以及将后两个函数起作用的能力。


2
@ cardinal,+ 1。答案比问题好得多。
mpiktas 2011年

@cardinal,您可能希望将链接更改为亚马逊或其他网站。我认为链接到整本书可能会引起一些版权问题。
mpiktas 2011年

3
@mpiktas,不。没有版权问题。那是这本书的官方网站。作者获得了Springer的许可,以免费在线获取PDF。(请参阅网站上有关此效果的说明。)我认为他们是从Stephen Boyd及其“ 凸优化”文本中得到的。希望这种趋势将在未来几年中加速发展。请享用!
主教

@cardinal,非常感谢!作者们慷慨大方。
mpiktas 2011年

@mpiktas,这是迄今为止《 Springer系列统计》中最受欢迎的书。在iPad上看起来不错。这使我想起---我也应该将博伊德的文本下载到其中。干杯。
主教
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.