正则化线性与RKHS回归


9

我正在研究RKHS回归中的正则化与线性回归之间的差异,但是我很难理解两者之间的关键差异。

给定的输入-输出对,我想估计的函数如下 ,其中是内核函数。可以通过求解来找到 系数 其中,在某种程度上滥用符号的情况下,内核矩阵K的第i,j个条目是{\ displaystyle K(x_ {i},x_ {j})}。这给出 \ begin {equation} \ alpha ^ * =(K + \ lambda nI)^ {-1} Y。\ end {equation}(xi,yi)f()

f(x)u(x)=i=1mαiK(x,xi),
K(,)αmĴķķXXĴα*=ķ+λÑ-1ÿ
minαRn1nYKαRn2+λαTKα,
i,jKK(xi,xj)
α=(K+λnI)1Y.
另外,我们可以将该问题视为正常的岭回归/线性回归问题:
α[Rñ1个ñÿ-ķα[Rñ2+λαŤα
与解决方案
α=ķŤķ+λñ一世-1个ķŤÿ

这两种方法及其解决方案之间的关键区别是什么?



@MThQ-您对“正常”山脊回归的描述是否仍然适用于双重?只是为了澄清一下,我认为正常的岭回归被认为在原始中起作用(在该处进行了显式特征表示)。
rnoodle

Answers:


5

正如您在写下优化问题时可能已经注意到的那样,最小化的唯一区别是使用哪种希尔伯特范式进行惩罚。也就是说,量化 “大”值是为了惩罚的目的。在RKHS设置中,我们使用RKHS内积,而岭回归相对于欧几里得范数不利。ααŤķα

一个有趣的理论结果是每种方法如何影响复制内核的频谱。根据RKHS理论,我们得出是对称正定的。通过谱定理,我们可以写成,其中是特征值的对角矩阵,是特征向量的正交矩阵。因此,在RKHS设置中, 同时,在Ridge回归设置中,请注意,是对称的, ķķķ=üŤdüdü

ķ+λñ一世-1个ÿ=[üŤd+λñ一世ü]-1个ÿ=üŤ[d+λñ一世]-1个üÿ
ķŤķ=ķ2
ķ2+λñ一世-1个ķÿ=[üŤd2+λñ一世ü]-1个ķÿ=üŤ[d2+λñ一世]-1个üķÿ=üŤ[d2+λñ一世]-1个düÿ=üŤ[d+λñd-1个]-1个üÿ
让的频谱是。在RKHS回归中,特征值由 。在Ridge回归中,我们有 。结果,RKHS统一修改特征值,而如果相应的较小,则Ridge将添加较大的值。ķν1个νñν一世ν一世+λñν一世ν一世+λñ/ν一世ν一世

根据内核的选择,的两个估计值可能彼此接近或相距甚远。运营商规范意义上的距离为 但是,对于给定的仍然是有界的α

αRKHS-α2=一个RKHSÿ-一个ÿ2[d+λñ一世]-1个-[d+λñd-1个]-1个ÿ2最高一世=1个ñ{|ν一世+λñ-1个-ν一世+λñ/ν一世-1个|}ÿ2最高一世=1个ñ{λñ|1个-ν一世|ν一世+λñν一世2+λñ}ÿ2
ÿ,因此您的两个估算器不能任意分开。因此,如果您的内核接近于身份,那么在方法上几乎没有什么区别。如果您的内核有很大不同,则两种方法仍然可以得出相似的结果。

在实践中,很难确切地说出在给定情况下一个是否比另一个更好。由于在用核函数表示数据时我们将平方误差最小化,因此我们正在有效地从函数的相应希尔伯特空间中选择最佳回归曲线。因此,对RKHS内部产品进行惩罚似乎是自然而然的方法。


1
您对此有参考吗?
rnoodle
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.