核岭回归效率


11

岭回归可以表示为,其中是预测标签,的识别矩阵,我们试图找到一个标签的对象,而的的矩阵对象使得:

y^=(XX+aId)1Xx
y^Idd×dxXn×dnxi=(xi,1,...,xi,d)Rd

X=(x1,1x1,2x1,dx2,1x2,2x2,dxn,1x1,2xn,d)

我们可以将其内核化如下:

y^=(K+aId)1k

其中是内核函数Kn个\ times n矩阵Kn×nK

K=(K(x1,x1)K(x1,x2)K(x1,xn)K(x2,x1)K(x2,x2)K(x2,xn)K(xn,x1)K(xn,x2)K(xn,xn))

\ mathbf {k}内核函数Kkn×1列向量K

ķ=ķX1个XķX2XķXñX

问题:

(a)如果对象比维数多,使用内核有意义吗?例如,假设为矩阵,则将为,我们最终将矩阵取而代之,而不是如果使用内核,则必须将矩阵。这是否意味着如果我们不应该使用内核?X一世X50×3XX3×33×350×50dñ

(b)是否应使用最简单的内核?似乎岭回归中的核用于抵消维数的影响,而不是利用特征空间的某些属性(与支持向量机不同)。尽管内核可以改变对象之间的距离,但是在岭回归中是否有常用的内核?

(c)岭回归和/或核岭回归的时间复杂度是多少?Ø


“效率”在统计数据中具有不同的含义。您是说“计算复杂性”吗?(标题中)
纪念

我的意思是“算法效率”。尽管我的问题的确从本质上将其降低为“计算复杂性”。
Helix

Answers:


5

(a)使用核的目的是在这种情况下解决非线性回归问题。一个好的内核将使您能够解决可能具有无限维的特征空间中的问题。但是,使用线性核并在对偶空间中进行核岭回归与解决原始空间中的问题相同,即,它没有带来任何优势(随着观察到的样本数量的增加,它要慢得多)。ķXÿ=Xÿ

(b)最受欢迎的选择之一是平方指数核是通用的(请参阅下面的参考)。内核有很多,每个内核都会为您的特征空间引入不同的内部乘积(并因此生成度量标准)。ķXÿ=经验值-τ2||X-ÿ||2

(c)直接实现需要求解大小为的线性方程,因此它是。有许多更快的逼近方法,例如Nyström逼近。这是一个活跃的研究领域。ñØñ3

参考文献:

  1. Bharath Sriperumbudur,Kenji Fukumizu和Gert Lanckriet。关于通用性,特征核与RKHS措施嵌入之间的关系。机器学习研究杂志,2010年9:773-780。
  2. Bernhard Schlkopf,Alexander J.Smola。与内核一起学习:支持向量机,正则化,优化以及 2002年之后的版本
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.