岭回归可以表示为,其中是预测标签,的识别矩阵,我们试图找到一个标签的对象,而的的矩阵对象使得:
我们可以将其内核化如下:
其中是内核函数K的n个\ times n矩阵
和\ mathbf {k}内核函数K的列向量
问题:
(a)如果对象比维数多,不使用内核有意义吗?例如,假设为矩阵,则将为,我们最终将矩阵取而代之,而不是如果使用内核,则必须将矩阵。这是否意味着如果我们不应该使用内核?
(b)是否应使用最简单的内核?似乎岭回归中的核用于抵消维数的影响,而不是利用特征空间的某些属性(与支持向量机不同)。尽管内核可以改变对象之间的距离,但是在岭回归中是否有常用的内核?
(c)岭回归和/或核岭回归的时间复杂度是多少?
“效率”在统计数据中具有不同的含义。您是说“计算复杂性”吗?(标题中)
—
纪念
我的意思是“算法效率”。尽管我的问题的确从本质上将其降低为“计算复杂性”。
—
Helix