套索如何随设计矩阵大小缩放?


10

如果我有一个设计矩阵,其中Ñ是尺寸的观察次数d,什么是求解的复杂性β = argmin β 1X[Rn×dñd与LASSO,wrtnd?我认为答案应该是关于一个LASSO迭代如何使用这些参数缩放,而不是迭代次数(收敛)如何缩放,除非您另有感觉。β^=精氨酸β1个2ñ||Xβ-ÿ||2+λ||β||1个ñd

我已经阅读了以前的LASSO复杂性问题,但似乎与此处此处有关glmnet的讨论不一致。我知道那里有很多算法,包括glmnet的GLM方法,但是我正在写一篇有关将LASSO组件替换为父算法的论文,并且希望包括关于LASSO复杂性的讨论,特别是n。我也想知道在基本的非稀疏情况下glmnet的复杂性,但是由于整个算法的复杂性不是很明确,因此参考文献有些令人困惑。dn


3
目前尚不清楚为什么这个答案stats.stackexchange.com/a/190717/28666(在您链接到的线程中)不能回答您的问题。你能详细说明吗?什么跟什么不符?
变形虫

[pdf] [1]中的第6页指出“因此,通过所有d变量的完整循环成本为 ”。但是,您链接到状态O d 2 n )的问题。我是否在这里错过了获得d 2复杂度的循环?[1]:jstatsoft.org/article/view/v033i01O(dn)O(d2n)d2
rnoodle

@amoeba您提供的链接用于LARS算法-我想了解GLM方法。
rnoodle '17

最小角度回归的参考和坐标下降的参考Od n 是正确的。区别在于(1)LARS可以找到Od 2 n 精确解(并且这样做的可能性是遍历可能的λ的整个路径,其复杂度等于OLS问题到整个问题,并且也随着Od 2 n ),而(2)坐标下降仅在OdO(d2n)O(dn)O(d2n)λO(d2n),收敛/“下降”更接近LASSO问题的最小值。LARS使用 d步。随着协调下降...没人知道。O(dn)d
Sextus Empiricus

Answers:


3

参考文献的答案,

  • 用于最小角度回归O(d2n)
  • 表示坐标下降O(dn)

, 是正确的。


区别在于

LARS方程以封闭形式编写,可以找到精确的解

(并且这样做会遍历整个可能的λ路径,而计算复杂度的缩放与寻找普通最小二乘问题的解相同,该问题的最小缩放O(d2n)

坐标下降是一种近似解的迭代方案。所提到的步骤(其计算成本标度为)只是“一个”近似步骤,收敛/“下降”得更接近LASSO问题的最小值。O(dn)


dO((dk)n+k2)dkk

d2nddd>>100d=100


缩放LARS是一个涉及计算复杂性的问题。缩放坐标下降是一个涉及计算复杂性收敛性的问题。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.