如果我有一个设计矩阵,其中Ñ是尺寸的观察次数d,什么是求解的复杂性β = argmin β 1与LASSO,wrtn和d?我认为答案应该是关于一个LASSO迭代如何使用这些参数缩放,而不是迭代次数(收敛)如何缩放,除非您另有感觉。
我已经阅读了以前的LASSO复杂性问题,但似乎与此处和此处有关glmnet的讨论不一致。我知道那里有很多算法,包括glmnet的GLM方法,但是我正在写一篇有关将LASSO组件替换为父算法的论文,并且希望包括关于LASSO复杂性的讨论,特别是和n。我也想知道在基本的非稀疏情况下glmnet的复杂性,但是由于整个算法的复杂性不是很明确,因此参考文献有些令人困惑。
3
目前尚不清楚为什么这个答案stats.stackexchange.com/a/190717/28666(在您链接到的线程中)不能回答您的问题。你能详细说明吗?什么跟什么不符?
—
变形虫
[pdf] [1]中的第6页指出“因此,通过所有d变量的完整循环成本为 ”。但是,您链接到状态O (d 2 n )的问题。我是否在这里错过了获得d 2复杂度的循环?[1]:jstatsoft.org/article/view/v033i01
—
rnoodle
@amoeba您提供的链接用于LARS算法-我想了解GLM方法。
—
rnoodle '17
最小角度回归的参考和坐标下降的参考O(d n )是正确的。区别在于(1)LARS可以找到O(d 2 n )的精确解(并且这样做的可能性是遍历可能的λ的整个路径,其复杂度等于OLS问题到整个问题,并且也随着O(d 2 n )),而(2)坐标下降仅在O(d,收敛/“下降”更接近LASSO问题的最小值。LARS使用 d步。随着协调下降...没人知道。
—
Sextus Empiricus