L2正则化等效于高斯先验


56

我一直在阅读,直觉上我可以看到这一点,但是从L2正则化到分析上说这是一个高斯先验又如何呢?说L1等于拉普拉斯先验也是如此。

任何进一步的参考将是伟大的。

Answers:


54

让我们想象一下,您想从某些观察到的输入输出对x 1y 1x Ny N推断出一些参数。让我们假设输出通过β与输入线性相关,并且数据被某些噪声corrupt破坏:βX1个ÿ1个Xñÿñβϵ

yn=βxn+ϵ,

其中是高斯噪声均值0和方差σ 2。这引起了高斯似然:ϵ0σ2

n=1NN(yn|βxn,σ2).

让我们正规化参数通过实施高斯之前ñβ | 0 λ - 1其中,λ是严格的正标量。因此,结合可能性和先验,我们只需:βN(β|0,λ1),λ

n=1NN(yn|βxn,σ2)N(β|0,λ1).

让我们采用上述表达式的对数。删除一些常量,我们得到:

n=1N1σ2(ynβxn)2λβ2+const.

如果我们最大限度地与就上述表达,我们得到了所谓的最大后验估计β,简称MAP估计。在该表达式中,显而易见的是,为什么高斯先验可以解释为L2正则化项。ββ


类似地,可以以相同的方式来理解L1范数和拉普拉斯先验之间的关系。拉普拉斯先验代替高斯先验,将它与您的似然相结合并取对数。

关于这两个问题的很好的参考文献(也许有些高级)是论文“用于监督学习的自适应稀疏性”,目前似乎很难在网上找到。或者查看“使用Jeffreys Prior的自适应稀疏”。另一个很好的参考是“关于使用拉普拉斯先验的贝叶斯分类”


1
在一个D dimension线性回归的情况下,可以betasigma有明确的解决方案?我正在阅读PRML,在第30页上找到方程(1.67),却不知道如何求解。我们以最大的可能性求解beta,然后sigma将梯度设置为零。在正则化最小二乘中,由于重新定形参数lambda是已知的,我们beta直接求解。但是,如果我们直接解决了MAP,有什么解决的顺序betasigma?他们可以有明确的解决方案,还是必须使用迭代过程?
stackunderflow '16

是否缺少对“方” 最后一个方程,即在λ β 2λβλβ2
brian.keng 2016年

@AdamO它限制系数可以采用的值的数量。例如,如果先验值在1到10之间,则系数取其他任何值(即[-inf至1]和[10,+ inf])的概率为0。
imsrgadich

1
在这种情况下是已知的。是否当它的工作σ 2未知?对于贝叶斯线性回归,可以使用反伽马先验先于方差形成共轭。但是我不确定代数是否等于相同的表达式。σ2σ2
AdamO

11

对于具有多元正态先验和多元正态似然性的线性模型,您最终得到多元正态后验分布,其中后验均值(和最大后验模型)恰好是您使用Tikhonov正则化(正则化)所获得的带有适当正则化参数的最小二乘法。 L2

请注意,还有一个更根本的区别,即贝叶斯后验是概率分布,而Tikhonov正则化最小二乘解是特定点估计。

在许多有关逆问题的贝叶斯方法的教科书中对此进行了讨论,例如:

http://www.amazon.com/Inverse-Problem-Methods-Parameter-Estimation/dp/0898715725/

http://www.amazon.com/Parameter-Estimation-Inverse-Problems-Second/dp/0123850487/

类似地,如果您具有拉普拉斯先验和多元正态似然,则后验分布的最大值发生在您可以通过求解正则化最小二乘问题得到的点上。 L1个


9

首先要注意,中位数使L1范数最小化(有关L1和L2的更多信息,请参见此处此处

中位数X=一种[RG一世ñs一世|X一世-s|1个

而均值使L2最小

意思X=一种[RG一世ñs一世|X一世-s|2

μμ


Hurley,WJ(2009)一种计算双指数分布MLE的归纳方法现代应用统计方法杂志:8(2),第25条。


也许这不是这里给出的最严格的数学答案,但是对于L1 / L2正则化初学者来说,这绝对是最简单,最直观的答案。
SQLServerSteve

8

ķ

βÿ-Xβÿ-Xβ

大号p

βÿ-Xβÿ-Xβ+λ一世=1个ķ|β一世|p

我们可以等效地做(注意符号变化)

最高β-ÿ-Xβÿ-Xβ-λ一世=1个ķ|β一世|p

这直接与贝叶斯原理有关

pØsŤË[R一世Ø[R一世ķË一世HØØd×p[R一世Ø[R

或等效地(在常规条件下)

ØGpØsŤË[R一世Ø[RØG一世ķË一世HØØd+ØGpËñ一种Ťÿ

现在不难发现哪种指数族分布对应于哪种惩罚类型。


3

为了更精确地说明等价关系:

通过L2正则化来优化模型权重以最小化平方误差损失函数,等同于找到使用Bayes规则评估的后验分布下最有可能的权重,且先于零均值独立的高斯权重

证明:

如上所述的损失函数将由下式给出

大号=[ñ=1个ñÿñ-FwXñ2]Ø[R一世G一世ñ一种ØssFüñCŤ一世Øñ+λ一世=1个ķw一世2大号2Øss

ñX;μΣ=1个2πð/2|Σ|1个/2经验值-1个2X-μΣ-1个X-μ

使用贝叶斯规则,我们有

pw|ð=pð|wpwpðpð|wpw[ñññÿñ;FwXñσÿ2]ñw;0σw2一世ñññÿñ;FwXñσÿ2一世=1个ķñw一世;0σw2

由于协方差是单位矩阵的倍数,因此我们能够将多维Guassian分解为一个乘积。

log[p(w|D)]=n=1Nlog[N(y(n);fw(x(n)),σy2)]i=1Klog[N(wi;0,σw2)]+const.=12σy2n=1N(y(n)fw(x(n)))2+12σw2i=1Kwi2+const.

我们当然可以减去常数,然后乘以任意数量而不会从根本上影响损失函数。(常数不执行任何操作,乘法有效地缩放学习速率。不会影响最小值的位置)。因此,我们可以看到后验分布的负对数概率与L2正则平方误差损失函数等效。

这种等价性是一般性的,适用于权重的任何参数化函数-不仅仅是上面似乎暗示的线性回归。


1

在讨论某些惩罚最大似然估计和贝叶斯程序的等价性时,需要强调贝叶斯建模的两个特征。

  1. 在贝叶斯框架中,先验是根据问题的具体情况选择的,并且不受计算权宜性的驱使。因此,贝叶斯算法使用了各种先验条件,包括现在流行的马蹄先验算法,可解决稀疏的预测变量问题,并且不需要过多依赖等于L1或L2惩罚的先验算法。
  2. 使用完整的贝叶斯方法,您可以在完成后访问所有推理过程。例如,您可以量化大回归系数的证据,并且可以获得有关回归系数和整体预测值的可靠区间。在常客制框架中,一旦选择惩罚,您将失去所有推论机器。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.