损失函数的二阶近似(深度学习书,7.33)


11

在Goodfellow(2016)的一本关于深度学习的书中,他谈到了尽早停止与L2正则化的等效性(https://www.deeplearningbook.org/contents/regularization.html第247页)。

成本函数二次逼近由下式给出:j

J^(θ)=J(w)+12(ww)TH(ww)

其中是Hessian矩阵(方程7.33)。这是缺少中期吗?泰勒展开应该是: H

f(w+ϵ)=f(w)+f(w)ϵ+12f(w)ϵ2

Answers:


15

他们谈论最佳权重:

我们可以在权重的经验最优值附近以二次逼近对成本函数建模Jw

在这一点上,一阶导数为零,因此省略了中间项。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.