Answers:
好问题。首先,回想一下这个近似值来源。令为数据点,为模型,为模型的参数。然后,非线性最小二乘问题的目标函数为,其中是残差的向量,。目标函数的精确Hessian为。因此,该近似值中的误差为。当残差本身很小时,这是一个很好的近似值。或当残差的二阶导数较小时。线性最小二乘可以视为残差的二阶导数为零的特殊情况。
至于有限差分近似,它相对便宜。为了计算中央差,你需要评估雅可比额外倍(向前差将花费你ñ额外的评估,所以我不会理会)。中央差分近似的误差正比于∇ 4 - [R和ħ 2,其中ħ是步长。最佳步长是ħ 〜ε 1,其中ε是机器精度。因此,除非残差的导数膨胀,否则很明显,有限差分近似应该更好。我应该指出,尽管计算量很小,但记账却不平凡。雅可比行列上的每个有限差都会为您为每个残差提供一排的黑森州。然后,您必须使用上面的公式重新组装黑森州。
但是,有第三个选项。如果您的求解器使用拟牛顿法(DFP,BFGS,Bryoden等),则在每次迭代时它已经近似于Hessian。近似值可能很好,因为它使用了每次迭代的目标函数和梯度值。大多数求解器将使您可以访问最终的Hessian估计(或其反函数)。如果这是您的选择,我将其用作黑森州的估算。它已经过计算,可能会是一个不错的估计。