作为替代解释,请考虑以下直觉:
当最小化错误时,我们必须决定如何惩罚这些错误。确实,惩罚错误的最直接方法是使用linearly proportional
惩罚函数。通过这种功能,每个与均值的偏差都被赋予相应的比例误差。因此,距离均值两倍远将导致两倍的罚款。
更常见的方法是考虑squared proportional
均值偏差与相应惩罚之间的关系。这将确保在进一步你是从平均走,成比例地增加,你会受到惩罚。使用该惩罚函数,离群值(远离均值)被视为比离均值附近的观测值更具信息性。
为了对此进行可视化,您可以简单地绘制惩罚函数:
现在,尤其是在考虑回归估计(例如OLS)时,不同的惩罚函数将产生不同的结果。使用linearly proportional
惩罚函数,与使用惩罚函数相比,回归将为异常值分配更少的权重squared proportional
。因此,已知中值绝对偏差(MAD)是更可靠的估算器。因此,通常情况下,健壮的估算器可以很好地拟合大多数数据点,但会“忽略”异常值。相比之下,最小二乘拟合更趋向于离群值。这是比较的可视化:
现在,即使OLS几乎是标准,也肯定会使用不同的惩罚函数。例如,您可以看一下Matlab的robustfit函数,该函数允许您为回归选择其他惩罚(也称为“权重”)函数。惩罚功能包括安德鲁斯,比方斯,柯西,公平,胡贝尔,后勤,奥尔斯,塔尔瓦尔和韦尔施。它们的相应表达也可以在网站上找到。
我希望这可以帮助您对惩罚功能有更多的了解:)
更新资料
如果您有Matlab,我建议您使用Matlab的robustdemo,它是专门为比较普通最小二乘法和鲁棒回归而构建的:
该演示使您可以拖动单个点,并立即看到对普通最小二乘法和稳健回归的影响(非常适合教学!)。