Hastie等。“统计学习的要素”(2009年)考虑了数据生成过程 其中和。È(ε )= 0 无功(ε )= σ 2 ε
他们对点(第223页,公式7.9)处的期望平方预测误差进行了以下偏差方差分解: 在我的自己的工作我没有指定而是取一个任意的预测(如果相关)。问题:我正在寻找 或更确切地说 的术语 错误(x 0)˚F(⋅) ÿ
Err (x 0)- 不可减少的误差。
Hastie等。“统计学习的要素”(2009年)考虑了数据生成过程 其中和。È(ε )= 0 无功(ε )= σ 2 ε
他们对点(第223页,公式7.9)处的期望平方预测误差进行了以下偏差方差分解: 在我的自己的工作我没有指定而是取一个任意的预测(如果相关)。问题:我正在寻找 或更确切地说 的术语 错误(x 0)˚F(⋅) ÿ
Answers:
我建议减少误差。这也是Gareth,Witten,Hastie和Tibshirani撰写的《统计学习入门》第2.1.1段中采用的术语,该书基本上是ESL的简化版+一些非常酷的R代码实验室(但事实是它们使用了attach
,但是,没有人是完美的)。我将在下面列出该术语优缺点的原因。
首先,我们必须记得,我们不仅承担有均值为0,但也是独立的(见第2.6.1,ESL,2的公式2.29 第二版,12 次印刷)。那么,当然,无论我们选择哪种假设类别(模型族),以及用于学习假设的样本量(估计模型),都无法从估计。这解释了为什么 被称为不可减少的错误。
通过类推,似乎很自然地定义了误差的其余部分(可减少的误差)。现在,该术语听起来有些混乱:事实上,在我们为数据生成过程所做的假设下,我们可以证明
因此,当且仅当(可以假定我们有一个一致的估计量)时,可减少的误差才能减小到零。如果,即使在无限样本大小的限制下,我们也无法将可减少误差驱动为0。但是,它仍然是我们误差的唯一部分,可以通过更改样本大小,在我们的估计器中引入正则化(收缩)等方法来减少(即使不能消除)。换句话说,通过选择另一个在我们的模型系列中。
从根本上讲,可减少的含义不是可归零的(y!),而是指可以减少的那部分误差,即使不一定将其减小得很小。另外,请注意,原则上,可以通过放大直到包含来将错误减少为0 。相反,由于,无论有多大,都无法减小。E [ Y | X = X ] σ 2 ε ħ ε ⊥ X
为什么我不喜欢“可还原性”一词?就像可约性公理一样,它带有一种自指重言式。我同意罗素(Russell)1919年的观点:“我没有任何理由相信可还原性公理在逻辑上是必要的,这就是说在所有可能的世界中都成立。因此,逻辑是一个缺陷……一个可疑的假设。”
值得注意的是,随着人们在五分钟内投下第一个样本,物理性能会得到改善,因为随着时间的推移,人们将早期样本持续投递至60分钟。这表明,尽管GV最终形成了药物血浆浓度的良好模型,但在早期还有其他事情发生。