在比较不同情况下的弹性模型(即样条曲线)与非弹性模型(例如线性回归)时,我遇到了一个简单的问题。问题是:
通常,在以下情况下,我们是否希望灵活的统计学习方法的性能比不灵活的方法好或坏?
- 预测变量的数量非常大,而观测值的数量小? ñ
- 误差项的方差,即极高吗?
我认为对于(1),当较小时,不灵活的模型会更好(不确定)。对于(2),我不知道哪个模型(相对)更好。
在比较不同情况下的弹性模型(即样条曲线)与非弹性模型(例如线性回归)时,我遇到了一个简单的问题。问题是:
通常,在以下情况下,我们是否希望灵活的统计学习方法的性能比不灵活的方法好或坏?
我认为对于(1),当较小时,不灵活的模型会更好(不确定)。对于(2),我不知道哪个模型(相对)更好。
Answers:
在这两种情况下,灵活与不灵活的比较模型还取决于:
如果关系接近线性并且您不限制灵活性,则线性模型在两种情况下均应提供更好的测试误差,因为两种情况下的柔性模型都可能过拟合。
您可以这样看:
但是,如果真正的关系是非常非线性的,那么很难说谁会赢(两者都会松懈:)。
如果您调整/限制灵活性程度并以正确的方式进行操作(例如通过交叉验证),那么在所有情况下,灵活性模型都将获胜。
对于第二个问题,我相信答案是它们两者的性能都一样(假设这些错误是不可减少的,即该错误)。在第18页的“ 统计学习入门”(主题:为什么估计)中提供了更多信息,作者在其中解释道:
的准确性作为预测取决于两个量,我们将调用还原错误和束缚的错误。在一般情况下,不会是一个完美的估计,而这种误差将介绍一些错误。此错误是可减少的,因为我们可以通过使用最合适的统计学习技术来估计来提高的准确性。但是,即使有可能对形成一个完美的估计,因此我们的估计响应也采用的形式˚F ˚F ˚F ˚F ˚F Ý = ˚F (X )ý ε X ε ˚F ε,我们的预测仍然会有一些错误!这是因为也是的函数,根据定义,无法使用预测。因此,与相关的可变性也会影响我们预测的准确性。这被称为不可约误差,因为无论我们对估计程度如何,我们都无法减小引入的误差 。