这个问题参考了Galit Shmueli的论文“解释或预测”。
具体而言,Shmueli教授在1.5节“解释和预测不同”中写道:
在解释性建模中,重点是最小化偏差以获得最准确的基础理论表示。
每当我读这篇论文时,这都会使我感到困惑。从什么意义上说,最小化估计偏差可以最准确地表示基础理论吗?
我还在这里观看了Shmueli教授在2017年JMP探索峰会上的演讲,她说:
...像收缩模型,集合体之类的东西,您将永远不会看到它们。因为这些模型通过设计引入了偏差,以减少总体偏差/方差。这就是为什么他们不在那里的原因,这样做没有任何理论意义。您为什么要使模型有目的地偏见?
这并不能真正阐明我的问题,只是重申我不理解的说法。
如果理论有很多参数,而我们没有足够的数据来估计它们,那么估计误差将由方差决定。为什么在这种情况下使用像岭回归这样的有偏估计程序(导致较低方差的有偏估计)是不合适的?