通常不会,但是在错误指定的情况下可能会是。您正在寻找的问题称为可受理性。如果没有降低风险的决策方法,则可以接受该决策。
所有贝叶斯解决方案都是可以接受的,非贝叶斯解决方案是可以接受的,只要它们在每个样本中都符合贝叶斯解决方案,或者达到极限。可接受的Frequentist或Bayesian解决方案将始终优于ML解决方案,除非它也是可接受的。话虽如此,有一些实用的说法使这一说法正确,但虚无。
首先,贝叶斯选项的先验条件必须是您的真实先验条件,而不是用来使期刊编辑满意的先验分布。其次,许多惯常解决方案是不可接受的,应该使用收缩率估算器代替标准解决方案。许多人不知道斯坦因的引理及其对样本外错误的影响。最后,在许多情况下,ML对于错误指定错误会更健壮。
当您进入决策树及其近亲森林时,除非使用的贝叶斯网类似,否则您不会使用类似的方法。图解决方案中包含大量隐式信息,尤其是有向图。每当您将信息添加到概率或统计过程中时,都将减少结果的可变性并更改认为可接受的内容。
如果从功能组合的角度看机器学习,它只是一个统计解决方案,但使用近似值使该解决方案易于处理。对于贝叶斯解决方案,MCMC可以节省大量的时间,而对于许多ML问题,梯度下降同样可以节省时间。如果您必须构造一个精确的后验积分以对许多ML问题进行积分或使用蛮力,那么在您得到答案之前,太阳系将因热死而死亡。
我的猜测是,对于使用统计信息或不适当的统计信息的人,您的模型指定有误。我曾在一次讲座中讲过,我证明了如果不适当地包裹新生儿,婴儿将飘窗而出;在多项选择上,贝叶斯方法的表现远远超过了频率论方法,以至于频率期望法收支相抵,而贝叶斯方法则使参与者的钱翻了一番。 。现在,我滥用了前者中的统计信息,并利用了后者中Frequentist估计器的不可接受性,但是单纯地使用统计学的人可以轻松地完成我的工作。我只是使它们极端化以使示例显而易见,但我使用了绝对真实的数据。
随机森林是一致的估计量,它们似乎类似于某些贝叶斯过程。由于与内核估计量有联系,因此它们可能非常接近。如果您发现解决方案类型之间的性能存在实质性差异,则说明潜在问题中存在某些您容易误解的问题,如果该问题具有重要意义,那么您确实需要寻找差异的根源,因为这可能也是造成差异的原因。所有型号均未指定的情况。