在执行回归时,如果我们遵循以下定义:部分可能性,轮廓可能性和边际可能性之间的区别是什么?
即,最大似然
找到使L(β,θ| data)最大化的β和θ。
同时,边际似然
我们利用可以识别以β为条件的θ的概率分布这一事实,将θ从似然方程中积分出来。
哪种方法可以最大化最大化?为什么?
在执行回归时,如果我们遵循以下定义:部分可能性,轮廓可能性和边际可能性之间的区别是什么?
即,最大似然
找到使L(β,θ| data)最大化的β和θ。
同时,边际似然
我们利用可以识别以β为条件的θ的概率分布这一事实,将θ从似然方程中积分出来。
哪种方法可以最大化最大化?为什么?
Answers:
这些每个都会以不同的解释给出不同的结果。第一个找到最可能的对,,而第二个找到(边际)最可能的。想象一下,您的分布如下所示:θ β
0.0 0.2
0.1 0.2
0.3 0.2
然后,最大似然答案为(),而最大边际似然答案为(因为在边缘化,)。θ = 3 β = 2 θ P (β = 2 )= 0.6
我想说的是,通常来说,边际可能性通常就是您想要的-如果您真的不在乎参数的值,则应该将它们折叠起来。但是可能在实践中,这些方法不会产生非常不同的结果-如果确实如此,则可能表明您的解决方案中存在一些潜在的不稳定性,例如具有,不同组合的多种模式都给出相似的预测。β θ
我现在正在自己解决这个问题。这可能是有用的结果。考虑线性模型
其中和和是感兴趣的参数。联合的可能性是β σ 2
优化联合似然率
其中是伪逆和是拟合残差矢量。请注意,在我们拥有而不是熟悉的自由度校正比率。已知该估计器在有限样本情况下存在偏差。
现在,假设我们没有对和进行优化,而是对了积分,并根据所得的积分似然来估算:
使用基本线性代数和高斯积分公式,您可以证明
这具有自由度校正,使其无偏并且通常优于联合ML估计。
从这个结果中,人们可能会问综合可能性是否有内在的优势,但是我不知道有任何可以回答这个问题的一般结果。共识似乎是,集成ML更擅长解决大多数估计问题中的不确定性。特别是,如果您要估算一个依赖于其他参数估算值的数量(甚至是隐含的),则对其他参数进行积分将更好地考虑其不确定性。