什么是模型可识别性?


38

我知道,对于无法识别的模型,可以说是通过对模型参数进行多次不同的分配来生成数据的。我知道有时候可以约束参数,以便可以识别所有参数,例如Cassella&Berger第二版,第11.2节中的示例。

给定特定模型,我如何评估它是否可识别?

Answers:


45

为了可识别性,我们讨论的是参数(可以是向量),其范围为参数空间,以及由索引的分布族(为简单起见,请考虑PDF),我们通常写类似。例如,可以是而可以是θΘθ{fθ|θΘ}θθ=βf

fθ(x)=1βex/β, x>0, β>0,
这意味着。为了使模型可识别,将映射到的变换应该是一对一的。鉴于你的腿上一个模型,来检查这个最简单的方法是先从方程,(这种平等应该保持(几乎)所有的中(支持)),并尝试使用代数(或其他一些论点)来证明,这样的等式实际上意味着。Θ=(0,)θfθfθ1=fθ2xθ1=θ2

如果您成功执行了该计划,那么您的模型是可识别的。继续您的业务。如果没有,那么您的模型要么无法识别,要么需要找到另一个参数。直觉是相同的,无论如何:在可识别的模型中,两个不同的参数(可能是向量)不可能产生相同的似然函数。

这是有道理的,因为如果对于固定数据,两个唯一参数引起了相同的可能性,那么就不可能仅基于数据来区分两个候选参数。在这种情况下,将不可能确定真实参数。

对于上面的示例,等式是 对于(几乎)所有。如果我们记录双方的日志得到 for,这意味着线性函数 (几乎)等于零。做这种事情的唯一一条线是斜率为0,y轴截距为0的那条。希望您能看到其余的内容。fθ1=fθ2

1β1ex/β1=1β2ex/β2,
x>0
lnβ1xβ1=lnβ2xβ2
x>0
(1β11β2)x(lnβ1lnβ2)

顺便说一句,如果您通过查看模型可以看出它是不可识别的(有时可以),那么通常会对其引入其他约束以使其可识别(如您所述)。这类似于认识到在,函数与不是一对一的关系,但是如果我们限制,则它一对一的关系内部。在更复杂的模型中,方程式更为严格,但思想是相同的。f(y)=y2y[1,1]y[0,1]


2
(+1)详尽,详尽的解释。您得出的类比使概念更清晰。
主教

您当然回答了我提出的问题,但是我对于一个新手来说真的太了解了。如果您知道对初学者更好的解释,请告诉我。
杰克·坦纳

1
@cardinal,谢谢。对杰克,好吧,我明白了。怎么样:如果尚不清楚上面有什么,如果您向我指出,那么我可以尝试进一步充实。或者,如果您愿意,可以编写另一个问题,要求“外行”的解释或这些想法的示例。我认为可以公平地说,可识别性通常是典型的学习入门期之后提出的,因此,如果您想提供一些为什么现在遇到这种情况的背景信息,可能会对潜在的回答者有所帮助。

2
+1,不错的答案。值得指出的是一个经典且易于理解的无法识别模型的示例,它是ANOVA的不受约束版本: 为了解决这个问题,参考单元编码是通常使用,其中将一个级别的平均值设置为参考(由截距估算),而总平均值未明确估算。
yij=μ+α1+α2++αk+εi
gung-恢复莫妮卡

23

一种方法是检查参数估计值的协方差矩阵。如果两个参数估计彼此完全(近似)相关,或者一个参数估计是其他几个参数的(近似)线性组合,则无法识别您的模型;不需要作为其他函数的参数。在每种情况下,也将(近似)为单数。因此,如果近似为单数,这可能使您有理由担心可识别性问题。(尽管我不认为这会检测参数估计之间的非线性关系,从而引起不可识别性)。ΣΣΣ

实际的问题是,即使是轻度复杂的模型,通常也很难计算。Σ

如果您正在处理最大似然问题,则您知道估计的渐近协方差矩阵等于在MLE处评估的Fisher信息的逆。因此,检查Fisher信息矩阵的(近似)奇点也是评估可识别性的一种合理方法。这在难以计算理论渔民信息的情况下也适用,因为通常可以非常精确地在数值上近似渔民信息矩阵的一致估计量,例如,通过观察的平均外部乘积估算得分函数的预期外部乘积。

如果您没有遇到ML问题,则可以通过模拟来自模型的数据并大量估计参数并计算样本协方差矩阵来获得的句柄。Σ


2
(+1)做得好。我什至没有想到要从那个方向解决这个问题。

1
基于模拟数据计算协方差矩阵的想法特别整洁的原因之一是,无论如何都要对数据进行模拟以进行Cook-Gelman-Rubin检查。
杰克·坦纳
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.