Answers:
为了可识别性,我们讨论的是参数(可以是向量),其范围为参数空间,以及由索引的分布族(为简单起见,请考虑PDF),我们通常写类似。例如,可以是而可以是
如果您成功执行了该计划,那么您的模型是可识别的。继续您的业务。如果没有,那么您的模型要么无法识别,要么需要找到另一个参数。直觉是相同的,无论如何:在可识别的模型中,两个不同的参数(可能是向量)不可能产生相同的似然函数。
这是有道理的,因为如果对于固定数据,两个唯一参数引起了相同的可能性,那么就不可能仅基于数据来区分两个候选参数。在这种情况下,将不可能确定真实参数。
对于上面的示例,等式是 对于(几乎)所有。如果我们记录双方的日志得到 for,这意味着线性函数 (几乎)等于零。做这种事情的唯一一条线是斜率为0,y轴截距为0的那条。希望您能看到其余的内容。
顺便说一句,如果您通过查看模型可以看出它是不可识别的(有时可以),那么通常会对其引入其他约束以使其可识别(如您所述)。这类似于认识到在,函数与不是一对一的关系,但是如果我们限制,则它是一对一的关系内部。在更复杂的模型中,方程式更为严格,但思想是相同的。
一种方法是检查参数估计值的协方差矩阵。如果两个参数估计彼此完全(近似)相关,或者一个参数估计是其他几个参数的(近似)线性组合,则无法识别您的模型;不需要作为其他函数的参数。在每种情况下,也将(近似)为单数。因此,如果近似为单数,这可能使您有理由担心可识别性问题。(尽管我不认为这会检测参数估计之间的非线性关系,从而引起不可识别性)。
实际的问题是,即使是轻度复杂的模型,通常也很难计算。
如果您正在处理最大似然问题,则您知道估计的渐近协方差矩阵等于在MLE处评估的Fisher信息的逆。因此,检查Fisher信息矩阵的(近似)奇点也是评估可识别性的一种合理方法。这在难以计算理论渔民信息的情况下也适用,因为通常可以非常精确地在数值上近似渔民信息矩阵的一致估计量,例如,通过观察的平均外部乘积估算得分函数的预期外部乘积。
如果您没有遇到ML问题,则可以通过模拟来自模型的数据并大量估计参数并计算样本协方差矩阵来获得的句柄。