Answers:
似然函数定义为事件(数据集)作为模型参数θ的函数的概率
因此,没有假设观察的独立性。在经典方法中,没有定义参数的独立性,因为它们不是随机变量。一些相关的概念可能是可识别性,参数正交性和最大似然估计器的独立性(它们是随机变量)。
一些例子,
(1)。离散案例。是(独立的)离散的观察与样品P(观察 X Ĵ ; θ )> 0,则
特别是,如果,具有Ñ已知的,我们有
(2)。连续逼近。让是由连续的随机变量的样本X,与分配˚F和密度˚F,具有测量误差ε,这是,你观察集(X Ĵ - ε ,X j + ϵ )。然后
当小时,可以通过以下方式近似(使用均值定理)
对于与正常情况下的例子,来看看这个。
(3)。相依和马尔可夫模型。假设是一组可能的依赖性和让观测˚F是联合密度X,然后
如果另外满足Markov属性,则
也看看这个。
(+1)很好的问题。
次要方面,MLE表示最大似然估计(不是倍数),这意味着您只是使似然最大化。这并不表示必须通过IID采样来产生可能性。
如果可以在统计模型中写出抽样的依存关系,则只需相应地写出可能性,然后像往常一样将其最大化。
当您不假设依赖关系时,值得一提的是多元高斯抽样(例如在时间序列分析中)。两个高斯变量之间的依存关系可以通过它们的协方差项来建模,您可以在概率上不相称。
举一个简单的例子,假设您从均值和方差相同的相关高斯变量中提取了大小为的样本。您将可能性写为
其中是
This is not the product of the individual likelihoods. Still, you would maximize this with parameters to get their MLE.
Of course, Gaussian ARMA models possess a likelihood, as their covariance function can be derived explicitly. This is basically an extension of gui11ame's answer to more than 2 observations. Minimal googling produces papers like this one where the likelihood is given in the general form.
Another, to an extent, more intriguing, class of examples is given by multilevel random effect models. If you have data of the form