Answers:
问题是合法的,当我第一次学习EM算法时,我也感到困惑。
概括而言,EM算法定义了一个迭代过程,该过程允许在模型的某些变量(或被视为)“潜在”或未知的情况下最大化参数模型的似然函数。
从理论上讲,出于相同的目的,您可以使用最小化算法从数值上找到所有参数的似然函数的最大值。但是,在实际情况下,此最小化应为:
EM方法的一个非常普遍的应用是拟合混合模型。在这种情况下,将将每个样本分配给组件之一的变量视为“潜在”变量,可以大大简化问题。
让我们来看一个例子。我们从2个正态分布的混合中提取了N个样本。要查找没有EM的参数,我们应该最小化:
相反,使用EM算法,我们首先将每个样本“分配”给一个组件(E步),然后分别拟合(或最大化每个组件的可能性)(M步)。在此示例中,M步只是找到和的加权均值。迭代这两个步骤是最小化的更简单,更可靠的方法。σ ķ - 日志大号(X ,θ )
不需要EM而不是使用某种数值技术,因为EM也是一种数值方法。因此,它不能替代牛顿-拉夫森。当数据矩阵中缺少值时,EM适用于特定情况。考虑具有条件密度的样本。那么它的对数似然为 现在假设您没有一个完整的数据集,使得由观察到的数据组成和缺失的(或潜在的)变量,使得。然后,观察数据的对数似然为 ˚F X | Θ(x | θ )l (θ ; X )= l o g f X | Θ(X | θ )X Ý (我))= È θ (我) [ 升(θ ; X | ÿ
如果您需要有关该方法,其属性,证明或应用程序的更多信息,请仅查看相应的Wiki文章。