在这个受欢迎的问题中,高评价的答案使MLE和Baum Welch在HMM拟合中分开。
对于训练问题,我们可以使用以下3种算法:MLE(最大似然估计),Viterbi训练(不要与Viterbi解码混淆),Baum Welch =前向后向算法
但在维基百科中,它说
Baum-Welch算法使用众所周知的EM算法来找到参数的最大似然估计
那么,MLE和Baum-Welch算法之间是什么关系?
我的尝试:Baum-Welch算法的目标是使可能性最大化,但它使用专用算法(EM)来解决优化问题。我们仍然可以通过使用其他方法(例如,梯度体面)来最大程度地提高似然度。这就是为什么答案将两个算法分开的原因。
我是对的,谁能帮我澄清一下?