11 在隐马尔可夫模型中为过渡概率指定某些初始值有什么好处?最终,系统将学习它们,那么赋予随机值以外的其他值又有什么意义呢?底层算法是否会像Baum-Welch这样有所作为? 如果我从一开始就非常准确地知道了转移概率,并且我的主要目的是预测从隐藏状态到观测值的输出概率,那么您对我有什么建议? machine-learning expectation-maximization hidden-markov-model — 梅多斯 source
7 Baum-Welch是用于计算最大似然估计量的优化算法。对于隐藏的马尔可夫模型,似然表面可能非常难看,并且肯定不是凹面的。有了良好的起点,算法可以收敛得更快,并朝着MLE方向发展。 如果您已经知道转换概率,并希望通过Viterbi算法预测隐藏状态,则需要转换概率。如果您已经知道它们,则无需使用Baum-Welch重新估计它们。重新估计在计算上比预测昂贵。 — NRH source
3 有关HMM初始估计的一些材料在 劳伦斯·R·拉比纳(Lawrence R.Rabiner)(1989年2月)。“有关隐马尔可夫模型和语音识别中所选应用程序的教程”。IEEE 77(2):257-286。doi:10.1109 / 5.18626(VC节) 您还可以查看Matlab / Octave的概率建模工具包,尤其是hmmFitEm函数,您可以在其中提供自己的模型的初始参数或仅使用('nrandomRestarts'选项)。在使用“ nrandomRestarts”时,第一个模型(在初始化步骤)使用: 通过MLE / MAP(使用EM)拟合高斯混合,以获取连续数据; 通过MLE / MAP(使用EM)拟合离散分布的混合产品以获取离散数据; 第二个,第三个模型...(在初始化步骤中)使用随机初始化的参数,结果收敛速度较慢,且对数似然值较低。 — 谢尔盖 source