隐马尔可夫模型中初始过渡概率的意义


11

在隐马尔可夫模型中为过渡概率指定某些初始值有什么好处?最终,系统将学习它们,那么赋予随机值以外的其他值又有什么意义呢?底层算法是否会像Baum-Welch这样有所作为?

如果我从一开始就非常准确地知道了转移概率,并且我的主要目的是预测从隐藏状态到观测值的输出概率,那么您对我有什么建议?

Answers:


7

Baum-Welch是用于计算最大似然估计量的优化算法。对于隐藏的马尔可夫模型,似然表面可能非常难看,并且肯定不是凹面的。有了良好的起点,算法可以收敛得更快,并朝着MLE方向发展。

如果您已经知道转换概率,并希望通过Viterbi算法预测隐藏状态,则需要转换概率。如果您已经知道它们,则无需使用Baum-Welch重新估计它们。重新估计在计算上比预测昂贵。


3

有关HMM初始估计的一些材料在

劳伦斯·R·拉比纳(Lawrence R.Rabiner)(1989年2月)。“有关隐马尔可夫模型和语音识别中所选应用程序的教程”。IEEE 77(2):257-286。doi:10.1109 / 5.18626(VC节)

您还可以查看Matlab / Octave概率建模工具包,尤其是hmmFitEm函数,您可以在其中提供自己的模型的初始参数或仅使用('nrandomRestarts'选项)。在使用“ nrandomRestarts”时,第一个模型(在初始化步骤)使用:

  • 通过MLE / MAP(使用EM)拟合高斯混合,以获取连续数据;
  • 通过MLE / MAP(使用EM)拟合离散分布的混合产品以获取离散数据;

第二个,第三个模型...(在初始化步骤中)使用随机初始化的参数,结果收敛速度较慢,且对数似然值较低。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.