Questions tagged «bayesian-networks»

1
(动态)贝叶斯网络和HMM有什么区别?
我已经读过HMM,粒子滤波器和卡尔曼滤波器是动态贝叶斯网络的特例。但是,我只知道HMM,看不到动态贝叶斯网络的区别。 有人可以解释一下吗? 如果您的答案可能类似于以下内容,那将是很好的选择,但对于Bayes Networks: 隐马尔可夫模型 隐马尔可夫模型(HMM)是5元组:λ = (S,O ,A ,B ,Π )λ=(S,O,A,B,Π)\lambda = (S, O, A, B, \Pi) :一组状态(例如“音素的开始”,“音素的中间”,“音素的结尾”)小号≠ ∅S≠∅S \neq \emptyset :一组可能的观察值(音频信号)O ≠ ∅O≠∅O \neq \emptyset :一个随机矩阵,给出概率(a i j)从状态 i到状态 j。A∈R|S|×|S|A∈R|S|×|S|A \in \mathbb{R}^{|S| \times |S|}(aij)(aij)(a_{ij})iiijjj :一个随机矩阵,给出概率(b k l)以使状态 k变为观测值 l。B∈R|S|×|O|B∈R|S|×|O|B \in \mathbb{R}^{|S| \times |O|}(bkl)(bkl)(b_{kl})kkklll :初始分发开始于一种状态。Π∈R|S|Π∈R|S|\Pi \in \mathbb{R}^{|S|} 它通常被显示为一个有向图,其中每个节点对应于一个状态和转变概率被表示在边缘上。s∈Ss∈Ss \in …

3
贝叶斯网络中边缘的方向不相关吗?
今天,在一次演讲中,有人声称贝叶斯网络中边缘的方向并不重要。他们不必代表因果关系。 很明显,您无法在贝叶斯网络中切换任何单个边缘。例如,令且V = { v 1,v 2,v 3 }和E = { (v 1,v 2),(v 1,v 3),(v 2,v 3)}。如果您要切换(vG=(V,E)G=(V,E)G = (V, E)V={v1,v2,v3}V={v1,v2,v3}V = \{v_1, v_2, v_3\}E={(v1,v2),(v1,v3),(v2,v3)}E={(v1,v2),(v1,v3),(v2,v3)}E=\{(v_1, v_2), (v_1, v_3), (v_2, v_3)\}至(v 3,v 1),则 G将不再是非循环的,因此不再是贝叶斯网络。那么,如何估计概率似乎主要是一个实际问题。这种情况似乎很难回答,因此我将跳过它。(v1,v3)(v1,v3)(v_1, v_3)(v3,v1)(v3,v1)(v_3, v_1)GGG 这使我提出以下问题,希望在这里获得解答: 有向无环图(DAG)是否有可能反转所有边并仍然具有DAG? 假设DAG 并给出了数据。现在我们构造逆DAG G inv。对于这两个DAG,我们将数据拟合到相应的贝叶斯网络。现在,我们要使用贝叶斯网络来预测缺少的属性的一组数据。两个DAG会有不同的结果吗?(如果您举了一个例子,请加分)GGGGvGvG_\text{inv} 与2相似,但更简单:假设DAG 并给出了数据。您可以通过反转任意一组边来创建新图G ',只要G '保持非循环即可。在预测方面,贝叶斯网络是否等效?GGGG′G′G'G′G′G' 如果我们有代表因果关系的边,我们会得到一些东西吗?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.