15 Pr(data)Pr(data) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data) 被称为归一化常数。到底是什么 目的是什么?为什么看起来像Pr(data)Pr(data)?为什么不取决于参数? probability bayesian — 业余 source 4 当您集成,您正在对参数进行积分,因此结果没有项取决于参数,就像\ int_ {x = 0} ^ {x = 2} xy \; dx = 2y不依赖于x。∫ X = 2 X = 0 X ÿf(data|params)f(params)f(data|params)f(params)x∫x=2x=0xydx=2y∫x=0x=2xydx=2yxx — 亨利
16 分母是通过从连接概率积分参数而获得的。这是数据的边际概率,当然,它不取决于参数,因为这些参数已被集成。Pr (数据,参数)Pr(data)Pr(data)Pr(data,parameters)Pr(data,parameters) 现在,由于: Pr(data)Pr(data)不依赖于要进行推断的参数; Pr(data)Pr(data)通常很难以封闭形式计算; 人们经常使用以下Baye公式的改编: Pr(parameters∣data)∝Pr(data∣parameters)Pr(parameters)Pr(parameters∣data)∝Pr(data∣parameters)Pr(parameters) 基本上,只是“归一化常数”,即使后验密度积分为1的常数。Pr(data)Pr(data) — 奥克拉姆 source 2 “通过整合参数” 到底是什么意思?在这种情况下,“整合”的确切含义是什么? — nbro 2 @nbro:我的意思是Pr(data)= Pr(data,parameters)的参数的积分 — ocram