Questions tagged «bayes»

将概率与贝叶斯定理相结合,尤其是用于条件推断的情况。

12
谁是贝叶斯主义者?
随着人们对统计数据产生兴趣,二分法“ Frequentist”与“ Bayesian”很快就变得司空见惯了(谁还没有读过Nate Silver的《信号与噪声》?)。在讲座和入门课程中,观点绝大多数是常客(MLE,值),但往往只花很少的时间来欣赏贝叶斯公式并触及先验分布的想法,通常是切向的。ppp 讨论贝叶斯统计的语气在对概念基础的尊重与对崇高目标之间的鸿沟的怀疑以及暗示对先验分布的选择的任意性或最终使用频数数学之间摇摆不定。 诸如“如果您是贝叶斯人的核心...”之类的句子比比皆是。 问题是,今天的贝叶斯是谁?他们是某些精选的学术机构,您知道如果您去那里会成为贝叶斯主义者?如果是这样,他们是否受到特别追捧?我们仅指的是一些受人尊敬的统计学家和数学家,如果是的话,他们是谁? 它们甚至以纯正的“贝叶斯”形式存在吗?他们会愉快地接受标签吗?它总是一个讨人喜欢的区别吗?他们是在会议上有奇特幻灯片的数学家,没有任何值和置信区间,容易在小册子上发现吗?ppp “贝叶斯”成为一个利基市场?我们是指少数统计学家吗? 还是当前的贝叶斯主义等于机器学习应用程序? ...或者甚至更有可能是,贝叶斯统计不是仅仅是统计的一个分支,而是一种超越了概率计算范围而成为科学哲学的认识论运动吗?在这方面,所有科学家都将是贝叶斯的内心……但是就不会有纯粹的贝叶斯统计学家无法渗透到频繁主义者的技术(或矛盾)中。

3
R:尽管数据集中没有NaN,随机森林仍在“外部函数调用”错误中抛出NaN / Inf [关闭]
我正在使用插入符号在数据集上运行交叉验证的随机森林。Y变量是一个因素。我的数据集中没有NaN,Inf或NA。但是,当运行随机森林时,我得到 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see them) Warning messages: 1: In data.matrix(x) : NAs introduced by coercion 2: In data.matrix(x) : NAs introduced by coercion 3: In data.matrix(x) : NAs introduced by …

3
为什么在贝叶斯定理中需要归一化因子?
贝叶斯定理变为 P(模型| 数据)= P(型号)× P(数据| 型号)P(数据)P(模型|数据)=P(模型)×P(数据|模型)P(数据) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} 一切都很好。但是,我在某处读过: 基本上,P(data)只是归一化常数,即使后验密度积分为一个常数的常数。 我们知道和。 0 ≤ P (数据| 模型)≤ 10 ≤ P(模型)≤ 10≤P(模型)≤1个0 \leq P(\textrm{model}) \leq 10 ≤ P(数据| 模型)≤ 10≤P(数据|模型)≤1个 0 \leq P(\textrm{data}|\textrm{model}) \leq 1 因此,必须介于0和1之间。在这种情况下,为什么我们需要归一化常数以使后验积分到一个?P(型号)× P(数据| 型号)P(模型)×P(数据|模型)P(\textrm{model}) \times P(\textrm{data}|\textrm{model})

2
如何将贝叶斯定理应用于寻找海上迷路的渔夫
文章“不断更新的可能性”提到了一个长岛渔民的故事,他的生活完全归功于贝叶斯统计局。这是简短的版本: 午夜时分,船上有两名渔民。当一个人睡着时,另一个掉入大海。整个晚上,船将继续自动驾驶,直到第一个家伙最终醒来并通知海岸警卫队。海岸警卫队使用一款名为SAROPS(搜索和救援最佳计划系统)的软件来及时找到他,因为他的体温过低并且几乎没有精力维持生存。 这是长版:海中的斑点 我想了解更多有关贝叶斯定理在此处实际应用的信息。我通过谷歌搜索发现了很多有关SAROPS软件的信息。 SAROPS模拟器 模拟器组件考虑了及时的数据,例如洋流,风等,并模拟了数千种可能的漂移路径。根据这些漂移路径,创建概率分布图。 请注意,以下图形并不涉及我上面提到的失踪渔夫的情况,而是本演示文稿中的一个玩具示例。 概率图1(红色表示最高概率;蓝色表示最低概率) 请注意是起始位置的圆圈。 概率图2-过去了更多的时间 请注意,概率图已变为多峰。这是因为在此示例中,考虑了多个方案: 人在水上漂浮-中上模式 该人处于救生筏中(受北方风的影响更大)-底部2种模式(由于“吉宾效应”而分裂) 概率图3-搜索沿红色的矩形路径进行。 此图显示了计划者(SAROPS的另一个组件)产生的最佳路径。如您所见,模拟器已搜索了这些路径,并且概率图已更新。 您可能想知道为什么搜索的区域没有减少到零概率。这是因为考虑到的可能性,搜索者有可能忽略水中的那个人,这是一个不可忽略的机会。可以理解的是,一个独居的人的失败概率要比救生筏上的一个人(容易看到)要高得多,这就是为什么顶部区域的概率没有下降太多的原因。p(fail)p(fail)p(\text{fail}) 搜索失败的影响 这就是贝叶斯定理发挥作用的地方。进行搜索后,概率图将相应更新,因此可以最佳地计划另一个搜索。 在审查了维基百科上的贝叶斯定理并在BetterExplained.com上的文章贝叶斯定理的直观(简短)解释之后 我采用了贝叶斯方程: P(A∣X)=P(X∣A)×P(A)P(X)P(A∣X)=P(X∣A)×P(A)P(X) P(\text{A}\mid\text{X}) = \frac{P(\text{X}\mid\text{A}) \times P(\text{A})}{P(\text{X})} 并将A和X定义如下... 事件A:此人位于该区域(网格单元) 测试X:在该区域(网格单元)上搜索失败,即搜索了该区域并且没有看到任何内容 屈服 P(person there∣unsuccessful)=P(unsuccessful∣person there)×P(person there)P(unsuccessful)P(person there∣unsuccessful)=P(unsuccessful∣person there)×P(person there)P(unsuccessful) P(\text{person there}\mid\text{unsuccessful}) = \frac{P(\text{unsuccessful}\mid\text{person there}) \times P(\text{person there})}{P(\text{unsuccessful})} 我在搜索和救援最佳规划系统中发现,SAROPS 通过考虑搜索路径和模拟漂移路径来计算搜索失败的概率。因此,为简单起见,假设我们知道是什么。P(fail)P(fail)P(\text{fail})P(fail)P(fail)P(\text{fail}) 现在我们有了 P(person there∣unsuccessful)=P(fail)×P(person …

7
您想做什么来记住贝叶斯的规则?
我认为记住公式的一种好方法是考虑这样的公式: 给定独立事件B的结果,某些事件A具有特定结果的概率=两个结果同时发生的概率/无论我们说事件A期望结果的概率是如果我们不知道事件B的结果。 例如,考虑一个疾病测试:如果我们有一个患者的疾病测试呈阳性,并且我们知道:40%的疾病患者在我们的测试中呈阳性;60%的人患有这种疾病;共有26%的人对该病呈阳性反应;然后得出: 1)在我们抽样的所有人中,有24%的人呈阳性并患有疾病,这意味着在26名呈阳性的人中有24人患有该疾病;因此,2)该特定患者患病的可能性为92.3%。
15 bayesian  bayes 

1
多重条件的贝叶斯定理
我不明白这个方程式是如何得出的。 P(我| 中号1个∩ 中号2)≤ P(我)P(我′)⋅ P(M1个| 一世)P(M2| 一世)P(M1个| 一世′)P(M2| 一世′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} 该方程式来自“概率试验”,其中以OJ Simpson的情况为例。被告正在接受双重谋杀的审判,并提出了两项​​针对他的证据。 中号1个M1M_{1}是被告的血液与犯罪现场发现的一滴血相匹配的事件。是受害者的血液与属于被告的袜子上的血液相匹配的事件。假设有罪,一个证据的出现增加了另一个证据的可能性。 是事件被告是无辜的,而是当他是有罪的。我I '中号2M2M_{2}一世II一世′I′I' 根据这两个证据,我们正在尝试确定被告无罪的可能性的上限。 给出了一些变量的值,但我感兴趣的是方程的推导方式。我尝试了,但是一无所获。 是的,我已经检查了“可能已经有了答案的问题”。


2
为什么托马斯·贝叶斯(Thomas Bayes)觉得贝叶斯定理如此具有挑战性?
这更多是关于科学史的问题,但我希望这里成为话题。 我读到托马斯·贝叶斯(Thomas Bayes)仅设法发现了统一先验的特殊情况下的贝叶斯定理,即使如此,他显然仍在努力。 考虑到一般贝叶斯定理在现代处理中是多么琐碎,为什么它对当时的贝叶斯和其他数学家提出了挑战?为了进行比较,艾萨克·牛顿的《自然哲学的数学原理》在贝叶斯的主要作品出版36年后出版。


2
什么是“单位信息优先权”?
我一直在阅读Wagenmakers(2007)一种解决普遍存在的p值问题的实用方法。我对将BIC值转换为贝叶斯因子和概率很感兴趣。但是,到目前为止,我对单元信息先验到底是什么还不太了解。我将不胜感激,对图片或此图片的R代码进行解释。

5
贝叶斯定理的解释适用于乳腺X线摄影阳性结果
我正在尝试将贝叶斯定理的结果应用于经典的乳房X射线照片示例,而乳房X射线照片的扭曲是完美的。 那是, 癌症发生率:.01.01.01 假设患者患有癌症,则乳房X光检查阳性的可能性:1个1个1 假设患者未患癌症,乳房X光检查呈阳性的可能性:.01.01.01 贝叶斯: P(癌症|乳房X线照片+)= 1个 ⋅ 0.01(1 ⋅ 0.01 )+ (0.091 ⋅ 0.99 )1个⋅.01(1个⋅.01)+(.091⋅.99)\dfrac {1 \cdot .01}{(1 \cdot .01) + (.091 \cdot .99)} = .5025=.5025 = .5025 因此,如果人口中有一个随机的人进行乳房X光检查并获得阳性结果,那么他们有50%的机会患上癌症吗?我无法直觉地理解在1%的人口中只有1%的假阳性几率会触发50%的结果。从逻辑上讲,我认为具有很小的假阳性率的完全正确的乳房X线照片会更加准确。

1
概率和模糊逻辑有什么区别?
我从事模糊逻辑(FL)已有多年,我知道FL与概率之间存在差异,特别是在FL处理不确定性方面。但是,我想问问FL和概率之间还有什么区别? 换句话说,如果我处理概率(融合信息,汇总知识),我可以对FL做同样的事情吗?
10 bayes  fuzzy 

1
更新贝叶斯因子
在贝叶斯假设检验和贝叶斯模型选择中,贝叶斯因子是通过两个边际可能性的比率来定义的:给定iid样本以及各自的采样密度和,具有相应的先验和,用于比较两个模型的贝叶斯因子为 一书,我目前正在审查有奇怪的声明,上面的贝叶斯因子(x1,…,xn)(x1,…,xn)(x_1,\ldots,x_n)f1(x|θ)f1(x|θ)f_1(x|\theta)f2(x|η)f2(x|η)f_2(x|\eta)π1π1\pi_1π2π2\pi_2B12(x1,…,xn)=defm1(x1,…,xn)m2(x1,…,xn)=def∫∏ni=1f1(xi|θ)π1(dθ)∫∏ni=1f2(xi|η)π2(dη)B12(x1,…,xn)=defm1(x1,…,xn)m2(x1,…,xn)=def∫∏i=1nf1(xi|θ)π1(dθ)∫∏i=1nf2(xi|η)π2(dη)\mathfrak{B}_{12}(x_1,\ldots,x_n)\stackrel{\text{def}}{=}\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}\stackrel{\text{def}}{=}\frac{\int \prod_{i=1}^n f_1(x_i|\theta)\pi_1(\text{d}\theta)}{\int \prod_{i=1}^n f_2(x_i|\eta)\pi_2(\text{d}\eta)}B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)是“通过将各个[贝叶斯因子]相乘而形成的”(第118页)。如果使用分解 但我看不到此分解的计算优势,因为需要与的原始计算相同的计算量B12(x1,…,xn)=m1(x1,…,xn)m2(x1,…,xn)=m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)×m1(xn−1|xn−2,…,x1)m2(xn−1|xn−2,…,x1)×⋯⋯×m1(x1)m2(x1)B12(x1,…,xn)=m1(x1,…,xn)m2(x1,…,xn)=m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)×m1(xn−1|xn−2,…,x1)m2(xn−1|xn−2,…,x1)×⋯⋯×m1(x1)m2(x1)\begin{align*}\mathfrak{B}_{12}(x_1,\ldots,x_n)&=\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}\\&=\frac{m_1(x_n|x_1,\ldots,x_{n-1})}{m_2(x_n|x_1,\ldots,x_{n-1})}\times \frac{m_1(x_{n-1}|x_{n-2},\ldots,x_1)}{m_2(x_{n-1}|x_{n-2},\ldots,x_1)}\times\cdots\\&\qquad\cdots\times\frac{m_1(x_1)}{m_2(x_1)}\end{align*}m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)\frac{m_1(x_n|x_1,\ldots,x_{n-1})}{m_2(x_n|x_1,\ldots,x_{n-1})}m1(x1,…,xn)m2(x1,…,xn)m1(x1,…,xn)m2(x1,…,xn)\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}外面的人造玩具的例子。 问题:是否存在将Bayes因子从B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)为 B12(x1,…,xn+1)B12(x1,…,xn+1)\mathfrak{B}_{12}(x_1,\ldots,x_{n+1})的通用且计算有效的方法{n + 1})不需要重新计算整个边际m1(x1,…,xn)m1(x1,…,xn)m_1(x_1,\ldots,x_n)和 m2(x1,…,xn)m2(x1,…,xn)m_2(x_1,\ldots,x_n)? 我的直觉是,除了粒子滤波器实际上确实是在估计贝叶斯因子B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)中进行一次,没有一个自然的方法可以回答这个问题。

1
当L2是用于计算后验损失的良好损失函数时,将是一个例子?
L2损失以及L0和L1损失,是在通过最小后验预期损失进行后验总结时非常常用的三个“默认”损失函数。原因之一可能是它们相对容易计算(至少对于1d分布),L0导致众数,L1导致中位数,L2导致均值。在教学时,我可以提出L0和L1是合理的损失函数(而不仅仅是“默认”)的情况,但是我正在努力解决L2是合理的损失函数的情况。所以我的问题是: 出于教学目的,当L2是用于计算最小后验损失的良好损失函数时,将是一个示例吗? 对于L0,很容易想到下注的情况。假设您已经计算出了即将到来的足球比赛的进球总数的后验,并且如果您正确地猜到了进球数而输了,那么您将下注赢钱。那么L0是一个合理的损失函数。 我的L1示例有些人为。您正在遇见一个朋友,该朋友将到达许多机场之一,然后乘汽车旅行给您,问题是您不知道哪个机场(并且因为她在空中,所以无法给您的朋友打电话)。考虑到她可能进入哪个机场的后部,在哪里放置自己的好地方,以便当她到达时她和你之间的距离变小?在这里,如果简化假设她的汽车将以恒定的速度直接行驶到您的位置,那么使预期的L1损失最小化的观点似乎是合理的。也就是说,一小时的等待是30分钟等待的两倍。

3
为什么贝叶斯定理以图形方式工作?
从数学的角度来看,贝叶斯定理对我来说是完全有意义的(即推导和证明),但是我不知道是否有一个很好的几何或图形论证可以用来解释贝叶斯定理。我尝试了Googling以获得答案,但令人惊讶的是我找不到任何东西。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.