Questions tagged «probability»

概率提供了特定事件可能发生的定量描述。

3
为什么在贝叶斯定理中需要归一化因子?
贝叶斯定理变为 P(模型| 数据)= P(型号)× P(数据| 型号)P(数据)P(模型|数据)=P(模型)×P(数据|模型)P(数据) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} 一切都很好。但是,我在某处读过: 基本上,P(data)只是归一化常数,即使后验密度积分为一个常数的常数。 我们知道和。 0 ≤ P (数据| 模型)≤ 10 ≤ P(模型)≤ 10≤P(模型)≤1个0 \leq P(\textrm{model}) \leq 10 ≤ P(数据| 模型)≤ 10≤P(数据|模型)≤1个 0 \leq P(\textrm{data}|\textrm{model}) \leq 1 因此,必须介于0和1之间。在这种情况下,为什么我们需要归一化常数以使后验积分到一个?P(型号)× P(数据| 型号)P(模型)×P(数据|模型)P(\textrm{model}) \times P(\textrm{data}|\textrm{model})

4
“概率密度函数下面的总面积为1”-相对于什么?
从概念上讲,我理解短语“ PDF下的总面积为1”的含义。这应该意味着结果出现在可能性的总间隔中的机会是100%。 但我不能真正从“几何”的角度理解它。例如,如果在PDF中,x轴表示长度,那么如果x以毫米而不是公里来测量,曲线下方的总面积是否不会变大? 我总是尝试描绘如果函数展平为一条直线,曲线下方的区域将如何显示。对于任何PDF,该行的高度(在y轴上的位置)是否相同,或者它的值取决于定义该函数的x轴上的间隔?


3
代数的条件期望的直觉
让是一个概率空间,给定一个随机变量和 -代数我们可以构造一个新的随机变量,这是条件期望值。(Ω,F,μ)(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→Rξ:Ω→R\xi:\Omega \to \mathbb{R}σσ\sigmaG⊆FG⊆F\mathscr{G}\subseteq \mathscr{F}E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] 考虑的直觉到底是什么?我了解以下几点的直觉:E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] (i) 其中是一个事件(概率为正)。E[ξ|A]E[ξ|A]E[\xi|A]AAA (ii) 其中是离散随机变量。E[ξ|η]E[ξ|η]E[\xi|\eta]ηη\eta 但是我无法可视化。我了解它的数学原理,并且了解它的定义方式是概括我们可以看到的更简单的情况。但是,尽管如此,我认为这种思维方式没有用。它对我来说仍然是一个神秘的对象。E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] 例如,让为的事件。形成 -algebra,由生成。那么等于如果等于如果。换句话说,如果,而如果。AAAμ(A)>0μ(A)>0\mu(A)>0σσ\sigmaG={∅,A,Ac,Ω}G={∅,A,Ac,Ω}\mathscr{G} = \{ \emptyset, A, A^c, \Omega\}AAAE[ξ|G](ω)E[ξ|G](ω)E[\xi|\mathscr{G}](\omega)1μ(A)∫Aξ1μ(A)∫Aξ\frac{1}{\mu(A)} \int_A \xiω∈Aω∈A\omega \in A1μ(Ac)∫Acξ1μ(Ac)∫Acξ\frac{1}{\mu(A^c)} \int_{A^c} \xiω∉Aω∉A\omega \not \in AE[ξ|G](ω)=E[ξ|A]E[ξ|G](ω)=E[ξ|A]E[\xi|\mathscr{G}](\omega) = E[\xi|A]ω∈Aω∈A\omega\in AE[ξ|G](ω)=E[ξ|Ac]E[ξ|G](ω)=E[ξ|Ac]E[\xi|\mathscr{G}](\omega) = E[\xi|A^c]ω∈Acω∈Ac\omega \in A^c 令人困惑的部分是,所以为什么我们不只写?我们为什么要更换通过根据是否不,但不允许替换通过?è [ ξ | G ] (ω )= E [ ξ | Ω ] = …


3
如何判断女友是否可以说出未来(即预测股票)?
我的女朋友最近在一家大银行找到了从事销售和交易的工作。受她的新工作的鼓舞,她认为自己可以预测月底库存是上升还是下降大于机会(她相信甚至可以做到80%的准确性!) 我很怀疑。我们已经同意做一个实验,她将选择一些股票,并在预定的时间检查它们是上升还是下降。 我的问题是:为了拥有足够的统计能力自信地告诉她可以准确预测股票,她将不得不挑选几只股票,并且必须正确选择几只股票? 例如,她必须选择几只股票才能以95%的确定性告诉她以80%的准确性选择股票? 编辑:对于我们同意的实验,她不必预测库存将增加或减少多少,而只需预测它们将增加或减少即可。

5
当中心极限定理和大数定律不一致时
从本质上讲,这是我在math.se上发现的一个问题的复制,但没有得到我所希望的答案。 令为一系列独立的,均布的随机变量,其中和。{Xi}i∈N{Xi}i∈N\{ X_i \}_{i \in \mathbb{N}}E[Xi]=1E[Xi]=1\mathbb{E}[X_i] = 1V[Xi]=1V[Xi]=1\mathbb{V}[X_i] = 1 考虑对 limn→∞P(1n−−√∑i=1nXi≤n−−√)limn→∞P(1n∑i=1nXi≤n) \lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \sqrt{n}\right) 由于不平等事件的两面都趋于无穷大,因此必须对此表达式进行操作。 A)尝试减法 在考虑限制语句之前,请从两侧减去n−−√n\sqrt{n}: limn→∞P(1n−−√∑i=1nXi−n−−√≤n−−√−n−−√)=limn→∞P(1n−−√∑i=1n(Xi−1)≤0)=Φ(0)=12limn→∞P(1n∑i=1nXi−n≤n−n)=limn→∞P(1n∑i=1n(Xi−1)≤0)=Φ(0)=12\lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i -\sqrt{n} \leq \sqrt{n}-\sqrt{n} \right) = \lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n (X_i - 1) \leq 0\right) \\ = \Phi(0) = \frac{1}{2} CLT的最后一个等式,其中Φ()Φ()\Phi()是标准正态分布函数。 …

2
如何将贝叶斯定理应用于寻找海上迷路的渔夫
文章“不断更新的可能性”提到了一个长岛渔民的故事,他的生活完全归功于贝叶斯统计局。这是简短的版本: 午夜时分,船上有两名渔民。当一个人睡着时,另一个掉入大海。整个晚上,船将继续自动驾驶,直到第一个家伙最终醒来并通知海岸警卫队。海岸警卫队使用一款名为SAROPS(搜索和救援最佳计划系统)的软件来及时找到他,因为他的体温过低并且几乎没有精力维持生存。 这是长版:海中的斑点 我想了解更多有关贝叶斯定理在此处实际应用的信息。我通过谷歌搜索发现了很多有关SAROPS软件的信息。 SAROPS模拟器 模拟器组件考虑了及时的数据,例如洋流,风等,并模拟了数千种可能的漂移路径。根据这些漂移路径,创建概率分布图。 请注意,以下图形并不涉及我上面提到的失踪渔夫的情况,而是本演示文稿中的一个玩具示例。 概率图1(红色表示最高概率;蓝色表示最低概率) 请注意是起始位置的圆圈。 概率图2-过去了更多的时间 请注意,概率图已变为多峰。这是因为在此示例中,考虑了多个方案: 人在水上漂浮-中上模式 该人处于救生筏中(受北方风的影响更大)-底部2种模式(由于“吉宾效应”而分裂) 概率图3-搜索沿红色的矩形路径进行。 此图显示了计划者(SAROPS的另一个组件)产生的最佳路径。如您所见,模拟器已搜索了这些路径,并且概率图已更新。 您可能想知道为什么搜索的区域没有减少到零概率。这是因为考虑到的可能性,搜索者有可能忽略水中的那个人,这是一个不可忽略的机会。可以理解的是,一个独居的人的失败概率要比救生筏上的一个人(容易看到)要高得多,这就是为什么顶部区域的概率没有下降太多的原因。p(fail)p(fail)p(\text{fail}) 搜索失败的影响 这就是贝叶斯定理发挥作用的地方。进行搜索后,概率图将相应更新,因此可以最佳地计划另一个搜索。 在审查了维基百科上的贝叶斯定理并在BetterExplained.com上的文章贝叶斯定理的直观(简短)解释之后 我采用了贝叶斯方程: P(A∣X)=P(X∣A)×P(A)P(X)P(A∣X)=P(X∣A)×P(A)P(X) P(\text{A}\mid\text{X}) = \frac{P(\text{X}\mid\text{A}) \times P(\text{A})}{P(\text{X})} 并将A和X定义如下... 事件A:此人位于该区域(网格单元) 测试X:在该区域(网格单元)上搜索失败,即搜索了该区域并且没有看到任何内容 屈服 P(person there∣unsuccessful)=P(unsuccessful∣person there)×P(person there)P(unsuccessful)P(person there∣unsuccessful)=P(unsuccessful∣person there)×P(person there)P(unsuccessful) P(\text{person there}\mid\text{unsuccessful}) = \frac{P(\text{unsuccessful}\mid\text{person there}) \times P(\text{person there})}{P(\text{unsuccessful})} 我在搜索和救援最佳规划系统中发现,SAROPS 通过考虑搜索路径和模拟漂移路径来计算搜索失败的概率。因此,为简单起见,假设我们知道是什么。P(fail)P(fail)P(\text{fail})P(fail)P(fail)P(\text{fail}) 现在我们有了 P(person there∣unsuccessful)=P(fail)×P(person …

4
魔术金钱树问题
我想到淋浴时会遇到这个问题,这是受投资策略启发的。 假设有一棵神奇的金钱树。每天,您都可以向货币树提供一定数量的货币,它将使货币树增加三倍,或者以50/50的概率销毁它。您会立即注意到,这样做平均可以使您赚钱,并且渴望利用金钱树。但是,如果您一次提供所有资金,那么您将损失50%的资金。不能接受!您是一个非常规避风险的人,因此您决定提出一项策略。您想最大程度地减少失去所有东西的几率,但同时也想赚到尽可能多的钱!您提出以下建议:每天,您将20%的当前资本提供给金钱树。假设您可以提供的最低价格是1美分,那么如果您以10美元开始,则需要31连胜损失所有资金。更重要的是,您赚取的现金越多,失去一切所需的连败时间就越长,太棒了!您迅速开始赚取大量现金。但是,随后一个想法浮现在脑海:您每天只能出价30%,赚更多的钱!但是,等等,为什么不提供35%?50%?有一天,当您眼中有大笔美元符号时,您将拥有数以百万计的资金流向金钱树,并提供您现金的100%,金钱树很快就会消耗掉。第二天,您在麦当劳工作。金钱树立即燃烧。第二天,您在麦当劳工作。金钱树立即燃烧。第二天,您在麦当劳工作。 是否可以提供不浪费全部现金的最佳百分比? (子)问题: 如果您要提供一个最佳百分比,这是静态的(即每天20%)还是随着您的资本增加而增加? 通过每天提供20%的资金,损失所有金钱的几率会随着时间的流逝而减少还是增加?随着时间的流逝,失去所有钱的几率会增加一定百分比的钱吗?


2
如何根据先前事件的时间预测下一个事件何时发生?
我是一名高中生,并且正在从事计算机编程项目,但是我在高中统计课程之外的统计和数据建模方面没有很多经验,所以我有点困惑。 基本上,我有一个相当大的列表(假设它足够大,可以满足任何统计测试或度量的假设),而这个时间决定了某人决定打印文档。基于此列表,我想构建某种统计模型,该模型将在给定所有先前事件时间的情况下预测下一次打印作业的最可能时间。 我已经读过这篇文章,但是对于我在项目中的想法,回答并不能完全解决问题。我进行了一些额外的研究,发现“ 隐马尔可夫模型”可能可以使我准确地做到这一点,但是我无法找到有关如何仅使用时间列表来生成“隐马尔可夫模型”的链接。我还发现,在列表上使用卡尔曼过滤器可能有用,但从根本上讲,我想从实际使用过它们的人那里获得一些有关它的更多信息,然后才尝试尝试并希望它能起作用。 谢谢一群!


3
后验概率可以大于1吗?
用贝叶斯公式: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} 后验概率P(x|a)P(x|a)P(x|a)超过1? 我认为,例如,假设0&lt;P(a)&lt;10&lt;P(a)&lt;10 < P(a) < 1且P(a)&lt;P(x)&lt;1P(a)&lt;P(x)&lt;1P(a) < P(x) < 1且P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x) < P(a|x) < 1。但是我对此不确定,因为概率大于1意味着什么?

4
使用对数似然比与可能性的理论动机
我试图在更深层次上理解统计和概率论中对数似然性(也许更一般地说对数概率)的普遍性。对数概率随处可见:我们通常使用对数似然进行分析(例如,最大化),Fisher信息是根据对数似然的二阶导数定义的,熵是预期的对数概率,Kullback-Liebler散度涉及对数概率,预期差异是预期对数可能性,等等。 现在,我感谢许多实际和方便的原因。许多常见和有用的pdf都来自指数族,这在对数转换时会导致术语的简化。总和比产品更容易使用(尤其是用于区分)。对数概率比直概率有很大的浮点优势。对数转换pdf通常会将非凹函数转换为凹函数。但是对数概率的理论原因/合理性/动机是什么? 作为我困惑的一个示例,请考虑Fisher信息(FI)。理解FI的通常解释是对数似然率的二阶导数告诉我们对数似然率有多“峰值”:对数似然率高度峰值意味着MLE已得到很好的指定,我们相对确定其价值,尽管近似平坦的对数似然(低曲率)意味着许多不同的参数值(就对数似然而言)几乎与MLE一样好,所以我们的MLE更加不确定。 这一切都很好,但是仅仅找到似然函数本身的曲率(不进行对数转换)是否更自然?乍一看,对数转换的强调似乎是任意和错误的。当然,我们对实际似然函数的曲率更感兴趣。Fisher使用计分函数和对数似然的Hessian的动机是什么? 答案是否简单,最后,我们从对数似然渐近地得到了不错的结果?例如,Mram /后部的Cramer-Rao和正态性。还是有更深层次的原因?

1
第二矩法,布朗运动?
令BtBtB_t为标准的布朗运动。令Ej,nEj,nE_{j, n}表示事件{Bt=0 for some j−12n≤t≤j2n},{Bt=0 for some j−12n≤t≤j2n},\left\{B_t = 0 \text{ for some }{{j-1}\over{2^n}} \le t \le {j\over{2^n}}\right\},令其中表示指标函数。是否存在使得对于所有是否存在?我怀疑答案是肯定的。我尝试过弄乱第二时刻的方法,但没有太大用处。可以使用第二时刻方法显示吗?还是我应该尝试其他东西?Kn=∑j=2n+122n1Ej,n,Kn=∑j=2n+122n1Ej,n,K_n = \sum_{j = 2^n + 1}^{2^{2n}} 1_{E_{j,n}},111ρ&gt;0ρ&gt;0\rho > 0P{Kn≥ρ2n}≥ρP{Kn≥ρ2n}≥ρ\mathbb{P}\{K_n \ge \rho2^{n}\} \ge \rhonñn

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.