Questions tagged «conditional-probability»

当已知另一个事件B发生或已经发生时,事件A发生的概率。通常用P(A | B)表示。

4
边缘情况下精度和召回率的正确值是多少?
精度定义为: p = true positives / (true positives + false positives) 对不对,作为true positives和false positives做法0,精度接近1? 召回相同的问题: r = true positives / (true positives + false negatives) 我目前正在实施统计测试,需要计算这些值,有时分母为0,我想知道在这种情况下应返回哪个值。 PS:请原谅,不恰当的标签,我想用recall,precision和limit,但我不能创造新的标签呢。
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
为什么在贝叶斯定理中需要归一化因子?
贝叶斯定理变为 P(模型| 数据)= P(型号)× P(数据| 型号)P(数据)P(模型|数据)=P(模型)×P(数据|模型)P(数据) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} 一切都很好。但是,我在某处读过: 基本上,P(data)只是归一化常数,即使后验密度积分为一个常数的常数。 我们知道和。 0 ≤ P (数据| 模型)≤ 10 ≤ P(模型)≤ 10≤P(模型)≤1个0 \leq P(\textrm{model}) \leq 10 ≤ P(数据| 模型)≤ 10≤P(数据|模型)≤1个 0 \leq P(\textrm{data}|\textrm{model}) \leq 1 因此,必须介于0和1之间。在这种情况下,为什么我们需要归一化常数以使后验积分到一个?P(型号)× P(数据| 型号)P(模型)×P(数据|模型)P(\textrm{model}) \times P(\textrm{data}|\textrm{model})

3
代数的条件期望的直觉
让是一个概率空间,给定一个随机变量和 -代数我们可以构造一个新的随机变量,这是条件期望值。(Ω,F,μ)(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→Rξ:Ω→R\xi:\Omega \to \mathbb{R}σσ\sigmaG⊆FG⊆F\mathscr{G}\subseteq \mathscr{F}E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] 考虑的直觉到底是什么?我了解以下几点的直觉:E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] (i) 其中是一个事件(概率为正)。E[ξ|A]E[ξ|A]E[\xi|A]AAA (ii) 其中是离散随机变量。E[ξ|η]E[ξ|η]E[\xi|\eta]ηη\eta 但是我无法可视化。我了解它的数学原理,并且了解它的定义方式是概括我们可以看到的更简单的情况。但是,尽管如此,我认为这种思维方式没有用。它对我来说仍然是一个神秘的对象。E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] 例如,让为的事件。形成 -algebra,由生成。那么等于如果等于如果。换句话说,如果,而如果。AAAμ(A)>0μ(A)>0\mu(A)>0σσ\sigmaG={∅,A,Ac,Ω}G={∅,A,Ac,Ω}\mathscr{G} = \{ \emptyset, A, A^c, \Omega\}AAAE[ξ|G](ω)E[ξ|G](ω)E[\xi|\mathscr{G}](\omega)1μ(A)∫Aξ1μ(A)∫Aξ\frac{1}{\mu(A)} \int_A \xiω∈Aω∈A\omega \in A1μ(Ac)∫Acξ1μ(Ac)∫Acξ\frac{1}{\mu(A^c)} \int_{A^c} \xiω∉Aω∉A\omega \not \in AE[ξ|G](ω)=E[ξ|A]E[ξ|G](ω)=E[ξ|A]E[\xi|\mathscr{G}](\omega) = E[\xi|A]ω∈Aω∈A\omega\in AE[ξ|G](ω)=E[ξ|Ac]E[ξ|G](ω)=E[ξ|Ac]E[\xi|\mathscr{G}](\omega) = E[\xi|A^c]ω∈Acω∈Ac\omega \in A^c 令人困惑的部分是,所以为什么我们不只写?我们为什么要更换通过根据是否不,但不允许替换通过?è [ ξ | G ] (ω )= E [ ξ | Ω ] = …

4
有条件期望证明作为最佳预测因子的问题
我的证明有问题 E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] 这很可能表明人们对期望和有条件的期望有更深的误解。 我知道的证明如下(此证明的另一个版本可以在这里找到) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y - E(Y|X) + E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E \Big[ \big(Y - E(Y|X)\big)^2 + 2 \big(Y - E(Y|X)\big) \big(E(Y|X) - g(X)\big) + \big(E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E …

3
如何计算多个事件的条件概率?
您能告诉我,如何计算几个事件的条件概率? 例如: P(A | B,C,D)-? 我知道: P(A | B)= P(A B)/ P(B)∩∩\cap 但是,不幸的是,如果事件A依赖于多个变量,则找不到任何公式。提前致谢。

3
后验概率可以大于1吗?
用贝叶斯公式: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} 后验概率P(x|a)P(x|a)P(x|a)超过1? 我认为,例如,假设0&lt;P(a)&lt;10&lt;P(a)&lt;10 < P(a) < 1且P(a)&lt;P(x)&lt;1P(a)&lt;P(x)&lt;1P(a) < P(x) < 1且P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x) < P(a|x) < 1。但是我对此不确定,因为概率大于1意味着什么?

1
用给定的MLE模拟随机样本
这个交叉验证问题要求模拟一个以固定金额为条件的样本,使我想起了乔治•卡塞拉(George Casella)提出的一个问题。 f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)对于一个给定的值,有以模拟IID样品一个通用的方法上的MLE的值有条件?θθ\thetaθ(X 1,... ,X Ñ)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) 例如,采用分布,位置参数为,密度为如果我们如何以条件来模拟?在此示例中,没有封闭形式的表达式。T5T5\mathfrak{T}_5μμ\muf(x|μ)=Γ(3)Γ(1/2)Γ(5/2)[1+(x−μ)2/5]−3f(x|μ)=Γ(3)Γ(1/2)Γ(5/2)[1+(x−μ)2/5]−3f(x|\mu)=\dfrac{\Gamma(3)}{\Gamma(1/2)\Gamma(5/2)}\,\left[1+(x-\mu)^2/5\right]^{-3}(X1,…,Xn)∼iidf(x|μ)(X1,…,Xn)∼iidf(x|μ)(X_1,\ldots,X_n)\stackrel{\text{iid}}{\sim} f(x|\mu)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)μ^(X1,…,Xn)=μ0μ^(X1,…,Xn)=μ0\hat{\mu}(X_1,\ldots,X_n)=\mu_0T5T5\mathfrak{T}_5μ^(X1,…,Xn)μ^(X1,…,Xn)\hat{\mu}(X_1,\ldots,X_n)

1
我应该在精神上如何应对Borel的悖论?
对于在心理上如何处理Borel悖论和其他与条件概率有关的“悖论”,我感到不安。对于那些不熟悉它的人,请参阅此链接。到目前为止,我的精神反应主要是忽略它,因为似乎没有人谈论它,但是我觉得我应该纠正这一点。 我们知道这个悖论是存在的,但实际上在实践中(作为贝叶斯分析的一个极端例子),对于条件为事件,我们是完全可以的。如果是我的数据,我们条件对所有的时间,即使这是衡量一个事件时是连续的。而且,我们当然不花力气构造一系列事件,收敛到我们观察到的解决矛盾的事件,至少没有明确地。X X = x 0 X000XXXX=xX=xX = x000XXX 我认为这是可以的,因为在实验之前我们已经固定了随机变量(原则上),因此我们以为条件。也就是说,是自然的代数,因为信息将通过来使用-如果信息以其他方式传给我们,我们将以不同的 -代数。Borel的悖论之所以出现是因为(我猜)要适应的代数尚不清楚,但是贝叶斯方法已指定。因为我们指定的是先验信息σ (X )σ (X )σ X = X X σ σ σ (X )X = XXXXσ(X)σ(X)\sigma(X)σ(X)σ(X)\sigma(X)σσ\sigmaX=xX=xX = xXXXσσ\sigmaσσ\sigmaσ(X)σ(X)\sigma(X)X=xX=xX = x是通过测量XXX得出的。一旦指定了代数,一切都会好起来;我们使用Radon-Nikodym构造我们的条件期望,并且所有事物都是唯一的直至空集。σσ\sigma 这本质上是正确的,还是我离开了?如果我的路要走,什么是对行为,因为我们做的理由?[考虑到该站点的问与答性质,将其视为我的问题。]当我采用测度理论概率时,由于某种我不了解的原因,我们甚至从未触及过有条件的期望。结果,我担心我的想法很混乱。

1
对两个正态分布随机变量之和的贡献的直观解释
如果我有两个正态分布的独立随机变量和,均值和,标准差为和并且发现,则条件分布(假设我没有犯任何错误)给定的和正态分布也以均值 和标准差 XXXYYYμXμX\mu_XμYμY\mu_YσXσX\sigma_XσYσY\sigma_YX+Y=cX+Y=cX+Y=cXXXYYYcccμX|c=μX+(c−μX−μY)σ2Xσ2X+σ2YμX|c=μX+(c−μX−μY)σX2σX2+σY2\mu_{X|c} = \mu_X + (c - \mu_X - \mu_Y)\frac{ \sigma_X^2}{\sigma_X^2+\sigma_Y^2} σX| Ç=σÿ| c=√μY|c=μY+(c−μX−μY)σ2Yσ2X+σ2YμY|c=μY+(c−μX−μY)σY2σX2+σY2\mu_{Y|c} = \mu_Y + (c - \mu_X - \mu_Y)\frac{ \sigma_Y^2}{\sigma_X^2+\sigma_Y^2}σX|c=σY|c=σ2Xσ2Yσ2X+σ2Y−−−−−−−−√.σX|c=σY|c=σX2σY2σX2+σY2.\sigma_{X|c} = \sigma_{Y|c} = \sqrt{ \frac{\sigma_X^2 \sigma_Y^2}{\sigma_X^2 + \sigma_Y^2}}. 条件标准偏差与给定相同是不足为奇的,如果一个上升,另一个必须下降相同的量。有趣的是,条件标准偏差不取决于。çcccccc 我无法确定的是条件均值,即它们按照与原始方差成比例而不是与原始标准差成比例的方式来分配超出部分(c-\ mu_X-\ mu_Y)(c−μX−μY)(c−μX−μY)(c - \mu_X - \mu_Y)。 例如,如果它们的均值为零,μX=μY=0μX=μY=0\mu_X=\mu_Y=0,并且标准差σX=3σX=3\sigma_X =3和\ sigma_Y = 1,则以c = 4为σY=1σY=1\sigma_Y=1条件,我们将得到E [X | c …

4
为什么P(A,B | C)/ P(B | C)= P(A | B,C)?
我了解。条件是A和B的交集除以B的整个面积。P(甲∩ 乙)/ P(B )= P(一 | B)P(一种∩乙)/P(乙)=P(一种|乙)P(A\cap B)/P(B) = P(A|B) 但是为什么?P(甲∩ 乙| C ^)/ P(B | C)= P(甲|乙∩ Ç)P(一种∩乙|C)/P(乙|C)=P(一种|乙∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) 你能给我一些直觉吗? 应该不是:吗?P(甲∩ 乙∩ Ç)/ P(B ,C)= P(甲|乙∩ Ç)P(一种∩乙∩C)/P(乙,C)=P(一种|乙∩C)P(A\cap B \cap C)/P(B,C) = P(A|B \cap C)

4
如何发展条件概率的直觉?
在可以在iTunes和YouTube上找到的哈佛大学统计110:概率课程的视频讲座中,我遇到了这个问题。 我试图在这里总结一下: 假设我们从标准牌组中随机获得两张牌。 如果我们至少有一张王牌,那么两张牌都是王牌的概率是多少? P(both aces|have ace)=P(both aces,have ace)P(have ace)P(both aces|have ace)=P(both aces,have ace)P(have ace) P(both\ aces | have\ ace) = \frac{P(both\ aces, have\ ace)}{P(have\ ace)} 由于如果您同时拥有两个A,则意味着至少要有一个A,因此可以将交集减少为P(both aces)P(both aces)P(both\ aces) P(both aces|have ace)=P(both aces)P(have ace)P(both aces|have ace)=P(both aces)P(have ace) P(both\ aces | have\ ace) = \frac{P(both\ aces)}{P(have\ ace)} 这就是 P(both …

3
如果
题 如果X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)是IID,则计算E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right),其中T=∑iXiT=∑iXiT = \sum_i X_i。 尝试:请检查以下是否正确。 让我们说,我们采取的这些条件期望使得总和 ∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i \mid T \right) = \mathbb{E}\left( \sum_i X_i \mid T \right) = T . \end{align} 这意味着每个E(Xi∣T)=TnE(Xi∣T)=Tn\mathbb{E}\left( X_i \mid T \right) = \frac{T}{n}因为X1,…,XnX1,…,XnX_1,\ldots,X_n是IID。 因此,E(X1∣T)=TnE(X1∣T)=Tn\mathbb{E}\left( X_1 \mid T \right) = \frac{T}{n}。这是对的吗?

6
更重要的统计数据是:“所有妇女中90%幸存”或“所有妇女中90%是妇女”?
考虑以下有关泰坦尼克号的陈述: 假设1:只有男人和女人在船上 假设2:有很多男人和女人 陈述1:90%的妇女幸存 陈述2:在所有幸存者中,有90%是女性 第一个表明,挽救妇女可能是重中之重(无论是否挽救男性) 第二种统计数据什么时候有用? 我们可以说其中一个几乎总是比另一个有用吗?

1
多重条件的贝叶斯定理
我不明白这个方程式是如何得出的。 P(我| 中号1个∩ 中号2)≤ P(我)P(我′)⋅ P(M1个| 一世)P(M2| 一世)P(M1个| 一世′)P(M2| 一世′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} 该方程式来自“概率试验”,其中以OJ Simpson的情况为例。被告正在接受双重谋杀的审判,并提出了两项​​针对他的证据。 中号1个M1M_{1}是被告的血液与犯罪现场发现的一滴血相匹配的事件。是受害者的血液与属于被告的袜子上的血液相匹配的事件。假设有罪,一个证据的出现增加了另一个证据的可能性。 是事件被告是无辜的,而是当他是有罪的。我I '中号2M2M_{2}一世II一世′I′I' 根据这两个证据,我们正在尝试确定被告无罪的可能性的上限。 给出了一些变量的值,但我感兴趣的是方程的推导方式。我尝试了,但是一无所获。 是的,我已经检查了“可能已经有了答案的问题”。

3
连续变量的条件概率
假设随机变量遵循具有参数0至10的连续均匀分布(即û 〜ù(0 ,10 ))üUUü〜ù(0 ,10 )U∼U(0,10)U \sim \rm{U}(0,10) 现在,我们将A表示 = 5的事件和B表示U等于5或6的事件。根据我的理解,这两个事件的发生概率均为零。üUUüUU555 现在,如果我们考虑到计算,我们不能使用条件法律 P (一|乙) = P (一∩ 乙)P(A | B )P(A|B)P(A|B),因为P(B)等于零。然而,我的直觉告诉我,P(一|乙)=1/2。P(A | B) = P(甲∩ 乙)P(B )P(A|B)=P(A∩B)P(B)P\left( {A|B} \right) = \frac{{P\left( {A \cap B} \right)}}{{P\left( B \right)}}P(B )P(B)P(B)P(甲|乙)= 1 / 2P(A|B)=1/2P(A|B) = 1/2

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.