Questions tagged «conditional-probability»

当已知另一个事件B发生或已经发生时,事件A发生的概率。通常用P(A | B)表示。

14
亚马逊面试问题-第二次面试的可能性
我在接受亚马逊采访时遇到了这个问题: 接受第一次面试的所有人中有50%接受第二次面试 95%的朋友接受了第二次面试,他们觉得第一次面试很好 没有进行第二次面试的朋友中有75%认为他们的第一次面试很好 如果您觉得自己的第一次面试很好,那么您接受第二次面试的可能性是多少? 有人可以解释如何解决吗?我无法将单词问题分解成数学(现在面试已经很长时间了)。我了解可能没有实际的数值解决方案,但是对如何解决此问题的解释会有所帮助。 编辑:好吧,我确实得到了第二次面试。如果有人好奇,我会给出一个解释,该解释是以下一系列响应的组合:信息不足,朋友不具有代表性,等等,只是通过一些可能性进行了交谈。最后,这个问题使我感到困惑,感谢所有答复。

2
推导多元正态分布的条件分布
我们有一个多元法向向量Y∼N(μ,Σ)Y∼N(μ,Σ){\boldsymbol Y} \sim \mathcal{N}(\boldsymbol\mu, \Sigma)。考虑将μμ\boldsymbol\mu和YY{\boldsymbol Y}划分为 μ=[μ1μ2]μ=[μ1μ2]\boldsymbol\mu = \begin{bmatrix} \boldsymbol\mu_1 \\ \boldsymbol\mu_2 \end{bmatrix} Y=[y1y2]Y=[y1y2]{\boldsymbol Y}=\begin{bmatrix}{\boldsymbol y}_1 \\ {\boldsymbol y}_2 \end{bmatrix} 将\ Sigma的类似分区划分ΣΣ\Sigma为 [Σ11Σ21Σ12Σ22][Σ11Σ12Σ21Σ22] \begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{bmatrix} 然后,(y1|y2=a)(y1|y2=a)({\boldsymbol y}_1|{\boldsymbol y}_2={\boldsymbol a}),给定第二个分区的第一个分区的条件分布为 N(μ¯¯¯¯,Σ¯¯¯¯)N(μ¯,Σ¯)\mathcal{N}(\overline{\boldsymbol\mu},\overline{\Sigma}),其均值 μ¯¯¯¯=μ1+Σ12Σ22−1(a−μ2)μ¯=μ1+Σ12Σ22−1(a−μ2) \overline{\boldsymbol\mu}=\boldsymbol\mu_1+\Sigma_{12}{\Sigma_{22}}^{-1}({\boldsymbol a}-\boldsymbol\mu_2) 和协方差矩阵 Σ¯¯¯¯=Σ11−Σ12Σ22−1Σ21Σ¯=Σ11−Σ12Σ22−1Σ21 \overline{\Sigma}=\Sigma_{11}-\Sigma_{12}{\Sigma_{22}}^{-1}\Sigma_{21} 实际上,这些结果也已在Wikipedia中提供,但是我不知道μ¯¯¯¯μ¯\overline{\boldsymbol\mu}和Σ¯¯¯¯Σ¯\overline{\Sigma}是如何得出的。这些结果至关重要,因为它们是推导卡尔曼滤波器的重要统计公式。有人能提供我推导μ¯¯¯¯μ¯\overline{\boldsymbol\mu}和\ overline {\ Sigma}的推导步骤Σ¯¯¯¯Σ¯\overline{\Sigma}吗?非常感谢你!

3
示例:使用glmnet获得二进制结果的LASSO回归
我开始与使用的涉猎glmnet与LASSO回归那里我感兴趣的结果是二分。我在下面创建了一个小的模拟数据框: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, 2, 2, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

4
如何生成相关的随机数(给定的均值,方差和相关度)?
很抱歉,这似乎太基本了,但是我想我只是想在这里确认了解。我觉得我必须分两步执行此操作,并且我已经开始尝试绘制相关矩阵,但是它似乎才真正开始涉及。我正在寻找一种简洁,合理的解释(理想情况下带有对伪代码解决方案的提示),这是一种生成相关随机数的理想方法。 给定两个具有已知均值和方差的伪随机变量height和weight以及给定的相关性,我认为我基本上是在试图理解第二步应该是什么样子: height = gaussianPdf(height.mean, height.variance) weight = gaussianPdf(correlated_mean(height.mean, correlation_coefficient), correlated_variance(height.variance, correlation_coefficient)) 如何计算相关的均值和方差?但是我想确认这确实是相关的问题。 我需要诉诸矩阵操纵吗?还是我在解决此问题的基本方法上还有其他非常错误的地方?

3
迭代期望定律的推广
我最近遇到了这个身份: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] 我当然熟悉该规则的简单版本,即E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) 但我无法为其概括找到理由。 如果有人可以为我指出一个非技术性的参考,或者,甚至有人可以为这一重要结果提供简单的证明,我将不胜感激。

8
这个人是女性的几率是多少?
窗帘后面有一个人-我不知道这个人是女性还是男性。 我知道这个人长发,而且所有长发中有90%是女性 我知道该人患有罕见的AX3血型,并且所有这种血型的人中有80%是女性。 这个人是女性的几率是多少? 注意:最初的配方在两个假设的基础上进行了扩展:1.血型和头发长度是独立的。2.总体人口中男性与女性的比例为50:50 (这里的具体情况不是那么重要-而是,我有一个紧急项目,要求我有正确的方法来回答这个问题。我的直觉是这是一个简单的概率问题,一个简单的确定性答案,而不是而不是根据不同的统计理论有多个值得商answers答案的事物。)

13
条件概率公式背后的直觉是什么?
给定发生的情况下发生条件概率的公式为: P \ left(\ text {A}〜\ middle |〜\ text {B} \ right)= \ frac { P \ left(\ text {A} \ cap \ text {B} \ right)} {P \ left(\ text {B} \ right)}。 乙AA\text{A}BB\text{B}P(A | B)=P(A∩B)P(B).P(A | B)=P(A∩B)P(B). P\left(\text{A}~\middle|~\text{B}\right)=\frac{P\left(\text{A} \cap \text{B}\right)}{P\left(\text{B}\right)}. 我的教科书以维恩图的形式解释了其背后的直觉。 给定BB\text{B}已经发生,\ text {A}发生的唯一方法AA\text{A}是使事件落在AA\text{A}和\ text {B}的交集处BB\text{B}。 在那种情况下,P(A|B)P(A|B)P\left(\text{A} \middle| …

3
R:尽管数据集中没有NaN,随机森林仍在“外部函数调用”错误中抛出NaN / Inf [关闭]
我正在使用插入符号在数据集上运行交叉验证的随机森林。Y变量是一个因素。我的数据集中没有NaN,Inf或NA。但是,当运行随机森林时,我得到 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see them) Warning messages: 1: In data.matrix(x) : NAs introduced by coercion 2: In data.matrix(x) : NAs introduced by coercion 3: In data.matrix(x) : NAs introduced by …

7
两个骰子卷-顺序相同的数字
我目前正在Coursera上学习统计推理课程。在一项作业中,出现以下问题。 | Suppose you rolled the fair die twice. What is the probability of rolling the same number two times in a row? 1: 2/6 2: 1/36 3: 0 4: 1/6 Selection: 2 | You're close...I can feel it! Try it again. | Since we don't care what the outcome …

5
维基百科关于可能性的条目似乎模棱两可
我有一个关于“条件概率”和“可能性”的简单问题。(我已经在这里调查了这个问题,但无济于事。) 它从可能性的Wikipedia 页面开始。他们说: 的似然性的一组参数值中的,,给出的结果,等于所给出的那些参数值的那些观察到的结果的概率,也就是Xθθ\thetaxxx 大号(θ|X)=P(X | θ )L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid \theta) 大!因此,用英语,我这样读:“在给定数据X = x(左侧)的情况下,参数等于theta的可能性等于在给定参数的情况下数据X等于x的可能性。等于theta”。(粗体是我的重点)。 但是,在同一页面上,不少于3行,然后Wikipedia条目继续说: 假设是一个随机变量,其随机变量 p取决于参数\ theta。然后功能XXXpppθθ\theta 大号(θ|X)= pθ(x )= Pθ(X= x ),L(θ∣x)=pθ(x)=Pθ(X=x),\mathcal{L}(\theta \mid x) = p_\theta (x) = P_\theta (X=x), \, 被认为是\ theta的函数的函数θθ\theta被称为似然函数(\ theta的似然函数θθ\theta,给定随机变量 X的结果x)。有时,参数值\ theta的X值x的概率表示为P(X = x \ mid \ theta);通常写为P(X = x; \ …

2
IID数据的悖论(至少对我而言)
就我在统计上的综合(和稀缺)知识而言,我理解如果是同上的随机变量,则该术语暗示它们是独立且均等分布的。X1个,X2,。。。,XñX1,X2,...,XnX_1, X_2,..., X_n 我在这里关心的是iid样本的前一个属性,其内容为: p (Xñ| X一世1个,X一世2,。。。,X一世ķ)= p (Xñ),p(Xn|Xi1,Xi2,...,Xik)=p(Xn),p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}), 对于不同 st任何集合。 1 ≤ 我Ĵ &lt; Ñ一世Ĵiji_j1 ≤ 我Ĵ&lt; n1≤ij&lt;n1 \leq i_j < n 但是,人们知道,具有相同分布的独立样本的集合提供了有关分布结构的信息,因此,在上述情况下,还提供了有关的信息,因此,实际上不应该是: p (X Ñ | X 我1,X 我2,。。。,X 我ķ)= p (X Ñ)。XñXnX_np (Xñ| X一世1个,X一世2,。。。,X一世ķ)= p (Xñ)。p(Xñ|X一世1个,X一世2,。。。,X一世ķ)=p(Xñ)。p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}). 我知道我是谬论的受害者,但我不知道为什么。请帮我解决这个问题。

4
易失性蒙蒂的蒙蒂霍尔问题
蒙蒂非常了解门后面是否有山羊(或者是空的)。这一事实允许玩家通过将“猜测”切换到另一扇门来使成功率随时间翻倍。如果蒙蒂的知识还不够完善怎么办?如果有时奖品确实和山羊同在一个门口,该怎么办?但是直到选择并打开门后您才能看到它?当蒙蒂的准确率低于100%时,玩家可以帮助我了解如何计算IF以及提高多少?例如:如果蒙蒂错了-平均50%的时间呢?玩家仍然可以从切换他的猜测/门中受益吗?我想如果Monty获胜的可能性不超过33.3%,那么奖品就不会落在门后,那么玩家最好的选择就是不要切换他的门选择。您能否为我提供一种方法,通过插入不同的蒙提正确概率(关于奖品不在门后)来计算转换的潜在利益?我除了高中数学外没有其他东西,今年69岁,所以请保持谦虚。 感谢您提供的见解和公式。如果“ Fallible Monty”在预测没有奖品/汽车的情况下准确率只有66%,那么从您最初选择的车门切换为零收益是...。因为默认值为33%奖品的基本费率位于任何门后。但是,有人认为,如果蒙蒂在预测没有奖品的情况下胜过66%,那么切换会产生更大的效用。我将尝试将这种推理应用于“专家”做出“专家预测”的游戏,即三个大致相同的选项之一将是正确的。我对专家的正确性几乎没有信心,我可以肯定他的“命中率”将小于33%-更像是15%。我的结论是,当“同样的选择,因为我,我可能是错的肯定,而应换另两个中的一个!;-)


3
Frequentist和Bayesian在“可能性”的定义上有什么区别吗?
有些资料说似然函数不是条件概率,有些则说是。这让我很困惑。 根据我所见的大多数资料,给定样本,具有参数的分布的可能性应该是概率质量函数的乘积:θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) 例如,在Logistic回归中,我们使用优化算法来最大化似然函数(最大似然估计),以获得最优参数,从而获得最终的LR模型。给定我们假设彼此独立的训练样本,我们希望最大化概率乘积(或联合概率质量函数)。这对我来说似乎很明显。nnn 根据“ 可能性,条件概率和失败率之间的关系 ”,“可能性不是概率,也不是条件概率”。它还提到:“仅在贝叶斯对似然性的理解中,即,如果假设是随机变量,那么似然性就是条件概率。”θθ\theta 我读到了关于在常客和贝叶斯之间对待学习问题的不同观点。 根据消息来源,对于贝叶斯推断,我们具有先验,似然性,并且我们希望使用贝叶斯定理获得后验:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} 我不熟悉贝叶斯推理。为什么P(X|θ)P(X|θ)P(X|\theta),其是在它的参数条件所观察到的数据的分发,也被称为可能性有多大?在Wikipedia中,它说有时写成L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta)。这是什么意思? Frequentist和Bayesian对可能性的定义之间有区别吗? 谢谢。 编辑: 解释贝叶斯定理的方法有多种-贝叶斯定理和惯常论的解释(请参阅:贝叶斯定理-维基百科)。

2
具有多个条件的条件概率的定义
具体来说,假设我有两个事件A和B,以及一些分布参数,我想看看。P (甲|乙,θ )θθ \theta P(A|B,θ)P(A|B,θ)P(A | B,\theta) 因此,给定一些事件A和B,最简单的条件概率定义是。因此,如果要处理多个事件,如上面所述,我可以说 还是我看错了?有时候我在处理概率问题时会倾向于发疯,我不确定为什么。 P(A|B,θ)?= P((A|θ)∩(B|θ))P(A|B)=P(A∩B)P(B)P(A|B)=P(A∩B)P(B)P(A|B) = \frac{P(A \cap B)}{P(B)}P(A|B,θ)=?P((A|θ)∩(B|θ))P(B|θ)P(A|B,θ)=?P((A|θ)∩(B|θ))P(B|θ)P(A | B,\theta) \stackrel{?}{=} \frac{P((A | \theta)\cap(B | \theta))}{P(B|\theta)}

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.