Questions tagged «conditional-expectation»

有条件的期望是在给定另一个变量或多个变量的信息(主要是通过指定其值)的情况下对随机变量的期望。

1
期望中的下标符号
在量度理论框架下的条件期望中,下标符号的确切含义是什么?这些下标没有出现在条件期望的定义中,但是例如,我们可能会在Wikipedia的此页面中看到。(请注意,并非总是如此,几个月前是同一页)。EX[f(X)]EX[f(X)]\mathbb{E}_X[f(X)] 例如,具有和的的含义是什么?X〜 Ñ(0,1)ÿ=X+1EX[X+Y]EX[X+Y]\mathbb{E}_X[X+Y]X∼N(0,1)X∼N(0,1)X\sim\mathcal{N}(0,1)Y=X+1Y=X+1Y=X+1

3
迭代期望定律的推广
我最近遇到了这个身份: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] 我当然熟悉该规则的简单版本,即E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) 但我无法为其概括找到理由。 如果有人可以为我指出一个非技术性的参考,或者,甚至有人可以为这一重要结果提供简单的证明,我将不胜感激。

3
代数的条件期望的直觉
让是一个概率空间,给定一个随机变量和 -代数我们可以构造一个新的随机变量,这是条件期望值。(Ω,F,μ)(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→Rξ:Ω→R\xi:\Omega \to \mathbb{R}σσ\sigmaG⊆FG⊆F\mathscr{G}\subseteq \mathscr{F}E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] 考虑的直觉到底是什么?我了解以下几点的直觉:E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] (i) 其中是一个事件(概率为正)。E[ξ|A]E[ξ|A]E[\xi|A]AAA (ii) 其中是离散随机变量。E[ξ|η]E[ξ|η]E[\xi|\eta]ηη\eta 但是我无法可视化。我了解它的数学原理,并且了解它的定义方式是概括我们可以看到的更简单的情况。但是,尽管如此,我认为这种思维方式没有用。它对我来说仍然是一个神秘的对象。E[ξ|G]E[ξ|G]E[\xi|\mathscr{G}] 例如,让为的事件。形成 -algebra,由生成。那么等于如果等于如果。换句话说,如果,而如果。AAAμ(A)>0μ(A)>0\mu(A)>0σσ\sigmaG={∅,A,Ac,Ω}G={∅,A,Ac,Ω}\mathscr{G} = \{ \emptyset, A, A^c, \Omega\}AAAE[ξ|G](ω)E[ξ|G](ω)E[\xi|\mathscr{G}](\omega)1μ(A)∫Aξ1μ(A)∫Aξ\frac{1}{\mu(A)} \int_A \xiω∈Aω∈A\omega \in A1μ(Ac)∫Acξ1μ(Ac)∫Acξ\frac{1}{\mu(A^c)} \int_{A^c} \xiω∉Aω∉A\omega \not \in AE[ξ|G](ω)=E[ξ|A]E[ξ|G](ω)=E[ξ|A]E[\xi|\mathscr{G}](\omega) = E[\xi|A]ω∈Aω∈A\omega\in AE[ξ|G](ω)=E[ξ|Ac]E[ξ|G](ω)=E[ξ|Ac]E[\xi|\mathscr{G}](\omega) = E[\xi|A^c]ω∈Acω∈Ac\omega \in A^c 令人困惑的部分是,所以为什么我们不只写?我们为什么要更换通过根据是否不,但不允许替换通过?è [ ξ | G ] (ω )= E [ ξ | Ω ] = …

4
有条件期望证明作为最佳预测因子的问题
我的证明有问题 E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] 这很可能表明人们对期望和有条件的期望有更深的误解。 我知道的证明如下(此证明的另一个版本可以在这里找到) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y - E(Y|X) + E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E \Big[ \big(Y - E(Y|X)\big)^2 + 2 \big(Y - E(Y|X)\big) \big(E(Y|X) - g(X)\big) + \big(E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E …


1
我应该在精神上如何应对Borel的悖论?
对于在心理上如何处理Borel悖论和其他与条件概率有关的“悖论”,我感到不安。对于那些不熟悉它的人,请参阅此链接。到目前为止,我的精神反应主要是忽略它,因为似乎没有人谈论它,但是我觉得我应该纠正这一点。 我们知道这个悖论是存在的,但实际上在实践中(作为贝叶斯分析的一个极端例子),对于条件为事件,我们是完全可以的。如果是我的数据,我们条件对所有的时间,即使这是衡量一个事件时是连续的。而且,我们当然不花力气构造一系列事件,收敛到我们观察到的解决矛盾的事件,至少没有明确地。X X = x 0 X000XXXX=xX=xX = x000XXX 我认为这是可以的,因为在实验之前我们已经固定了随机变量(原则上),因此我们以为条件。也就是说,是自然的代数,因为信息将通过来使用-如果信息以其他方式传给我们,我们将以不同的 -代数。Borel的悖论之所以出现是因为(我猜)要适应的代数尚不清楚,但是贝叶斯方法已指定。因为我们指定的是先验信息σ (X )σ (X )σ X = X X σ σ σ (X )X = XXXXσ(X)σ(X)\sigma(X)σ(X)σ(X)\sigma(X)σσ\sigmaX=xX=xX = xXXXσσ\sigmaσσ\sigmaσ(X)σ(X)\sigma(X)X=xX=xX = x是通过测量XXX得出的。一旦指定了代数,一切都会好起来;我们使用Radon-Nikodym构造我们的条件期望,并且所有事物都是唯一的直至空集。σσ\sigma 这本质上是正确的,还是我离开了?如果我的路要走,什么是对行为,因为我们做的理由?[考虑到该站点的问与答性质,将其视为我的问题。]当我采用测度理论概率时,由于某种我不了解的原因,我们甚至从未触及过有条件的期望。结果,我担心我的想法很混乱。

4
给定样本平均值,样本中位数的期望值
让ÿYY表示中值,并让ˉ XX¯\bar{X}表示平均值,大小的随机样本的Ñ = 2 ķ + 1n=2k+1n=2k+1从分发即Ñ (μ ,σ 2)N(μ,σ2)N(\mu,\sigma^2)。我该如何计算ê (Ÿ | ˉ X = ˉ X)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x})? 直观地说,因为态假设的,是有意义的要求是Ë (Ÿ | ˉ X = ˉ X)= ˉ XE(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x}的确是正确的答案。可以严格显示吗? 我最初的想法是使用条件正态分布来解决此问题,这通常是已知的结果。那里的问题是,由于我不知道期望值,因此也不知道中位数的方差,因此我将不得不使用k + 1k+1k+1阶统计量来计算那些值。但这非常复杂,除非绝对必要,否则我不愿去那里。

2
毕达哥拉斯定理的总方差定律
假设XXX和YYY具有有限的第二矩。在具有第二个有限矩的随机变量的希尔伯特空间(具有内积T1,T2T1,T2T_1,T_2由E(T1T2)E(T1T2)E(T_1T_2),||T||2=E(T2)||T||2=E(T2)||T||^2=E(T^2)),我们可以解释E(Y|X)E(Y|X)E(Y|X)作为YYY在函数空间上的投影XXX。 我们也知道,总方差定律为 Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X)) + Var(E(Y|X)) 有没有一种方法可以根据上面的几何图形来解释该定律?有人告诉我定律与边为的直角三角形的勾股定理相同Y,E(Y|X),Y−E(Y|X)Y,E(Y|X),Y−E(Y|X)Y, E(Y|X), Y-E(Y|X)。我理解为什么三角形是直角的,但不了解勾股定理是如何捕捉总方差定律的。

3
如果
题 如果X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)是IID,则计算E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right),其中T=∑iXiT=∑iXiT = \sum_i X_i。 尝试:请检查以下是否正确。 让我们说,我们采取的这些条件期望使得总和 ∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i \mid T \right) = \mathbb{E}\left( \sum_i X_i \mid T \right) = T . \end{align} 这意味着每个E(Xi∣T)=TnE(Xi∣T)=Tn\mathbb{E}\left( X_i \mid T \right) = \frac{T}{n}因为X1,…,XnX1,…,XnX_1,\ldots,X_n是IID。 因此,E(X1∣T)=TnE(X1∣T)=Tn\mathbb{E}\left( X_1 \mid T \right) = \frac{T}{n}。这是对的吗?

2
指数随机变量的条件期望
为一个随机变量(é [ X ] = 1X∼Exp(λ)X∼Exp(λ)X\sim \text{Exp}(\lambda))我凭直觉感到E[X| X>x]应该等于x+E[X],因为通过无记忆属性,X|x的分布 X>x与X相同,但向右移动x。E[X]=1λE[X]=1λ\mathbb{E}[X] = \frac{1}{\lambda}E[X|X>x]E[X|X>x]\mathbb{E}[X|X > x]x+E[X]x+E[X]x + \mathbb{E}[X]X|X>xX|X>xX|X > xXXXxxx 但是,我正在努力使用无记忆属性来提供具体的证明。任何帮助深表感谢。 谢谢。

4
抽牌后我期望的数字,直到获得ace,2、3等
我在解决以下问题时遇到了一些麻烦。 您可以从标准的52张卡片组中抽牌,而无需替换,直到获得一张A。您从剩余的剩余数中提取,直到得到2。继续进行3.整个甲板用完后,您期望的剩余数字是多少? 让它自然 Ti=first position of card whose value is iTi=first position of card whose value is iT_i = \text{first position of card whose value is }i Ui=last position of card whose value is iUi=last position of card whose value is iU_i = \text{last position of card whose value is …

1
Fisher精确检验和超几何分布
我想更好地理解费舍尔的精确测试,因此设计了以下玩具示例,其中f和m分别对应于男性和女性,而n和y对应于“苏打水消耗”,如下所示: > soda_gender f m n 0 5 y 5 0 显然,这是一个极大的简化,但是我不希望上下文妨碍您。在这里,我只是假设男性不喝苏打水,女性不喝苏打水,并想看看统计程序是否得出相同的结论。 在R中运行fisher精确测试时,得到以下结果: > fisher.test(soda_gender) Fisher's Exact Test for Count Data data: soda_gender p-value = 0.007937 alternative hypothesis: true odds ratio is not equal to 1 95 percent confidence interval: 0.0000000 0.4353226 sample estimates: odds ratio 0 在这里,由于p值为0.007937,我们可以得出结论,性别和苏打水消费是相关的。 我知道费舍尔精确检验与超基因组分布有关。因此,我想使用该方法获得相似的结果。换句话说,您可以按以下方式查看此问题:有10个球,其中5个标记为“雄性”,5个标记为“雌性”,您随机抽出5个球而不进行替换,并且看到0个雄性球。这种观察的机会是什么?为了回答这个问题,我使用了以下命令: > …

1
R / mgcv:为什么te()和ti()张量积产生不同的曲面?
的mgcv软件包R具有两个功能,用于拟合张量积相互作用:te()和ti()。我了解两者之间的基本分工(拟合非线性交互与将这种交互分解为主要效果和交互)。我不明白的是为什么te(x1, x2)而ti(x1) + ti(x2) + ti(x1, x2)可能产生(略)不同的结果。 MWE(改编自?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
查找
考虑从均匀分布提取的3个iid样本 ,其中是参数。我想找到 其中是订单统计。θ È [ X (2 ) | X (1 ),X (3 ) ] X (i ) iu(θ,2θ)u(θ,2θ)u(\theta, 2\theta)θθ\thetaE[X(2)|X(1),X(3)]E[X(2)|X(1),X(3)] \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] X(i)X(i)X_{(i)}iii 我希望结果是 但是我唯一能显示此结果的方法似乎也是冗长,我无法提出简单的解决方案,我是否缺少某些东西,是否有一些捷径?E[X(2)|X(1),X(3)]=X(1)+X(3)2E[X(2)|X(1),X(3)]=X(1)+X(3)2 \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] = \frac{X_{(1)}+ X_{(3)}}{2} 我要做的是以下几点: 我发现条件密度 f(x(2)|x(1),x(3))=f(x(1),x(2),x(3))f(x(1),x(3))f(x(2)|x(1),x(3))=f(x(1),x(2),x(3))f(x(1),x(3)) f(x_{(2)}| x_{(1)}, x_{(3)}) = \frac{ f(x_{(1)}, x_{(2)}, x_{(3)})}{f(x_{(1)}, x_{(3)})} 我整合 E[X(2)|X(1),X(3)]=∫xf(x|x(1),x(3))dxE[X(2)|X(1),X(3)]=∫xf(x|x(1),x(3))dx \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] = …

1
对正态分布的高阶产品的期望
我有两个正态分布的变量和,均值零,协方差矩阵。我有兴趣尝试根据的条目来计算的值。X1X1X_1X2X2X_2ΣΣ\SigmaE[X21X22]E[X12X22]E[X_1^2 X_2^2]ΣΣ\Sigma 我用总概率定律得到 但我不确定内部期望会降低到什么。这里还有其他方法吗?E[X21X22]=E[X21E[X22|X1]]E[X12X22]=E[X12E[X22|X1]]E[X_1^2 X_2^2] = E[X_1^2 E[X_2^2 | X_1]] 谢谢。 编辑:变量也是多元正态分布。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.