Questions tagged «expected-value»

随机变量的期望值是随机变量可以采用的所有可能值的加权平均值,其权重等于采用该值的概率。

4
为什么期望与算术平均值相同?
今天,我遇到了一个名为“数学期望”的新主题。我所遵循的书说,期望是来自任何概率分布的随机变量的算术平均值。但是,它将期望定义为某些数据乘积与概率的总和。这两个(平均值和期望值)如何相同?概率与数据之和如何才能成为整个分布的平均值?

4
以泰勒级数的期望值(尤其是余数)
我的问题涉及试图证明一种广泛使用的方法的合理性,即采用泰勒级数的期望值。假设我们有一个随机变量XXX与正平均μμ\mu和方差σ2σ2\sigma^2。另外,我们有一个函数,例如log(x)log⁡(x)\log(x)。 这样做的泰勒展开logXlog⁡X\log X围绕平均值,我们得到 logX=logμ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξ3X,log⁡X=log⁡μ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξX3, \log X = \log\mu + \frac{X - \mu}{\mu} - \frac12 \frac{(X-\mu)^2}{\mu^2} + \frac13 \frac{(X - \mu)^3}{\xi_X^3}, 其中,按照惯例,ξXξX\xi_X是ST|ξX−μ|&lt;|X−μ||ξX−μ|&lt;|X−μ||\xi_X - \mu| < |X - \mu|。 如果我们的预期,我们将得到一个近似方程,人们通常所说的东西自我明显(见≈≈\approx第一个方程式符号这里): ElogX≈logμ−12σ2μ2Elog⁡X≈log⁡μ−12σ2μ2 \mathbb{E}\log X \approx \log \mu - \frac12 \frac{\sigma^2}{\mu^2} 问:我感兴趣的是如何证明余项的预期值实际上是可以忽略不计,即 E[(X−μ)3ξ3X]=o(σ2)E[(X−μ)3ξX3]=o(σ2) \mathbb{E}\left[\frac{(X - \mu)^3}{\xi_X^3}\right] = o(\sigma^2) (或,换句话说,E[o(X−μ)2]=o(E[(X−μ)2])E[o(X−μ)2]=o(E[(X−μ)2])\mathbb{E}\bigl[o(X-\mu)^2\bigr] = o\bigl(\mathbb{E}\bigl[(X-\mu)^2\bigr]\bigr))。 我试图做的:假定σ2→0σ2→0\sigma^2 \to 0(这反过来,装置X→μX→μX …

5
使用CDF查找期望值
首先,我要说这是书本上的作业问题。我花了几个小时寻找如何找到期望值,并确定自己一无所知。 令具有CDF。 找到为的那些值针对的存在。XXXF(x)=1−x−α,x≥1F(x)=1−x−α,x≥1F(x) = 1 - x^{-\alpha}, x\ge1E(X)E(X)E(X)αα\alphaE(X)E(X)E(X) 我什至不知道该如何开始。如何确定存在值?我也不知道如何处理CDF(我假设这意味着累积分布函数)。当您具有频率函数或密度函数时,有一些公式可以找到期望值。维基百科说,可以用概率密度函数来定义的CDF,如下所示:αα\alphaXXXfff F(x)=∫x−∞f(t)dtF(x)=∫−∞xf(t)dtF(x) = \int_{-\infty}^x f(t)\,dt 据我所知。我从这里去哪里? 编辑:我的意思是把。x≥1x≥1x\ge1

3
手动计算逻辑回归95%置信区间与在R中使用confint()函数之间为什么会有区别?
亲爱的大家-我注意到我无法解释的怪事,可以吗?总之:在logistic回归模型中计算置信区间的手动方法和R函数confint()得出不同的结果。 我一直在研究Hosmer&Lemeshow的Applied Logistic回归(第二版)。在第3章中,有一个计算比值比和95%置信区间的示例。使用R,我可以轻松地重现模型: Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value Pr(&gt;|z|) (Intercept) -0.8408 0.2551 -3.296 0.00098 *** as.factor(dataset$dich.age)1 2.0935 0.5285 3.961 7.46e-05 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 


6
有人可以提供偏态为零但不对称的单峰分布的示例吗?
在2010年5月,维基百科用户Mcorazao在偏度文章中添加了一个句子:“零值表示这些值在平均值的两侧相对均匀地分布,通常但不一定意味着对称分布。” 但是,Wiki页面没有实际的发行示例,可以打破此规则。至少在前20个结果中,谷歌搜索“具有零偏度的示例非对称分布”也没有给出任何实际示例。 使用这样的定义,偏斜由和R计算得出式E[(X−μσ)3]E⁡[(X−μσ)3] \operatorname{E}\Big[\big(\tfrac{X-\mu}{\sigma}\big)^{\!3}\, \Big] sum((x-mean(x))^3)/(length(x) * sd(x)^3) 我可以构造一个小的任意分布以降低偏度。例如,分布 x = c(1, 3.122, 5, 4, 1.1) 产生的偏斜。但这是一个很小的样本,而且与对称性的偏差也不大。因此,是否可以使用一个高度不对称但仍具有接近零偏度的峰构造一个更大的分布?−5.64947⋅10−5−5.64947⋅10−5-5.64947\cdot10^{-5}

6
为什么将期望值如此命名?
我知道我们如何获得3.5作为滚动6面模具的期望值。但从直觉上讲,我可以期望每张脸的机会均等为1/6。 那么,掷骰子的期望值是否不应该是1-6之间相等的概率? 换句话说,当被问到“投掷一个合理的6面骰子的预期价值是什么?”这个问题时,人们应该回答“哦,它可以是1-6之间的机会相等。” 相反,它是3.5。 在现实世界中,有人可以直观地解释我在掷骰子时的期望值是3.5吗? 同样,我不希望公式或期望的推导。

3
为什么不报告引导分布的平均值?
当一个自举参数获取标准误差时,我们得到该参数的分布。为什么我们不使用该分布的均值作为我们试图获取的参数的结果或估计呢?分布不应该近似真实分布吗?因此,我们将对“真实”价值有一个很好的估计吗?但是,我们报告了从样本中获得的原始参数。这是为什么? 谢谢

3
挑逗:从统一的[0,1]分布得出的iid序列的预期长度是单调增加的吗?
这是定量分析师职位的面试问题,在此报告。假设我们从均匀的分布绘制并且绘制为iid,则单调递增分布的预期长度是多少?即,如果当前绘制小于或等于上一个绘制,我们将停止绘制。[0,1][0,1][0,1] 我得到了前几个: \ Pr (\ text {length} = 2)= \ int_0 ^ 1 \ int_ {x_1} ^ 1 \ int_0 ^ {x_2} \ mathrm {d} x_3 \,\ mathrm {d} x_2 \,\ mathrm {d} x_1 = 1/3 \ Pr(\ text {length} = 3)= \ int_0 ^ 1 \ int_ {x_1} ^ …

1
自由度可以是非整数吗?
当我使用GAM时,它给了我剩余的DF为(代码的最后一行)。这意味着什么?超越GAM示例,通常,自由度可以是非整数吗?26.626.626.6 &gt; library(gam) &gt; summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 


3
MSE分解为方差和偏差平方
为了显示MSE可以分解为方差加上偏见的平方,维基百科中的证明有一个步骤,如图中突出显示。这是如何运作的?从第三步到第四步如何将期望推向产品?如果这两个术语是独立的,则不应将期望应用于这两个术语吗?如果不是,则此步骤有效吗?

3
为什么是最大可能性而不是预期可能性?
为什么获得参数的最大似然估计如此常见,但实际上您从未听说过预期似然参数估计(即,基于期望值而不是似然函数的模式)?这主要是出于历史原因,还是出于实质性的技术或理论原因? 使用预期似然估计而不是最大似然估计是否有明显的优势和/或劣势? 有没有在预期的似然估计一些地区的常规使用?

4
非负离散分布的示例,其中均值(或另一个矩)不存在?
我在scipy中进行一些工作,并且与核心scipy组的成员进行了交谈,以确定非负离散随机变量是否可以具有不确定的时刻。我认为他是正确的,但没有证明。任何人都可以显示/证明此声明吗?(或如果此主张不成立,则不予支持) 如果离散随机变量在上受支持,我没有方便的示例,但似乎柯西分布的某些离散版本应作为获得不确定时刻的示例。非负数的条件(可能包括)似乎使这个问题具有挑战性(至少对我而言)。ZZ\mathbb{Z}000

5
为什么我们对正态分布的使用有偏差和误导性的标准偏差公式?
第一次进行正态分布蒙特卡洛模拟时,我感到有些震惊,发现个样本的标准偏差的平均值(样本大小均为n = 2)要小得多比,即平均\ sqrt {\ frac {2} {\ pi}}倍,即用于生成总体的\ sigma。但是,这是众所周知的,如果很少记起,并且我确实知道,或者我不会进行模拟。这是一个模拟。100100100100100100√n = 2ñ=2n=2 σ2π--√2π \sqrt{\frac{2}{\pi }}σσ\sigma 这是一个使用100,n = 2,\ text {SD}和\ text {E}(s_ {n = 2})= \ sqrt \的估计量来预测N(0,1)的 95%置信区间的示例frac {\ pi} {2} \ text {SD}。ñ(0 ,1 )ñ(0,1个)N(0,1)n = 2ñ=2n=2标清标清\text{SD}Ë (小号n = 2)= π2--√标清Ë(sñ=2)=π2标清\text{E}(s_{n=2})=\sqrt\frac{\pi}{2}\text{SD} RAND() RAND() Calc Calc N(0,1) N(0,1) SD …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.