Questions tagged «variance»

随机变量与其均值的期望平方偏差;或有关其均值的数据的平均平方偏差。

3
确定系数(
我想完全理解描述变量之间变化量的的概念。每个网络的解释都有些机械和晦涩。我想“理解”这个概念,而不仅仅是机械地使用数字。[R2r2r^2 例如:学习时数与考试成绩 = 0.8[Rrr = .64[R2r2r^2 那么这是什么意思? 考试成绩变异性的64%可以用小时来解释吗? 我们怎么知道只是平方呢?

2
在简单线性回归中,残差方差的公式从何而来?
根据我正在使用的文本,第残差的方差公式为:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) 我发现这难以置信,因为第残差是第观测值与第拟合值之间的差。如果要计算差异的方差,那么至少我会期望结果表达式中有些“加”。任何理解推导的帮助将不胜感激。ithithi^{th}ithithi^{th}ithithi^{th}

4
如何将新向量投影到PCA空间上?
执行主成分分析(PCA)之后,我想将一个新向量投影到PCA空间上(即在PCA坐标系中找到其坐标)。 我已经使用R计算了R语言的PCA prcomp。现在,我应该可以将向量乘以PCA旋转矩阵。该矩阵中的主要成分应该按行还是按列排列?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 


4
边缘情况下精度和召回率的正确值是多少?
精度定义为: p = true positives / (true positives + false positives) 对不对,作为true positives和false positives做法0,精度接近1? 召回相同的问题: r = true positives / (true positives + false negatives) 我目前正在实施统计测试,需要计算这些值,有时分母为0,我想知道在这种情况下应返回哪个值。 PS:请原谅,不恰当的标签,我想用recall,precision和limit,但我不能创造新的标签呢。
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

1
方差的反义词
有没有一个词是“方差的倒数”?也就是说,如果方差高,则低。对近义词(例如“协议”或“相似性”)不感兴趣,但具体含义是?X ... 1 / σ 2XXXXXX……\dots1 / σ21个/σ21/\sigma^2

8
为什么不将方差定义为彼此跟随的每个值之间的差异?
对于许多人来说,这可能是一个简单的问题,但这是: 为什么不将方差定义为彼此跟随的每个值之间的差异,而不是平均值的差异? 对我来说,这将是更合乎逻辑的选择,我想我显然已经忽略了一些缺点。谢谢 编辑: 让我尽可能清楚地改写一下。这就是我的意思: 假设您有一系列数字,顺序为:1、2、3、4、5 计算并总结(绝对,连续)每个值之间的差异(连续,在每个后续值之间,而不是成对)(不使用平均值)。 除以差异数量 (后续:如果数字是无序的,答案会有所不同) ->与方差的标准公式相比,此方法有哪些缺点?
19 variance 

3
非正态样本的样本方差的渐近分布
这是造成问题的更一般的处理 这个问题。在得出样本方差的渐近分布之后,我们可以应用Delta方法得出标准差的相应分布。 设一个大小为的iid 非正态随机变量,均值和方差。将样本均值和样本方差设置为 { X i } ,nnn{Xi},i=1,...,n{Xi},i=1,...,n\{X_i\},\;\; i=1,...,nμμ\muσ2σ2\sigma^2x¯=1n∑i=1nXi,s2=1n−1∑i=1n(Xi−x¯)2x¯=1n∑i=1nXi,s2=1n−1∑i=1n(Xi−x¯)2\bar x = \frac 1n \sum_{i=1}^nX_i,\;\;\; s^2 = \frac 1{n-1} \sum_{i=1}^n(X_i-\bar x)^2 我们知道 E(s2)=σ2,Var(s2)=1n(μ4−n−3n−1σ4)E(s2)=σ2,Var⁡(s2)=1n(μ4−n−3n−1σ4)E(s^2) = \sigma^2, \;\;\; \operatorname {Var}(s^2) = \frac{1}{n} \left(\mu_4 - \frac{n-3}{n-1}\sigma^4\right) 其中μ4=E(Xi−μ)4μ4=E(Xi−μ)4\mu_4 = E(X_i -\mu)^4,我们将注意力集中在需要存在且有限的矩,确实存在且为有限矩的分布上。 它持有吗 n−−√(s2−σ2)→dN(0,μ4−σ4)?n(s2−σ2)→dN(0,μ4−σ4)?\sqrt n(s^2 - \sigma^2) \rightarrow_d N\left(0,\mu_4 - \sigma^4\right)\;\; ?

2
为什么对方差进行回归?
我正在读这篇笔记。 在第2页上,它指出: “给定的回归模型可以解释多少数据差异?” “回归解释是关于系数的均值;推论是关于它们的方差。” 我已经多次阅读过此类陈述,为什么我们会关心“给定的回归模型可以解释数据中的多少差异?”……更具体地说,为什么“差异”呢?

6
最小二乘估计量方差中
如果XXX是满秩,逆X Ť XXTXX^TX存在并且我们得到的最小二乘估计:β = (X Ť X )- 1 X ÿβ^=(XTX)−1XY\hat\beta = (X^TX)^{-1}XY 和VAR (β)= σ 2(X Ť X )- 1Var(β^)=σ2(XTX)−1\operatorname{Var}(\hat\beta) = \sigma^2(X^TX)^{-1} 我们如何在方差公式中直观地解释?推导技术对我来说很清楚。(X T X )− 1(XTX)−1(X^TX)^{-1}

4
方差比标准差更基本的概念吗?
在这个心理测量学网站上,我读到了 [A]深水平方差是比标准差更基本的概念。 该站点并没有真正进一步解释为什么方差比标准偏差更根本,但是它提醒我我在该站点上已经阅读了一些类似的内容。 例如,@ kjetil-b-halvorsen 在此评论中写道:“标准差有助于解释和报告。对于发展该理论,方差更好。” 我认为这些声明是相关的,但我并不真正理解它们。我知道样本方差的平方根并不是总体标准偏差的无偏估计量,但是肯定有更多的东西。 对于这个网站,“基本”一词也许含糊不清。在那种情况下,也许我们可以从发展统计理论的角度出发,问问方差是否比标准差更重要?为什么/为什么不呢?

3
具有非零渐近方差的渐近一致性-它代表什么?
这个问题以前已经提出过,但是我想问一个具体的问题,试图得出一个可以澄清(和分类)它的答案: 在“穷人的无症状”中, (a)概率收敛为常数的一系列随机变量 与之相反 (b)一系列随机变量,其概率收敛于一个随机变量(因此分布于该变量)。 但是在“智者的渐近”中,我们也可以 (c)一系列随机变量,它们的概率收敛到一个常数,同时在极限处保持非零方差。 我的问题是(从下面我自己的探索性答案中窃取): 我们如何才能理解渐近一致但也具有非零的有限方差的估计量?这种差异反映了什么?它的行为与“通常的”一致估计量有何不同? 与(c)中描述的现象相关的线程(另请参见注释): 一致估计和无偏估计之间有什么区别? /stats/120553/convergence-of-an-estimator-with-infinite-variance 为什么渐近一致估计量在无穷大处没有零方差? 几乎可以确定收敛和极限方差为零

2
线性回归中是否存在偏差方差折衷的图形表示?
我正在停电。为我提供了以下图片,以展示线性回归背景下的偏差方差折衷: 我可以看到,这两个模型都不是很好的拟合-“简单”不能理解XY关系的复杂性,而“复杂”只是过拟合,基本上是从心里学习训练数据。但是,我完全看不到这两张图片中的偏差和差异。有人可以告诉我吗? PS:对偏差方差折衷的直观解释的答案?并没有真正帮助我,如果有人可以根据上述图片提供其他方法,我将感到非常高兴。


1
加权方差,再一次
无偏加权方差已在此处和其他地方得到解决,但似乎仍然令人惊讶。对于第一个链接以及Wikipedia文章中提供的公式似乎已达成共识。这也看起来像R,Mathematica和GSL(而不是MATLAB)使用的公式。但是,Wikipedia文章还包含以下几行,对于加权方差实现而言,这看起来很不错: 例如,如果从同一分布中得出值{2,2,4,5,5,5},那么我们可以将此集合视为未加权样本,也可以将其视为加权样本{2,4, 5}和相应的权重{2,1,3},我们应该得到相同的结果。 我的计算得出原始值的方差为2.1667,加权方差为2.9545。我真的应该期望它们是一样的吗?为什么或者为什么不?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.