Questions tagged «mathematical-statistics»

统计的数学理论,涉及形式定义和一般结果。

4
给定样本平均值,样本中位数的期望值
让ÿYY表示中值,并让ˉ XX¯\bar{X}表示平均值,大小的随机样本的Ñ = 2 ķ + 1n=2k+1n=2k+1从分发即Ñ (μ ,σ 2)N(μ,σ2)N(\mu,\sigma^2)。我该如何计算ê (Ÿ | ˉ X = ˉ X)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x})? 直观地说,因为态假设的,是有意义的要求是Ë (Ÿ | ˉ X = ˉ X)= ˉ XE(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x}的确是正确的答案。可以严格显示吗? 我最初的想法是使用条件正态分布来解决此问题,这通常是已知的结果。那里的问题是,由于我不知道期望值,因此也不知道中位数的方差,因此我将不得不使用k + 1k+1k+1阶统计量来计算那些值。但这非常复杂,除非绝对必要,否则我不愿去那里。

4
谁将R与多核,SNOW或CUDA软件包一起用于资源密集型计算?
在本论坛中,谁愿意将“> R与多核,snow软件包或CUDA一起使用,因此对于需要比工作站CPU更大功率的高级计算?您在哪个硬件上计算这些脚本?数据中心访问某处? 这些问题的背景如下:我目前正在写我的硕士学位。关于R和高性能计算的论文,需要对谁真正使用R有深入的了解。我读到R在2008年拥有100万用户,但这几乎是我可以找到的关于该主题的唯一用户统计信息-所以我希望您能答案! 真诚的海因里希

3
Beta分布与逻辑回归模型之间有什么关系?
我的问题是:Beta分布与逻辑回归模型的系数之间的数学关系是什么? 为了说明: logistic(Sigmoid)函数由下式给出 f(x)=11+exp(−x)f(x)=11+exp⁡(−x)f(x) = \frac{1}{1+\exp(-x)} 它用于对逻辑回归模型中的概率进行建模。设为二分式评分结果,为设计矩阵。逻辑回归模型由下式给出AAA(0,1)(0,1)(0,1)XXX P(A=1|X)=f(Xβ).P(A=1|X)=f(Xβ).P(A=1|X) = f(X \beta). 注意XXX的第一列为常数111(截距),ββ\beta为回归系数的列向量。例如,当我们有一个(标准正态)回归变量xxx并选择β0=1β0=1\beta_0=1(拦截)和β1=1β1=1\beta_1=1,我们可以模拟所得的“概率分布”。 此图使人想起了密度由下式给出的Beta分布(与其他选择的图一样)。ββ\beta g(y;p,q)=Γ(p)Γ(q)Γ(p+q)y(p−1)(1−y)(q−1).g(y;p,q)=Γ(p)Γ(q)Γ(p+q)y(p−1)(1−y)(q−1)。g(y;p,q) = \frac{\Gamma(p)\Gamma(q)}{\Gamma(p+q)} y^{(p-1)} (1-y)^{(q-1)}. 使用最大似然或矩量方法,可以根据的分布估算和。因此,我的问题归结为:与和选择之间是什么关系?首先,这解决了上面给出的双变量情况。q P (甲= 1 | X )β p qpppqqqP(A = 1 |X)P(一种=1|X)P(A=1|X)ββ\betapppqqq



1
在原假设下,可交换样本背后的直觉是什么?
排列检验(也称为随机检验,重新随机检验或精确检验)非常有用,并且在t-test未满足例如要求的正态分布的假设以及通过按等级对值进行转换时派上用场非参数测试之类的测试Mann-Whitney-U-test会导致丢失更多信息。但是,在使用这种检验时,一个假设且唯一一个假设应该是原假设下样本的可交换性假设。还值得注意的是,当有两个以上的示例(如在coinR包中实现的示例)时,也可以应用这种方法。 您能用简单的英语用一些比喻语言或概念直觉来说明这一假设吗?这对于在像我这样的非统计学家中阐明这个被忽视的问题非常有用。 注意: 提及在相同假设下应用置换测试不成立或无效的情况将非常有帮助。 更新: 假设我随机从我所在地区的当地诊所收集了50个受试者。他们被随机分配为接受药物或安慰剂的比例为1:1。分别Par1在V1(基准),V2(3个月后)和V3(1年后)时测量了参数1 。根据特征A,所有50个主题都可以分为2组;正值= 20,负值=30。它们也可以基于特征B细分为另外2组;B阳性= 15,B阴性=35。 现在,我具有Par1所有访问中所有受试者的值。在可交换性的假设下,如果可以,我是否可以在Par1使用置换测试的水平之间进行比较: -将接受药物治疗的受试者与接受V2安慰剂治疗的受试者进行比较? -将具有特征A的对象与具有V2的特征B的对象进行比较? -比较在V2具有特征A的对象与在V3具有特征A的对象? -在哪种情况下,这种比较是无效的,并且违反了可交换性的假设?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

3
Neyman-Pearson引理能适用于简单的null和Alternative不属于同一分布族的情况吗?
当简单的null和简单的替代项不属于同一分布族时,是否可以适用Neyman-Pearson引理?从它的证明,我不明白为什么不能。 例如,当简单null为正态分布而简单替代为指数分布时。 当两者都属于不同的分布族时,似然比检验是否是对复合零值进行测试的好方法? 谢谢并恭祝安康!

1
两个独立随机变量的乘积
我有大约1000个值的样本。这些数据是从两个独立的随机变量的乘积获得的ξ∗ψξ∗ψ\xi \ast \psi 。所述第一随机变量具有均匀分布ξ∼U(0,1)ξ∼U(0,1)\xi \sim U(0,1)。第二随机变量的分布未知。如何估算第二个(ψψ \psi )随机变量的分布?

1
为什么我们要稳定方差?
在阅读Kaggle Essay Eval方法时,我遇到了方差稳定化转换。他们使用方差稳定化变换对kappa值进行变换,然后取平均值,然后将其变换回去。即使阅读了我无法理解的关于方差稳定化变换的Wiki,为什么我们实际上仍能稳定方差呢?我们从中获得什么好处?

3
有关统计随机性的一些问题
从维基百科的统计数据来看: 全局随机性和局部随机性是不同的。大多数随机性的概念都是全局性的,因为它们是基于“从长远来看”序列看起来是真正随机的,即使某些子序列看起来不是随机的。例如,在一个足够长的“真正”随机数字序列中,很可能会有很长的零序列,但总的来说,该序列可能是随机的。局部随机性是指这样的想法,即可能存在最小序列长度,其中随机分布是近似的。相同数字的长距离延伸,即使是由“真正的”随机过程生成的数字,也将减少样本的“局部随机性”(对于10,000位数的序列,它可能仅是局部随机的;小于1,000的序列可能不会出现随机性例如)。 因此没有证明表现出模式的序列不是统计上随机的。根据Ramsey理论的原理,足够大的物体必须包含给定的子结构(“不可能完全混乱”)。 我不太明白这两个句子的含义。 第一句话是否意味着某事物使序列在较长的长度上局部随机,而不是在较短的长度上局部随机? 括号内的示例如何工作? 第二句话是否意味着不能证明具有某种模式的序列不是统计上随机的?为什么? 谢谢


1
什么是“目标最大可能性期望”?
我正在尝试了解Mark van der Laan的一些论文。他是伯克利大学的理论统计学家,致力于解决与机器学习显着重叠的问题。对我来说(除深层数学运算之外)一个问题是,他经常最终会使用完全不同的术语来描述熟悉的机器学习方法。他的主要概念之一是“目标最大可能性期望”。 TMLE用于分析非对照实验中的删失观测数据,即使存在混杂因素也可以进行效果评估。我强烈怀疑许多相同的概念在其他领域以其他名称存在,但是我对它的理解还不够深入,无法直接将其与任何事物匹配。 尝试将差距缩小到“计算数据分析”的方法是: 进入数据科学时代:目标学习和统计与计算数据分析的集成 这里是统计学家的简介: 基于目标最大似然的因果推断:第一部分 从第二个开始: 在本文中,我们针对多个时间点干预的因果效应开发了一种特定的针对性最大似然估计器。这涉及使用基于损失的超级学习来获得G计算公式的未知因子的初始估计,然后将目标参数特定的最佳波动函数(最不利的参数子模型)应用于每个估计因子,用最大似然估计来估计波动参数,并迭代初始因子的此更新步骤,直到收敛为止。这个迭代目标最大似然更新步骤使得因果效应的最终估计量在初始估计量是否一致的情况下也是一致的,因此具有两倍的鲁棒性,或最佳波动函数的估计值是一致的。如果正确地指定了因果图中所介入的节点的条件分布,则可以正确地指定最佳波动函数。 用他的术语来说,“超级学习”是具有理论上合理的非负加权方案的整体学习。但是他的意思是“将目标参数特定的最佳波动函数(最不利的参数子模型)应用于每个估计因子”。 或将其分为三个不同的问题,TMLE在机器学习中是否具有并行性?什么是“最不利的参数子模型”?其他领域的“波动函数”是什么?

2
Wolfram Mathworld是否会错误地描述具有概率密度函数的离散概率分布?
通常,使用概率质量函数(PMF)描述离散变量的概率分布: 当使用连续随机变量时,我们使用概率密度函数(PDF)而不是概率质量函数来描述概率分布。 - 深度学习的古德费洛,Bengio和库维尔 但是,Wolfram Mathworld使用PDF来描述离散变量的概率分布: 这是一个错误吗?还是没关系?

2
不独立于样本分布的统计示例?
这是维基百科上统计的定义 更正式地说,统计理论将统计量定义为样本的函数,其中函数本身与样本的分布无关。也就是说,可以在实现数据之前说明功能。统计信息一词既用于函数,也用于给定样本上的函数值。 我想我对这个定义大体上了解,但是我不能弄清函数独立于样本分布的那部分。 我到目前为止对统计的理解 一个样本是一组的一些数目的独立的实现中的,同分布与分布F(iid)的随机变量(10层的实现一个20面公平骰子,一个六面公平骰子的5个辊100米的实现的一个辊,从人口中随机抽取100个人)。 一个函数,其域就是该集合,其范围是实数(或者它可以产生其他事物,例如矢量或其他数学对象……)将被视为统计信息。 当我想到示例时,均值,中位数,方差在这种情况下都是有意义的。它们是一组实现的函数(来自随机样本的血压测量)。我还可以看到如何将线性回归模型视为统计yi=α+β⋅xiyi=α+β⋅xiy_{i} = \alpha + \beta \cdot x_{i} -这不仅是一组实现上的函数吗? 我感到困惑的地方 假设我从上面的理解是正确的,那么我将无法理解某个函数可能与样本分布无关的地方。我一直在想一个例子来理解它,但是没有运气。任何见解将不胜感激!

3
如果
题 如果X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)是IID,则计算E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right),其中T=∑iXiT=∑iXiT = \sum_i X_i。 尝试:请检查以下是否正确。 让我们说,我们采取的这些条件期望使得总和 ∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i \mid T \right) = \mathbb{E}\left( \sum_i X_i \mid T \right) = T . \end{align} 这意味着每个E(Xi∣T)=TnE(Xi∣T)=Tn\mathbb{E}\left( X_i \mid T \right) = \frac{T}{n}因为X1,…,XnX1,…,XnX_1,\ldots,X_n是IID。 因此,E(X1∣T)=TnE(X1∣T)=Tn\mathbb{E}\left( X_1 \mid T \right) = \frac{T}{n}。这是对的吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.