Questions tagged «history»

有关统计历史的问题。



7
统计中的“大问题”是什么?
数学有其著名的“ 千年问题”(从历史上讲是希尔伯特的23题),这些问题有助于塑造这个领域的方向。 但是,我不知道黎曼假设和P对NP的统计量是多少。 那么,统计中最重要的开放性问题是什么? 编辑添加: 作为我所寻找答案的一般精神(如果不是很具体)的一个示例,我在David Donoho的“ 21世纪数学挑战”会议上找到了灵感来自“希尔伯特23”的演讲:高维度数据分析:维度的诅咒和祝福 因此,一个潜在的答案可能涉及大数据及其重要性,高维数据所面临的统计挑战的类型,以及需要开发的方法或需要回答的问题才能帮助解决问题。
77 history 

2
为什么将岭回归称为“岭”,为什么需要它,当达到无穷大时会发生什么?
岭回归系数估计是使β^Rβ^R\hat{\beta}^R RSS+λ∑j=1pβ2j.RSS+λ∑j=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. 我的问题是: 如果,那么我们看到上面的表达式简化为通常的RSS。如果怎么办?我不理解教科书中有关系数行为的解释。λ=0λ=0\lambda = 0λ→∞λ→∞\lambda \to \infty 为了帮助理解特定术语背后的概念,为什么将该术语称为RIDGE回归?(为什么要使用ridge?)通常/常见回归可能有什么问题,需要引入一个称为ridge回归的新概念? 您的见解会很棒。

5
在没有模拟的情况下,统计学家究竟如何同意使用(n-1)作为总体方差的无偏估计量?
分母的计算公式的分母为:(n − 1 )(n−1)(n-1) s2= ∑ñ我= 1(x一世− x¯)2n − 1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} 我一直想知道为什么。但是,阅读和观看一些有关“为什么”的优质视频似乎是人口方差的良好无偏估计。而n低估了(n - 2 )高估了总体方差。(n − 1 )(n−1)(n-1)ñnn(n − 2 )(n−2)(n-2) 我想知道的是,在没有计算机的时代,这种选择是如何做出的?是否有实际的数学证明来证明这一点?或者,这纯粹是经验和统计学家亲自进行了大量的计算,以得出当时的“最佳解释”? 在19世纪初期,统计学家是如何借助计算机提出这个公式的?手册还是比看得见的更多?



6
Fisher和Neyman-Pearson方法之间进行统计测试的“混合”真的是“不连贯的杂烩”吗?
存在某种思想流派,据此,最广泛的统计检验方法是两种方法之间的“混合”:费舍尔方法和内曼-皮尔森方法;声称,这两种方法是“不兼容的”,因此产生的“混合”是“不相干的杂烩”。我将在下面提供参考书目和一些引号,但就目前而言,在Wikipedia上有关统计假设检验的文章中已经写了很多。在简历上,@ Michael Lew反复提出了这一点(请参见此处和此处)。 我的问题是:为什么声称F和NP方法不兼容,为什么混合方法不连贯?请注意,我至少阅读了六篇反混合论文(请参阅下文),但仍然无法理解问题或论点。还请注意,我不建议讨论F还是NP是否是更好的方法。我也没有提出讨论常客与贝叶斯框架。相反,问题是:如果接受F和NP都是有效且有意义的方法,那么它们的混合到底有什么不好呢? 这是我对情况的了解。Fisher的方法是计算值,并将其作为反对原假设的证据。越小,证据越有说服力。研究人员应该将此证据与他的背景知识相结合,确定其是否足以令人信服,并据此进行研究。(请注意,费舍尔的观点多年来一直在变化,但这似乎是他最终收敛的。)相比之下,内曼·皮尔森的方法是提前选择,然后检查p α p ≤ αppppppαα\alphap ≤ αp≤αp\le\alpha; 如果是这样,则将其称为有意义的,并拒绝零假设(在此,我省略了与当前讨论无关的NP故事的大部分内容)。另请参见@gung在何时使用Fisher和Neyman-Pearson框架中的出色答复。 混合方法是计算值,将其报告(隐式假设值越小越好),如果(通常为),则结果也显着,否则为非显着性。这应该是不连贯的。同时击败两个合法的事情怎么可能是无效的。p ≤ α α = 0.05pppp ≤ αp≤αp\le\alphaα = 0.05α=0.05\alpha=0.05 由于特别不连贯,抗杂交主义者认为报告的普遍做法是,或(甚至),其中总是选择最强的不等式。该论点似乎是:(a)由于没有报告确切的而无法正确评估证据的强度,(b)人们倾向于将不等式中的右手数字解释为并将其视为I型错误。率,那是错误的。我在这里看不到大问题。首先,报告精确的当然是更好的做法,但是没有人真正关心是否为或p < 0.05 p < 0.01 p < 0.001 p « 0.0001 p α p p 0.02 0.03 〜0.0001 0.05 α = 0.05 p ≠ α αpppp < …

13
过去15年的统计领域有哪些突破?
我仍然记得Friedman-Hastie-Tibshirani撰写的《统计年鉴》中关于提振的文章,以及其他作者(包括Freund和Schapire)对相同问题的评论。那时,显然Boosting在许多方面都被视为突破:计算上可行,一种集成方法,具有出色而神秘的性能。大约在同一时间,SVM逐渐成熟,它提供了以坚实的理论为基础并具有大量变体和应用程序的框架。 那是在奇妙的90年代。在过去的15年中,在我看来,很多统计工作都是清理和细化工作,但很少有真正新的观点。 所以我会问两个问题: 我错过了一些革命性的论文吗? 如果没有,您认为有没有新方法可以改变统计推断的观点? 规则: 每个帖子一个答案; 欢迎参考或链接。 PS:我有几个候选人有望取得突破。我稍后再发布。


3
均值,中位数和众数之间的经验关系
对于中等偏斜的单峰分布,我们在均值,中位数和众数之间具有以下经验关系: 这种关系如何派生出来的?(平均数-模式)〜3(平均-中位数)(Mean - Mode)∼3(Mean - Median) \text{(Mean - Mode)}\sim 3\,\text{(Mean - Median)} 在形成这个结论之前,卡尔·皮尔森(Karl Pearson)是否绘制了成千上万个这样的关系,还是在这种关系背后有逻辑上的推理?

2
谁发明了随机梯度下降法?
我正在尝试了解“ 梯度下降”和“ 随机梯度下降”的历史。梯度下降是1847年在柯西(Cauchy)发明的。模拟系统类似的方法。第536–538页有关更多信息,请参见此处。 从那时起,梯度下降方法不断发展,我对它们的历史不熟悉。我特别对随机梯度下降的发明感兴趣。 可以在学术论文中广泛使用的参考。

6
科学家如何找出正态分布概率密度函数的形状?
这可能是一个业余问题,但我对科学家如何提出正态分布概率密度函数的形状感兴趣?基本上让我感到烦恼的是,对于某人而言,正态分布数据的概率函数具有等腰三角形而不是钟形曲线的形状可能更直观,并且您如何向这样的人证明概率密度函数为所有正态分布的数据都呈钟形吗?通过实验?还是通过一些数学推导? 毕竟,我们实际上考虑的是正态分布的数据?遵循正态分布或其他形式的概率模式的数据吗? 基本上我的问题是为什么正态分布概率密度函数具有钟形而不是其他形状?科学家如何通过实验或研究各种数据本身的性质来找出可应用于正态分布的现实场景? 因此,我发现此链接对于解释正态分布曲线的函数形式的推导确实很有帮助,因此回答了“为什么正态分布看起来像它,而没有其他任何东西?”的问题。至少对我来说,是真正令人难以置信的推理。


4
在粒子物理学中接受证据的“ 5 ”阈值的由来?
新闻报道称,欧洲核子研究中心将在明天宣布,希格斯玻色子已通过5个证据得到了实验检测。根据该文章:σσ\sigma 5表示CMS和ATLAS检测器看到的数据不仅仅是随机噪声,而且有99.99994%的概率,并且有0.00006%的概率被蒙蔽了;5是被正式标记为科学“发现”的必要确定性。σσ\sigmaσσ\sigma 这不是很严格,但是似乎可以说物理学家使用标准的“假设检验”统计方法,将设置为,它对应于(两尾)?还是还有其他含义?αα\alpha0.00000060.00000060.0000006z=5z=5z=5 当然,在许多科学中,通常将alpha设置为0.05。这将等效于“ two- ”证据,尽管我从未听说过这种说法。是否有其他领域(除了粒子物理学之外)对α的定义更为严格?有人知道规则如何被粒子物理学所接受的参考吗?σσ\sigmaσσ\sigma 更新:我问这个问题的原因很简单。我的《直觉生物统计学》一书(与大多数统计书籍一样)的一节解释了通常的“ P <0.05”规则的任意性。我想添加一个科学领域的例子,其中值要小得多。但是,如果使用贝叶斯方法(如下面的一些注释所示)实际上使示例更加复杂,那么它就不太合适或需要更多解释。αα\alpha

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.