Questions tagged «history»

有关统计历史的问题。

6
我怎么能发现正态分布?
什么是正态分布的第一个推导,您能否重现该推导并在其历史背景下进行解释? 我的意思是,如果人类忘记了正态分布,那么我最有可能重新发现它的方式是什么,最可能的推导是什么?我猜想最初的推导一定是作为尝试寻找快速方法来计算基本离散概率分布(例如二项式)的副产品而来的。那是对的吗?

1
R中混合模型公式中随机效应的威尔金森式表示法的起源,例如(1 | id)
R中的模型公式,例如 y ~ x + a*b + c:d 基于所谓的Wilkinson表示法:Wilkinson和Rogers 1973,用于方差分析的阶乘模型的符号描述。 本文没有讨论混合模型的符号(那时可能还不存在)。那么R中的混合模型公式lme4以及相关程序包中使用了什么,例如 y ~ x + a*b + c:d + (1|school) + (a*b||town) 来自?谁是第一次引入它们,何时引入?是否有针对他们的“ Wilkinson表示法”之类的商定术语?我专门指的是 (model formula | grouping variable) (model formula || grouping variable)


2
从'69的数据中进行一般学习的最新状态
我试图了解1969年著名的Minsky和Papert所著的“ Perceptrons”的上下文,这对神经网络至关重要。 据我所知,除感知器外,没有其他通用的有监督学习算法:决策树仅在70年代后期才开始真正变得有用,随机森林和SVM都是90年代。似乎已经知道折刀法了,但k-cross验证(70s)或bootstrap(1979?)还不知道。 维基百科说,尽管上世纪40年代首次尝试描述混合理论,但内曼-皮尔森(Neyman-Pearson)和费舍尔(Fisher)的经典统计框架仍存在分歧。 因此,我的问题是:解决根据数据进行预测的一般问题的最新方法是什么?


4
根据统计信息做出错误决策的战争故事?
我认为可以说统计学是一门应用科学,因此在计算平均值和标准差时,是因为有人希望根据这些数字做出一些决策。 作为一名出色的统计学家,我希望能够“感知”何时可以信任样本数据,以及何时某些统计测试完全歪曲了我们感兴趣的真实数据。成为对分析感兴趣的程序员大数据集我正在学习一些统计数据和概率论,但我无法摆脱这种this的感觉,即我看过的所有书都像是政客,登上舞台,讲了很多话,然后追加演讲结束时的以下免责声明: 现在,我并不是说这是好事还是坏事,但是数字表明这很好,所以无论如何您都应该投票支持我。 也许您明白了,但您可能没有,这是一个问题。我该去哪里找统计学家的战争故事,而他们的决策是基于某些统计信息的,后来又证明是完全错误的?

1
哪些统计方法是过时的,应该从教科书中省略?[关闭]
按照目前的情况,这个问题并不适合我们的问答形式。我们希望答案会得到事实,参考或专业知识的支持,但是这个问题可能会引起辩论,争论,民意调查或扩展讨论。如果您认为此问题可以解决并且可以重新提出,请访问帮助中心以获取指导。 6年前关闭。 在回答有关二项式比例的置信区间的问题时,我指出了这样一个事实,即正态逼近是一种不可靠的方法,是一种过时的方法。尽管可能会争论说将其作为有关什么是适当方法的一课的一部分,但不应将其作为方法来讲授。 还有哪些其他“标准”统计方法已经过了使用期限,并且应在以后的教科书版本中省略(从而为有用的思想留出空间)?

1
Karl Pearson是如何得出卡方统计量的?
培生(Pearson)是如何在1900年得出以下培生(Pearson)卡方统计量的? K=∑(Oij−Eij)2EijK=∑(Oij−Eij)2Eij K = \sum \frac{(O_{ij} -E_{ij})^2}{E_{ij}} 即 K∼χ2K∼χ2 K \sim \chi^2 他是否考虑过卡方并设计度量(自下而上的方法),还是他设计了统计量,后来证明它遵循卡方分布(自上而下)?KKK 我想知道为什么他选择了这种特定形式,而不选择或,以及他为什么将平方除以分母。∑(Oij−Eij)2∑(Oij−Eij)2\sum(O_{ij} -E_{ij})^2∑|Oij−Eij|∑|Oij−Eij|\sum|O_{ij} -E_{ij}|

2
自动编码器神经网络的起源是什么?
我在Google,Wikipedia,Google Scholar等上进行了搜索,但找不到Autoencoders的来源。也许这是一个逐渐发展的概念,不可能追溯到一个清晰的起点,但是我仍然想对它们的主要发展步骤进行一些总结。 Ian Goodfellow,Yoshua Bengio和Aaron Courville的深度学习书中有关自动编码器的章节说: 几十年来,自动编码器的思想已成为神经网络历史的一部分(LeCun,1987; Bourlard和Kamp,1988; Hinton和Zemel,1994)。传统上,自动编码器用于降维或特征学习。 此演示文稿由帕斯卡尔·文森特说: 实际上,使用经典自动编码器进行降噪的方法要早得多(LeCun,1987; Gallinari等,1987),作为Hopfield网络的替代方法(Hopfield,1982)。 这似乎暗示“经典自动编码器”在此之前存在:LeCun和Gallinari使用了它们,但并未发明它们。1987年之前,我看不到“经典自动编码器”的踪迹。 有任何想法吗?

3
beta分布从何而来?
我确定这里的每个人都已经知道,Beta分布的PDF 由X〜乙(一,b )X∼B(a,b)X \sim B(a,b) F(x )= 1B (a ,b )Xa − 1(1 − x )b − 1f(x)=1B(a,b)xa−1(1−x)b−1f(x) = \frac{1}{B(a,b)}x^{a-1}(1-x)^{b-1} 我一直在各地寻找有关该公式起源的解释,但我找不到它。我在Beta发行版上找到的每篇文章似乎都给出了这个公式,说明了它的一些形状,然后直接讨论其关键时刻。 我不喜欢使用无法推导和解释的数学公式。对于其他分布(例如伽马或二项式),有一个明确的推导可以学习和使用。但是我找不到类似的东西用于Beta发行版。 所以我的问题是:该公式的起源是什么?在最初开发的任何上下文中,如何从第一性原理中衍生出来? [为澄清起见,我不是在问如何在贝叶斯统计中使用Beta分布,或者在实践中直觉地意味着什么(我已经读过棒球示例)。我只想知道如何导出PDF。以前有一个问题提出了类似的问题,但是(我认为是错误的)它被标记为另一个未解决该问题的问题的重复,因此到目前为止,我在这里找不到任何帮助。] 编辑2017-05-06:谢谢大家的提问。我想对我想要的东西有一个很好的解释,当我向一些课程讲师问这个问题时,我得到了以下答案之一: “我想人们可以将正常密度推导为n个事物的总和除以sqrt(n)的极限,并且可以从事件以恒定速率发生的想法推导泊松密度。类似地,为了推导Beta密度,您将需要某种概念来确定什么使得Beta分布独立于密度,并且在逻辑上先于密度。” 因此,注释中的“从头开始”的想法可能最接近我要寻找的想法。我不是数学家,但是我使用能够推导的数学感到最自在。如果起源对我来说太先进了,那就去吧,但是如果不是,我想了解它们。

3
罗纳德·费舍尔的主要统计贡献是什么?
理查德·道金斯(Richard Dawkins)将罗纳德·费舍尔(Ronald Fisher)描述为 “现代统计和实验设计之父”,费舍尔的维基百科传记中引用了这句话。安德斯·霍尔德( Anders Hald)也在他的《数理统计史》一书中称他为 “几乎单枪匹马为现代统计科学奠定基础的天才” 。 我只是想知道他到底做了什么,所以人们给予他如此高的评价?



1
在“随机森林”中,为什么在节点级别而不是树级别上选择特征的随机子集?
我的问题:为什么随机森林会考虑特征的随机子集,以便在每棵树的节点级别而不是树级别进行拆分? 背景:这是一个历史问题。田锦镐(Tin Kam Ho)于1998年发表了有关构建“决策森林”的论文,该文章随机选择了用于生长每棵树的特征子集。几年后,在2001年,Leo Breiman发表了他的开创性的《随机森林》论文,其中特征子集是随机的。在每个树内的每个节点上选择,而不是在每个树上选择。尽管Breiman引用了Ho,但他没有具体说明从树级到节点级随机特征选择的过程。 我想知道是什么推动了这一发展。似乎在树级别选择特征子集仍会完成树的所需解相关。 我的理论:我在其他地方都没有看到过这种说法,但是就获得特征重要性的估计而言,随机子空间方法似乎效率较低。为了获得重要程度的估计值,对于每棵树,将特征一一随机排列,并记录袋外观察结果的错误分类增加或错误增加。因这种随机排列而导致错误分类或错误增加的变量很高,是那些具有最高重要性的变量。 如果我们用随机子空间的方法,每棵树,我们只考虑的功能。可能要花几棵树才能考虑所有预测变量。另一方面,如果我们在每个节点上考虑特征的不同子集,则在更少的树之后我们将考虑每个特征更多次,从而使我们对特征重要性的估计更加可靠。mmmppppppmimim_ippp 到目前为止,我所看的是:到目前为止,我已经阅读了Breiman的论文和Ho的论文,并进行了广泛的在线搜索以比较方法,而没有找到确切的答案。请注意,之前曾问过类似的问题。通过将我的推测/工作纳入可能的解决方案,这个问题进一步扩大了。我会对比较这两种方法的任何答案,相关引文或模拟研究感兴趣。如果没有结果,我计划比较两种方法来运行自己的仿真。

2
为什么托马斯·贝叶斯(Thomas Bayes)觉得贝叶斯定理如此具有挑战性?
这更多是关于科学史的问题,但我希望这里成为话题。 我读到托马斯·贝叶斯(Thomas Bayes)仅设法发现了统一先验的特殊情况下的贝叶斯定理,即使如此,他显然仍在努力。 考虑到一般贝叶斯定理在现代处理中是多么琐碎,为什么它对当时的贝叶斯和其他数学家提出了挑战?为了进行比较,艾萨克·牛顿的《自然哲学的数学原理》在贝叶斯的主要作品出版36年后出版。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.