Questions tagged «frequentist»

在常推论方法中,通过统计程序在假定已生成数据的过程的假设长期重复中的性能来评估统计程序。

6
贝叶斯与惯常论者对概率的解释
有人能很好地概括一下贝叶斯方法和频率论方法之间的差异吗? 据我了解: 经常性的观点认为,数据是具有特定频率/概率(定义为事件的次数相对于试验次数接近无穷大)的可重复的随机样本(随机变量)。基本参数和概率在此可重复过程中保持恒定,并且变化是由于的变化而不是概率分布(对于某些事件/过程固定的)所致。XnXnX_n 贝叶斯观点认为,数据是固定的,而某个事件的频率/概率可能会发生变化,这意味着分布的参数会发生变化。实际上,您获得的数据会更改参数的先前分布,该参数会针对每组数据进行更新。 在我看来,频率论者的方法似乎更实用/合乎逻辑,因为事件具有特定概率且变异在我们的采样中似乎是合理的。 此外,大多数研究数据分析通常是采用常识性方法进行的(即置信区间,具有p值的假设检验等),因为它很容易理解。 我只是想知道是否有人可以简要介绍一下对贝叶斯方法与频率论方法的解释,包括贝叶斯统计量的频率因子p值和置信区间。另外,可以理解其中一种方法优于另一种方法的具体示例。


5
像贝叶斯那样思考,像常客一样进行检查:这是什么意思?
我正在查看有关数据科学课程的一些演讲幻灯片,可以在这里找到: https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf 不幸的是,我无法观看此讲座的视频,并且在幻灯片上的某个位置,演示者具有以下文本: 一些关键原则 像贝叶斯一样思考,像常客一样检查(和解) 有人知道这实际上意味着什么吗?我觉得从这可以收集到关于这两种思想流派的深刻见解。

8
我应该先教贝叶斯统计还是常客统计?
我正在帮助正在读中学的男孩们了解统计学,并且我正在考虑从一些简单的例子开始,而不必理会理论上的一些内容。 我的目标是给他们一种最直观但最有建设性的方法,以从头开始学习统计学,以激发他们对进一步追求统计学和定量学习的兴趣。 不过,在开始之前,我有一个特别的问题,它具有非常普遍的含义: 我们是否应该开始使用贝叶斯或常客制框架教授统计学? 到处进行研究,我发现一种常见的方法是从对常客统计学的简要介绍开始,然后再深入讨论贝叶斯统计(例如Stangl)。

5
置信区间说明精度(如果有的话)是什么?
Morey等人(2015年)认为,置信区间具有误导性,并且与理解它们有关。其中,他们将精度谬误描述如下: 精度谬误 置信区间的宽度表示我们对参数知识的精度。狭窄的置信区间显示精确的知识,而宽的置信误差则显示不精确的知识。 估计的精度和置信区间的大小之间没有必要的联系。看到这种情况的一种方法是,想象两个研究人员(一名高级研究员和一名博士生)正在分析实验中参与者的数据。为了使博士生受益,这项高级研究人员决定将参与者随机分为两组,每组25人,这样他们就可以分别分析一半的数据集。在随后的会议上,有一个两股另一个自己学生的牛逼置信区间的平均值。博士生的95 % CI为52 ± 2,而高级研究员的95 % CI为52 ± 2。505050252525Ťtt95 %95%95\%52 ± 252±252 \pm 295 %95%95\%CI为。53±453±453 \pm 4 资深研究员指出,他们的结果大致上是一致的,他们可以使用各自两个点估计值的均等加权平均值作为真实平均值的总体估计。52.552.552.5 但是,这名博士生认为,这两种方法的权重不应平均分配:她指出自己的CI的宽度是后者的一半,并且认为自己的估算更为准确,因此应加权更大。她的顾问指出,这是不正确的,因为对两种方法进行加权加权后得出的估算值将不同于对整个数据集进行分析得出的估算值,该估算值必须为。博士生的错误是假设CI直接表示数据后精度。52.552.552.5 上面的示例似乎具有误导性。如果我们将一个样本随机分为两半,那么我们期望样本均值和标准误都接近。在这种情况下,使用加权平均值(例如,通过反误差加权)与使用简单算术平均值之间应该没有任何区别。但是,如果估计值不同并且其中一个样本的误差明显更大,则可能表明此类样本存在“问题”。 显然,在上面的示例中,样本大小相同,因此通过均值的平均值“合并”数据与整个样本的均值相同。问题在于,整个示例遵循的逻辑不明确,即首先将样本分为几部分,然后再重新合并以进行最终估计。 该示例可以重新措辞以得出完全相反的结论: 研究人员和学生决定将其数据集分为两半,并进行独立分析。之后,他们比较了自己的估计,似乎样本意味着他们计算出的差异很大,而且学生的估计的标准误也更大。该学生担心这可能会暗示其估计精度存在问题,但是研究人员暗示,置信区间和精度之间没有联系,因此这两个估计值都是可信赖的,并且可以发布其中的任何一个(随机选择),作为他们的最终估计。 ttt x¯±c×SE(x)x¯±c×SE(x) \bar x \pm c \times \mathrm{SE}(x) ccc 所以我的问题是: 精确谬论真的是谬论吗?置信区间对精度有何评价? Morey,R.,Hoekstra,R.,Rouder,J.,Lee,M.和Wagenmakers,E.-J. (2015)。将置信度置入置信区间的谬误。心理公告与评论,1-21。https://learnbayes.org/papers/confidenceIntervalsFallacy/

5
如何在机器学习中处理分层/嵌套数据
我将用一个例子来解释我的问题。假设您要根据以下属性预测个人的收入:{年龄,性别,国家/地区,城市}。你有一个像这样的训练数据集 train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age Gender Income 1 1 1 1 23 M 31 2 1 1 1 48 F 42 3 1 1 2 62 M 71 4 …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


3
Frequentist和Bayesian在“可能性”的定义上有什么区别吗?
有些资料说似然函数不是条件概率,有些则说是。这让我很困惑。 根据我所见的大多数资料,给定样本,具有参数的分布的可能性应该是概率质量函数的乘积:θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) 例如,在Logistic回归中,我们使用优化算法来最大化似然函数(最大似然估计),以获得最优参数,从而获得最终的LR模型。给定我们假设彼此独立的训练样本,我们希望最大化概率乘积(或联合概率质量函数)。这对我来说似乎很明显。nnn 根据“ 可能性,条件概率和失败率之间的关系 ”,“可能性不是概率,也不是条件概率”。它还提到:“仅在贝叶斯对似然性的理解中,即,如果假设是随机变量,那么似然性就是条件概率。”θθ\theta 我读到了关于在常客和贝叶斯之间对待学习问题的不同观点。 根据消息来源,对于贝叶斯推断,我们具有先验,似然性,并且我们希望使用贝叶斯定理获得后验:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} 我不熟悉贝叶斯推理。为什么P(X|θ)P(X|θ)P(X|\theta),其是在它的参数条件所观察到的数据的分发,也被称为可能性有多大?在Wikipedia中,它说有时写成L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta)。这是什么意思? Frequentist和Bayesian对可能性的定义之间有区别吗? 谢谢。 编辑: 解释贝叶斯定理的方法有多种-贝叶斯定理和惯常论的解释(请参阅:贝叶斯定理-维基百科)。

4
边缘情况下精度和召回率的正确值是多少?
精度定义为: p = true positives / (true positives + false positives) 对不对,作为true positives和false positives做法0,精度接近1? 召回相同的问题: r = true positives / (true positives + false negatives) 我目前正在实施统计测试,需要计算这些值,有时分母为0,我想知道在这种情况下应返回哪个值。 PS:请原谅,不恰当的标签,我想用recall,precision和limit,但我不能创造新的标签呢。
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 



2
为什么最大似然估计被认为是一种频繁使用的技术
对我来说,频繁统计数据就是尝试做出对所有可能样本均有利的决策的代名词。即,常客决策规则应始终尝试使常客风险最小化,这取决于损失函数和自然的真实状态:δδ\deltaLLLθ0θ0\theta_0 Rfreq=Eθ0(L(θ0,δ(Y))Rfreq=Eθ0(L(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) 最大似然估计与频繁发生者风险如何联系?鉴于这是常客使用的最常用的点估计技术,因此必须存在某种联系。据我所知,最大似然估计比常客风险的概念还早,但是仍然必须存在某种联系,为什么还有很多人会认为这是常客风险的技术? 我发现的最接近的联系是 “对于满足弱规律性条件的参数模型,最大似然估计量约为minimax” Wassermann,2006,p。201 “ 公认的答案或者将最大似然点估计与较强的常客风险联系起来,或者提供常客推断的替代形式定义,表明MLE是常客推断技术。

2
如果似然性原则与频繁出现的可能性发生冲突,那么我们是否丢弃其中之一?
在最近发表在这里的评论中,有一位评论者指向拉里·瓦瑟曼(Larry Wasserman)的博客,他指出(没有任何消息来源),频繁推断与似然原理相冲突。 似然原理简单地说,产生相似似然函数的实验应产生相似的推论。 这个问题分为两部分: 频繁推断的哪些部分,风格或派别特别违反似然性原则? 如果发生冲突,我们是否必须丢弃其中一个?如果是这样,那是哪一个?我会为就事论事表明,如果我们要丢弃的东西那么我们应该抛弃频率论者推断其冲突的部分,因为黑客和罗亚尔使我确信,可能性的原则是不言自明的。

3
贝叶斯统计方法真的比行为统计的传统(频率)统计方法有所改进吗?
在参加会议时,贝叶斯统计的倡导者为评估实验结果做出了一些努力。它被吹捧为比真实的统计数据对真实的发现(更少的误报)更加敏感,适当和选择性更大。 我已经对该主题进行了一些探索,到目前为止,我对使用贝叶斯统计数据的好处深信不疑。但是,贝叶斯分析被用来驳斥达里尔·贝姆支持预知的研究,因此,我仍然对贝叶斯分析如何使我自己的研究受益会保持好奇。 因此,我对以下几点感到好奇: 贝叶斯分析与常客分析的力量 每种分析类型对1型错误的敏感性 分析复杂性(贝叶斯似乎更复杂)与收益之间的权衡。传统的统计分析非常简单,并具有完善的得出结论的指导原则。简单性可以看作是一种好处。那值得放弃吗? 感谢您的见解!

4
贝叶斯方法何时比频率论者更可取?
我真的很想学习贝叶斯技术,所以我一直在努力教自己一些知识。但是,我很难知道何时使用贝叶斯技术比频频方法具有优势。例如:我在文献中已经看到一些关于如何使用信息先验,而另一些如何使用非信息先验的信息。但是,如果您使用的是非信息性先验(这似乎真的很普遍?),并且您发现后验分布是一个beta分布...难道您不只是在开始时就适合一个beta分布并称为好吗 我看不出如何构造一个不会告诉您任何事情的先验发行版……可以,真的告诉您什么吗? 事实证明,我在R中使用的某些方法混合使用了贝叶斯方法和贝叶斯方法(作者承认这有些矛盾),我什至无法辨别贝叶斯的组成部分。除了分布拟合,我什至无法弄清楚如何使用贝叶斯方法。有“贝叶斯回归”吗?那会是什么样?我能想像的是,一遍又一遍地猜测基础分布,而频率论者则在思考数据,观察数据,观察泊松分布并运行GLM。(这不是批评……我真的不明白!) 所以..也许一些基本的例子会有所帮助?而且,如果您知道一些像我这样的真正初学者的实用参考资料,那也将非常有帮助!

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.