Questions tagged «aic»

AIC代表“赤池信息准则”,这是一种使用受罚可能性从一类模型中选择最佳模型的技术。较小的AIC意味着更好的模型。

2
在R中“手工”计算AIC
我试过在R中计算线性回归的AIC,但未使用AIC函数,如下所示: lm_mtcars <- lm(mpg ~ drat, mtcars) nrow(mtcars)*(log((sum(lm_mtcars$residuals^2)/nrow(mtcars))))+(length(lm_mtcars$coefficients)*2) [1] 97.98786 但是,AIC给出了不同的值: AIC(lm_mtcars) [1] 190.7999 有人可以告诉我我在做什么错吗?

1
是否可以推荐Burnham-Anderson关于多模型推理的书?
出于最近R预测包中的默认模型选择统计从AIC更改为AICc的动机,我很好奇后者在任何地方都适用的情况下是否确实适用。在这方面,我有一系列问题,这是第一个。 我知道,Burnham和Anderson(非统计学家)在(1)中所著的著名著作(在此处进行了总结)建议采用随处可见的AICc来代替AICc 。有时候,年轻的统计学家会不加批判地提及这本书,例如,参见Rob Hyndman对本博客文章的评论,但统计学家Brian Ripley提出了一种截然不同的建议: “Burnham and Anderson (2002) is a book I would recommend people NOT read until they have read the primary literature. I see no evidence that the authors have actually read Akaike’s papers." [quoted from [AIC MYTHS AND MISUNDERSTANDINGS][4] by Burnham-Anderson] 确实是根据里普利(Ripley)在AIC和相关理论上所写的内容,应认真对待警告。我既有大量的Akaike自己的论文集,也有Burnham-Anderson的书。我最终将对本书的质量有自己的看法,但这也将有助于了解统计人员(无论年龄大小)对此的看法。特别是,是否有统计学教授(或其他统计学的优秀学生)明确推荐这本书作为使用AIC进行模型选择的知识的有用总结? 参考: (1)Burnham,KP&Anderson,DR模型选择和多模型推理:实用的信息理论方法Springer,2002年 PS。在回答最近的“答案”时指出“ Burnham博士是统计学博士”时,我想补充一下。是的,他本人是统计学家,是ASA的会员,并且获得了许多专业奖项,包括ASA的杰出成就奖章。但是谁说他不是?我上面所说的是,作为两位作者,他们不是统计学家,而这本书反映了这一事实。

5
为什么使用AIC应用模型选择会给我变量的不重要的p值
我对AIC有一些疑问,希望您能为我提供帮助。我根据数据对AIC应用了模型选择(向后或向前)。并且某些选定变量的p值> 0.05。我知道有人说我们应该选择基于AIC而不是p值的模型,因此看来AIC和p值是两个不同的概念。有人可以告诉我有什么区别吗?到目前为止,我的理解是: 对于使用AIC的向后选择,假设我们有3个变量(var1,var2,var3),并且此模型的AIC为AIC *。如果排除这三个变量中的任何一个不会导致AIC明显低于AIC *(就df = 1的方差分布而言),那么我们可以说这三个变量是最终结果。 在三变量模型中,变量(例如var1)的有效p值表示该变量的标准化效应量显着不同于0(根据Wald或t检验)。 这两种方法之间的根本区别是什么?如果在我的最佳模型中(通过AIC获得)某些变量的p值不显着,该如何解释?

2
AIC,BIC和GCV:在惩罚回归方法中做出决策的最佳方法是什么?
我的一般理解是AIC处理模型的拟合优度和模型的复杂性之间的权衡。 一个我C= 2 k - 2 l n (L )AIC=2k−2ln(L)AIC =2k -2ln(L) ķkk =模型中的参数数量 大号LL =可能性 贝叶斯信息准则BIC与AIC密切相关.AIC对参数数量的惩罚程度不如BIC。我可以看到这两个在历史上到处都有使用。但是广义交叉验证(GCV)对我来说是新的。GCV如何与BIC或AIC相关?这些标准如何一起或单独用于在像ridge这样的面板回归中选择惩罚项? 编辑: 这是一个思考和讨论的示例: require(lasso2) data(Prostate) require(rms) ridgefits = ols(lpsa~lcavol+lweight+age+lbph+svi+lcp+gleason+pgg45, method="qr", data=Prostate,se.fit = TRUE, x=TRUE, y=TRUE) p <- pentrace(ridgefits, seq(0,1,by=.01)) effective.df(ridgefits,p) out <- p$results.all par(mfrow=c(3,2)) plot(out$df, out$aic, col = "blue", type = "l", ylab = …

2
变量选择的方法相互冲突:AIC,p值或两者?
据我了解,基于p值的变量选择(至少在回归上下文中)存在很大缺陷。出于相似的原因,基于AIC(或类似方法)的变量选择似乎也被认为存在缺陷,尽管这似乎还不清楚(例如,请参见我的问题和有关此主题的一些链接:“逐步模型选择”到底是什么?)。 但是说您确实选择了这两种方法之一来选择模型中的最佳预测变量集。 Burnham and Anderson 2002(模型选择和多模型推断:一种实用的信息理论方法,第83页)指出,不应将基于AIC的变量选择与基于假设检验的变量选择混合:“对原假设和信息理论方法的检验应不能一起使用;它们是非常不同的分析范例。” 另一方面,Zuur等。2009年(《具有生态学扩展的混合效应模型,R》第541页)似乎主张使用AIC首先找到最佳模型,然后使用假设检验执行“微调”:“缺点是AIC可能比较保守。 ,一旦AIC选择了最佳模型,您可能需要进行一些微调(使用从方法一获得的假设检验)。” 您会看到这如何使两本书的读者对采用哪种方法感到困惑。 1)这些只是统计思维的不同“阵营”和统计学家之间的分歧话题吗?这些方法之一现在是否只是简单地“过时”,但在撰写本文时被认为适当?还是从一开始就是一个明显的错误? 2)在这种情况下是否适合使用这种方法?例如,我来自生物学背景,我经常试图确定哪些变量似乎影响或推动了我的反应。我经常有很多候选的解释变量,我试图找出哪些是“重要的”(相对而言)。另外,请注意,候选预测变量的集合已经减少到被认为具有某些生物学相关性的变量,但是它可能仍然包括5-20个候选预测变量。

4
auto.arima()是否识别出模型?
我一直在尝试学习和应用ARIMA模型。我一直在阅读Pankratz撰写的关于ARIMA的精彩文章- 使用单变量Box-Jenkins模型进行预测:概念和案例。在本文中,作者在选择ARIMA模型时特别强调了简约原则。 我开始使用R包预测中的auto.arima()函数。这是我所做的,我模拟了ARIMA,然后应用。以下是两个示例。正如您在两个示例中看到的那样,清楚地确定了许多人认为不简约的模型。尤其是在示例2中,在该示例中标识ARIMA(3,0,3)的时间实际上是ARIMA(1,0,1)就足够了,而且是简约的。auto.arima()auto.arima()auto.arima() 以下是我的问题。我将不胜感激任何建议。 是否有关于何时使用/修改通过自动算法识别的模型的指南auto.arima()? 仅使用AIC(我认为auto.arima()使用)来识别模型是否有任何困难? 可以建立一个简约的自动算法吗? 顺便说一下,我auto.arima()只是作为一个例子。这将适用于任何自动算法。 以下是示例1: set.seed(182) y <- arima.sim(n=500,list(ar=0.2,ma=0.6),mean = 10) auto.arima(y) qa <- arima(y,order=c(1,0,1)) qa 以下是的结果auto.arima()。请注意,所有系数都不重要。即值<2。Ťtt ARIMA(1,0,2) with non-zero mean Coefficients: ar1 ma1 ma2 intercept 0.5395 0.2109 -0.3385 19.9850 s.e. 0.4062 0.4160 0.3049 0.0878 sigma^2 estimated as 1.076: log likelihood=-728.14 AIC=1466.28 AICc=1466.41 BIC=1487.36 以下是arima()使用ARIMA(1,0,1)顺序常规运行的结果 Series: …

1
AIC / BIC:排列计数多少个参数?
假设我有一个模型选择问题,我正在尝试使用AIC或BIC评估模型。这是简单的有一些数量模型的实值参数。ķkk 但是,如果我们的模型之一(例如Mallows模型)具有置换,加上一些实值参数而不是实值参数,该怎么办?我仍然可以使模型参数的似然性最大化,例如获得置换和参数。但是,为计算AIC / BIC计入多少个参数?p πππ\pipppππ\pi

2
非嵌套模型选择
似然比检验和AIC都是在两种模型之间进行选择的工具,并且两者均基于对数似然法。 但是,为什么AIC不能使用似然比检验在两个非嵌套模型之间进行选择?

2
了解AIC和Schwarz标准
我正在运行一个物流模型。实际的模型数据集具有100多个变量,但我选择的测试数据集中包含25个变量。在此之前,我还制作了一个具有8-9个变量的数据集。有人告诉我AIC和SC值可以用来比较模型。我观察到,即使变量的p值较低(例如0053),该模型的SC值也较高。据我的直觉,具有变量的显着性水平的模型应该导致较低的SC和AIC值。但这并没有发生。有人可以澄清一下吗?简而言之,我想问以下问题: 变量的数量与SC AIC有关系吗? 我应该专注于p值还是较低的SC AIC值? 降低SC AIC值的典型方法是什么?

1
岭回归的AIC:自由度与参数数量
我想计算岭回归模型的AICc。问题是参数的数量。对于线性回归,大多数人建议参数的数量等于估计系数的数量加上sigma(误差的方差)。 当涉及到岭回归时,我读到帽子矩阵的迹线(自由度(df))仅用作AIC公式中的参数项数(例如,此处或此处)。 它是否正确?我还可以简单地使用df来计算AICc吗?我可以简单地将+1添加到df中以解决误差差异吗?

1
如何在AIC的基础上比较模型?
我们有两个模型使用相同的方法来计算对数似然,并且一个模型的AIC低于另一个模型。但是,AIC较低的人很难解释。 我们在确定是否值得介绍难度时遇到了麻烦,我们使用AIC中的百分比差异来进行判断。我们发现两个AIC之间的差异仅为0.7%,而更复杂的模型的AIC降低了0.7%。 两者之间的低百分比差异是避免使用AIC较低的模型的充分理由吗? 差异百分比是否说明在较简单的模型中丢失了0.7%的信息? 两种模型的结果能否完全不同?

3
简单线性回归,p值和AIC
我知道这个话题在这里之前已经提出过很多次了,但是我仍然不确定如何最好地解释我的回归输出。 我有一个非常简单的数据集,由一列x值和一列y值组成,并根据位置(位置)分为两组。要点看起来像这样 一位同事假设,我们应该将单独的简单线性回归拟合到每个组,我已经使用进行了拟合y ~ x * C(loc)。输出如下所示。 OLS Regression Results ============================================================================== Dep. Variable: y R-squared: 0.873 Model: OLS Adj. R-squared: 0.866 Method: Least Squares F-statistic: 139.2 Date: Mon, 13 Jun 2016 Prob (F-statistic): 3.05e-27 Time: 14:18:50 Log-Likelihood: -27.981 No. Observations: 65 AIC: 63.96 Df Residuals: 61 BIC: 72.66 Df Model: …

1
只要模型基于相同的数据集,您可以比较AIC值吗?
我正在使用Rob Hyndman的预测包在R中进行一些预测。属于包装的纸张可以在这里找到。 在解释了自动预测算法后,作者在相同的数据集上实现了这些算法。但是,在估计了指数平滑和ARIMA模型后,他们做出了我不理解的声明(第17页): 请注意,信息标准不可比较。 我认为使用AIC进行模型选择的优势在于,只要使用相同数据集对AIC值进行估算,我们就可以比较它们。这不正确吗? 因为我计划使用所谓的Akaike权重来组合来自不同模型类(例如指数平滑和ARIMA)的预测(请参阅Burnham和Anderson,2002,有关Akaike权重的讨论),这对我来说尤其有意义。 参考文献 Burnham,KP和Anderson,DR(2002)。模型选择和多模型推理:一种实用的信息理论方法。施普林格出版社。


1
是个根本转变建议?
我的同事想在通过将响应变量提高到(即)的幂后,对一些数据进行分析。 ÿ0.1251818\frac18y0.125y0.125y^{0.125} 我对此感到不舒服,但努力阐明原因。我想不出这种转换的任何机械原理。我以前也从未看过它,我担心它可能会夸大I型错误率或某种程度-但我无力支持这些担忧! 另外,我的同事发现,在AIC比较中,这些转换后的模型优于未转换的模型。这本身是否可以证明其用途合理?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.