在第 他的PRNN的第 34页Brian Ripley评论说:“ AIC被Akaike(1974)命名为“信息准则”,尽管似乎通常认为A代表Akaike。实际上,在介绍AIC统计信息时,Akaike(1974,p.719)解释说:
"IC stands for information criterion and A is added so that similar statistics, BIC, DIC
etc may follow".
将此报价视为1974年的预测,有趣的是,在短短的四年中,Akaike(1977,1978)和Schwarz(1978)提出了两种类型的BIC统计量(贝叶斯统计量)。Spiegelhalter等人。(2002)提出DIC(Deviance IC)的时间更长。尽管Akaike(1974)并没有预测CIC标准的出现,但相信从未考虑过这一点是天真的。它是由Carlos C. Rodriguez在2005年提出的。(请注意,R。Tibshirani和K. Knight的CIC(协方差通胀标准)是另一回事。)
我知道EIC(经验IC)是Monash大学的人们在2003年左右提出的。我刚刚发现了聚焦信息标准(FIC)。有些书将Hannan和Quinn IC称为HIC,请参阅例如本)。我知道应该有GIC(通用IC),而且我刚刚发现了信息投资标准(IIC)。有NIC,TIC等。
我想我可能会覆盖其余的字母,所以我不问序列AIC,BIC,CIC,DIC,EIC,FIC,GIC,HIC,IIC,...的停靠点,或字母表中的哪些字母未被使用或至少被使用过两次(例如,EIC中的E可以表示扩展的或经验的)。我的问题更简单,希望对实际更有用。我是否可以互换使用这些统计信息,而忽略它们所依据的特定假设,它们应适用的特定情况等等?
这个问题部分是由Burnham&Anderson(2001)提出的,其动机是:
...the comparison of AIC and BIC model selection ought to be based on their performance
properties such as mean square error for parameter estimation (includes prediction) and
confidence interval coverage: tapering effects or not, goodness-of-fit issues,
derivation of theory is irrelevant as it can be frequentist or Bayes.
Hyndman等人的专着《指数平滑》的第7章在研究五个替代IC(AIC,BIC,AICc,HQIC,LEIC)在选择最能预测模型(按实测)时的表现时,似乎遵循了BA的建议。通过新提出的错误度量(称为MASE)得出结论,认为AIC通常是更好的选择。(HQIC仅被报告为最佳模型选择器。)
我不确定将所有ICc隐式地视为将它们当作在相同假设下回答一个相同问题的研究活动的有用目的是什么。特别是,我不确定通过在非平稳指数的情况下使用一致准则来确定自回归(Hannan和Quinn为遍历平稳序列推导)的顺序的预测性能是否有用。 Hyndman等人的专着中描述和分析的平滑模型。我在这里想念什么吗?
参考文献:
Akaike,H.(1974),《统计模型识别的新视角》,IEEE Transactions on Automatic Control 19(6),716-723。
Akaike,H.(1977),关于熵最大化原理,在PR Krishnaiah编辑,统计应用,第1卷。27,阿姆斯特丹:北荷兰省,第27-41页。
Akaike,H.(1978),最小AIC程序的贝叶斯分析,统计数学研究所年鉴 30(1),9-14。
Burnham,KP&Anderson,DR(2001)Kullback-Leibler信息作为对生态研究进行强推论的基础,野生动物研究 28,111-119
Hyndman,RJ,Koehler,AB,Ord,JK和Snyder,RD 用指数平滑法进行预测:状态空间方法。纽约:施普林格,2008年
Ripley,BD 模式识别和神经网络。剑桥:剑桥大学出版社,1996年
Schwarz,G.(1978),《估计模型的维数》,《统计年鉴》 6(2),461-464。
Spiegelhalter,DJ,Best,NG,Carlin,BP和van der Linde,A。(2002年),模型复杂度和t的贝叶斯测度(有讨论),《皇家统计学会杂志》。系列B(统计方法) 64(4),583-639。