Questions tagged «model-comparison»

比较两个或多个模型适合一个公共数据集。它可以是“模型选择”过程的一部分。

3
AIC模型比较的先决条件
要使AIC模型比较正常工作,必须满足哪些先决条件? 当我像这样进行比较时,我只是遇到了这个问题: > uu0 = lm(log(usili) ~ rok) > uu1 = lm(usili ~ rok) > AIC(uu0) [1] 3192.14 > AIC(uu1) [1] 14277.29 这样我就证明了log变量的转换usili。但是我不知道在例如因变量不同的情况下是否可以对模型进行AIC比较? 理想的答案应包括先决条件(数学假设)列表。

3
线性混合模型的陷阱
使用线性混合效应模型的主要陷阱是什么?在评估模型的适当性时,需要测试/注意的最重要的事情是什么?比较同一数据集的模型时,要寻找的最重要内容是什么?

3
两个离散傅立叶变换的相似性?
在气候建模中,您正在寻找可以充分描绘地球气候的模型。这包括显示半周期性的模式:诸如厄尔尼诺南方涛动。但是模型验证通常发生在相对短的时间段内,那里有不错的观测数据(近150年)。这意味着您的模型可能会显示正确的模式,但是却是异相的,因此线性比较(如相关性)将无法证明模型运行良好。 离散傅里叶变换通常用于分析气候数据(这里是一个示例),以获取这种循环模式。是否有任何标准度量可以用作验证工具的两个DFT相似性(即模型的DFT与观察值的DFT之间的比较)? 取两个面积归一化DFT中最小值的整数(使用绝对实数值)是否有意义?我认为这将导致一个分数,其中X = 1x∈[0,1]x∈[0,1]x\in[0,1]x=1⟹x=1⟹x=1\implies完全相同的模式,并且x=0⟹x=0⟹x=0\implies完全不同的模式。这种方法的缺点是什么?

5
何时使用多个模型进行预测?
这是一个相当普遍的问题: 我通常发现,在尝试从样本中预测时间序列时,使用多个不同的模型要优于一个模型。有没有好的论文证明模型的组合将胜过单个模型?结合多个模型是否有最佳实践? 一些参考: Hui Zoua,Yuhong Yang “结合时间序列模型进行预测” International Journal of Forecasting 20(2004)69– 84



4
ANOVA比较多个组的平均值与ANOVA比较嵌套模型之间有什么关系?
到目前为止,我已经看到ANOVA以两种方式使用: 首先,在我的介绍性统计文本中,引入了ANOVA作为比较三个或更多组均值的一种方法,是对成对比较的改进,目的是确定一种均值是否具有统计学上的显着差异。 第二,在我的统计学习课文中,我已经看到ANOVA用于比较两个(或多个)嵌套模型,以确定使用模型2预测变量子集的模型1是否同样适合数据,或者是否完整模型2是上乘的。 现在,我认为这两者在某种程度上实际上是非常相似的,因为它们都在使用ANOVA测试,但是从表面上看,它们对我来说似乎完全不同。对于第一个方法,第一个用法比较三个或更多组,而第二个方法只能用于比较两个模型。有人请介意阐明这两种用途之间的联系吗?

2
比较两个线性回归模型
我想比较两个线性回归模型,它们表示在两种不同条件下,mRNA随时间的降解速率。每个模型的数据都是独立收集的。 这是数据集。 时间(小时)日志(处理A)日志(处理B) 0 2.02 1.97 0 2.04 2.06 0 1.93 1.96 2 2.02 1.91 2 2.00 1.95 2 2.07 1.82 4 1.96 1.97 4 2.02 1.99 4 2.02 1.99 6 1.94 1.90 6 1.94 1.97 6 1.86 1.88 8 1.93 1.97 8 2.12 1.99 8 2.06 1.93 12 1.71 …

3
比较计数数据上的回归模型
我最近将4个多元回归模型用于相同的预测因子/响应数据。我适合泊松回归的两个模型。 model.pois <- glm(Response ~ P1 + P2 +...+ P5, family=poisson(), ...) model.pois.inter <- glm(Response ~ (P1 + P2 +...+ P5)^2, family=poisson(), ...) 我使用负二项式回归拟合的两个模型。 library(MASS) model.nb <- glm.nb(Response ~ P1 + P2 +...+ P5, ...) model.nb.inter <- glm.nb(Response ~ (P1 + P2 +...+ P5)^2, ...) 我可以使用统计检验来比较这些模型吗?我一直在使用AIC来衡量合身程度,但AFAIK并不代表实际测试。

1
如何在ARIMA模型的观察值48中加入创新的离群值?
我正在处理数据集。使用一些模型识别技术后,我得出了一个ARIMA(0,2,1)模型。 我使用R detectIO包TSA中的函数在对原始数据集进行第48次观察时检测到创新的离群值(IO)。 如何将这个离群值合并到模型中,以便将其用于预测?我不想使用ARIMAX模型,因为我可能无法根据R中的模型做出任何预测。还有其他方法可以做到吗? 以下是我的价值观: VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 9.6 9.8 10.0 9.9 9.9 9.8 9.8 9.9 9.9 9.6 9.4 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

1
评估时间序列预测性能
我有一个在几个时间变量上训练过的动态朴素贝叶斯模型。模型的输出是P(Event) @ t+1每个的预测t。 P(Event)vs 的曲线time如下图所示。在此图中,黑线代表P(Event)我的模型所预测的;的水平红线表示事件发生的先验概率; 和垂直虚线表示在时间序列中的(5个)的事件发生。 理想情况下,我希望P(Event)在观察任何事件之前先看到预测的峰值,并且在没有事件发生的希望时保持接近零。 我希望能够报告模型(黑线)在预测事件发生方面的表现。与我的模型进行比较的一个明显的候选对象是事件的先验概率(红线),如果将其用作预测因子,则将为所有对象预测相同的概率值t。 实现这种比较的最佳形式方法是什么? PS:我目前正在按照以下代码使用(直观)评分,其中总体评分较低表明预测性能更好。我发现用这个评分实际上很难超越以前的评分: # Get prediction performance model_score = 0; prior_score=0; for t in range(len(timeSeries)): if(timeSeries[t]== event): # event has happened cur_model_score = 1- prob_prediction[t]; cur_prior_score = 1 - prior else: # no event cur_model_score = prob_prediction[t] - 0; cur_prior_score = prior - …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.