Questions tagged «arima»

指在时间序列建模中用于数据描述和预测的AutoRegressive集成移动平均模型。该模型通过包含差异项来概括ARMA模型,这对于消除趋势和处理某些类型的非平稳性很有用。

2
ARIMA过程的Box-Jenkins方法到底是什么?
在维基百科页面称,箱詹金斯是拟合的ARIMA模型对于时间序列的方法。现在,如果我想将ARIMA模型拟合到一个时间序列,我将打开SAS,调用proc ARIMA,提供参数,SAS会给我AR和MA系数。现在,我可以尝试使用和SAS的不同组合,每种情况下给我一组系数。我选择Akaike信息准则最低的集合。p,d,qp,d,qp,d,qp,d,qp,d,qp,d,q 我的问题是:在上述过程中,我在哪里使用Box-Jenkins?我是否应该使用Box-Jenkins得出初始估计?还是SAS内部使用了它?p,d,qp,d,qp,d,q

4
确定ARIMA建模的参数(p,d,q)
我是统计学和R语言的新手。我想知道为我的数据集确定ARIMA参数的过程。您能帮我使用R并从理论上(如果可能的话)弄清楚吗? 数据范围为1月12日至14年3月,描述了每月的销售量。这是数据集: 99 58 52 83 94 73 97 83 86 63 77 70 87 84 60 105 87 93 110 71 158 52 33 68 82 88 84 这是趋势: 数据没有显示趋势,季节性行为或周期性。
10 r  arima  box-jenkins 

4
使用神经网络,auto.arima和ets进行R时间序列预测
我听说过一些有关使用神经网络预测时间序列的信息。 如何比较哪种预测时间序列(每日零售数据)的方法更好:auto.arima(x),ets(x)或nnetar(x)。 我可以通过AIC或BIC将auto.arima与ets进行比较。但是如何将它们与神经网络进行比较? 例如: > dput(x) c(1774, 1706, 1288, 1276, 2350, 1821, 1712, 1654, 1680, 1451, 1275, 2140, 1747, 1749, 1770, 1797, 1485, 1299, 2330, 1822, 1627, 1847, 1797, 1452, 1328, 2363, 1998, 1864, 2088, 2084, 594, 884, 1968, 1858, 1640, 1823, 1938, 1490, 1312, 2312, 1937, 1617, 1643, 1468, …

1
如何在ARIMA模型的观察值48中加入创新的离群值?
我正在处理数据集。使用一些模型识别技术后,我得出了一个ARIMA(0,2,1)模型。 我使用R detectIO包TSA中的函数在对原始数据集进行第48次观察时检测到创新的离群值(IO)。 如何将这个离群值合并到模型中,以便将其用于预测?我不想使用ARIMAX模型,因为我可能无法根据R中的模型做出任何预测。还有其他方法可以做到吗? 以下是我的价值观: VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 9.6 9.8 10.0 9.9 9.9 9.8 9.8 9.9 9.9 9.6 9.4 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

1
为什么Anova()和drop1()为GLMM提供了不同的答案?
我有以下形式的GLMM: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 当我使用时drop1(model, test="Chi"),我得到的结果与Anova(model, type="III")从汽车包装或汽车上获得的结果不同summary(model)。后两个给出相同的答案。 通过使用大量虚构数据,我发现这两种方法通常没有区别。对于平衡线性模型,不平衡线性模型(不同组中的n不相等)和平衡广义线性模型,它们给出相同的答案,但对于平衡广义线性混合模型,它们给出相同的答案。因此看来,只有在包括随机因素的情况下,这种矛盾才会显现出来。 为什么这两种方法之间存在差异? 使用GLMM时应使用Anova()还是drop1()应使用? 至少就我的数据而言,两者之间的差异很小。哪一个使用都重要吗?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
进行时间序列预测时的良好做法
我已经进行了几个月的短期负荷预测,并使用气候/天气数据来提高准确性。我具有计算机科学背景,因此,我尝试使用ARIMA模型之类的统计工具避免犯大错和不公平的比较。我想知道您对以下几点的看法: 我同时使用(S)ARIMA和(S)ARIMAX模型来研究天气数据对天气预报的影响,您认为是否还需要使用指数平滑方法? 从头两个星期开始,我有300个每日样本的时间序列,并使用auto.arima R函数(预测软件包)构建的模型进行了提前5天的预测。然后,将另一个样本添加到我的数据集中,然后再次校准模型,然后再进行5天的预测,依此类推,直到可用数据结束。您认为这种操作方式正确吗? 感谢您的建议,尽管我们的工作目标是发表在工程学期刊上的文章,但从统计的角度来看,我想做的尽可能严格。

1
ARIMA vs Kalman过滤器-它们如何相关
当我开始阅读有关卡尔曼滤波器的文章时,它认为这是ARIMA模型的一种特例(即ARIMA(0,1,1))。但实际上似乎情况更加复杂。首先,ARIMA可用于预测,而卡尔曼滤波器可用于滤波。但是它们不是紧密相关吗? 问题: ARIMA和卡尔曼滤波器之间是什么关系?一个正在使用另一个吗?是另一种特例吗?

2
如何解释ACF和PACF图
我只想检查一下我是否正确解释了ACF和PACF图: 数据对应于在实际数据点之间生成的误差和使用AR(1)模型生成的估计值。 我在这里看了答案: 通过ACF和PACF检查估算ARMA系数 阅读后,似乎错误不是自相关的,但我只是想确定,我担心的是: 1.)第一个错误就在边界上(在这种情况下,我应该接受还是拒绝在滞后1存在明显的自相关)? 2.)线代表95%的置信区间,并且考虑到存在116个滞后,我希望不超过(0.05 * 116 = 5.8,我向上舍入为6个)6个滞后。对于ACF就是这种情况,但对于PACF大约有10个例外。如果把那些包括在边界上,那更像是14?这仍然表明没有自相关吗? 3.)我是否应该从一个事实中了解到所有违反95%置信区间的情况都是不利的?

4
R中的离散时间事件历史(生存)模型
我正在尝试在R中拟合离散时间模型,但不确定如何执行。 我读过您可以将因变量组织在不同的行中,每个时间观察行一个,并将该glm函数与logit或cloglog链接一起使用。从这个意义上讲,我有三列:ID,Event(在每个时间范围内为1或0)和Time Elapsed(自观察开始以来)以及其他协变量。 如何编写适合模型的代码?哪个因变量?我想我可以将其Event用作因变量,并将其包括Time Elapsed在协变量中。但是,会发生什么ID呢?我需要吗? 谢谢。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

2
时间序列分析的历史有哪些好的资源?
我已经在stats.stackexchange上检查了这个问题的答案:什么是提供统计历史的优质资源? 确实,斯蒂格勒的书“桌子上的统计数据”看起来很棒,我很期待阅读。但是我对现代ARIMA模型的开发更感兴趣。 我想我记得曾经听说过,在尝试用二战前后的大炮预测随机误差时,已经取得了很大的进步。而且,当然,在整个千年的后半段,天文学家在某种程度上都在利用某种时间序列来理解天体的运动。但是,我不记得我听说过时间序列在炮兵中的应用,并且我有物理学背景,而且我真的不知道天文学家正在使用哪种统计方法。 因此,我想听听您认为对时间序列方法的发展影响最大的历史影响是什么,例如,它们主要是受到金融,国防,地质/地球物理学的刺激,还是所有这些以及更多因素的结合?是否有关于ARIMA历史的资料丰富的书籍或网站?

2
什么是预测受(0,1)约束的百分比的时间序列模型?
这必定会发生-预测介于0和1之间的事物。 在我的系列文章中,我怀疑有一个自动回归的成分,也有一个均值回归的成分,所以我希望我可以像ARIMA那样解释一些东西,但是我不希望它将来会飙升到1000% 。 您是否仅将ARIMA模型用作逻辑回归中的参数以将结果限制在0和1之间? 或者我在这里了解到Beta回归更适合(0,1)数据。我如何将其应用于时间序列?是否有好的R软件包或Matlab函数使拟合和预测变得容易?

3
通过机器学习预测几个时期
我最近回顾了自己的时间序列知识,并意识到机器学习通常只会提前一步。 有了一步一步的预测,我的意思是进行预测,例如,如果我们有每小时的数据,请使用上午10点到上午11点的数据进行预测,而上午12点则使用12点的数据进行预测等等。 机器学习方法可以产生提前h预测吗?有了h提前预测,我的意思是,例如,假设每小时的数据,我们使用上午10点的数据进行7提前预测,以获得11,12,13,14,15,16,17的估算值。时钟。 图片示例: 有关我的主要问题,我想知道: 我没有看到任何人使用机器学习进行h提前预测的原因是什么? 如果有一种使用机器学习的方法,它是否比ARIMA更为精确?

1
ARIMA模型的循环行为的条件
我正在尝试建模和预测一个周期性而不是季节性的时间序列(即存在类似季节性的模式,但没有固定的时间段)。可以使用ARIMA模型来做到这一点,如“ 预测:原理和实践”第8.5节所述: 如果数据显示周期,则的值ppp很重要。为了获得环预测,有必要具有p≥2p≥2p\geq 2与对参数的一些附加条件一起。对于AR(2)模型,如果,则会发生循环行为ϕ21+4ϕ2&lt;0ϕ12+4ϕ2&lt;0\phi^2_1+4\phi_2<0。 在一般ARIMA(p,d,q)情况下,参数的这些附加条件是什么?我到处都找不到。

1
使用ARIMA和LSTM进行时间序列预测
我要处理的问题是预测时间序列值。我正在一次查看一个时间序列,例如,基于15%的输入数据,我想预测其未来值。到目前为止,我遇到了两种模型: LSTM(长期短期记忆;一类递归神经网络) 有马 我都尝试过并阅读了一些文章。现在,我试图更好地了解如何比较两者。到目前为止,我发现了什么: 如果我们要处理大量数据并且有足够的训练数据,那么LSTM会更好地工作,而ARIMA对于较小的数据集则更好(这是正确的吗?) ARIMA需要一系列(p,q,d)必须根据数据计算的参数,而LSTM不需要设置此类参数。但是,我们需要为LSTM调整一些超参数。 除了上述特性之外,我找不到其他可以帮助我选择最佳模型的要点或事实。如果有人可以帮助我查找文章,论文或其他东西,我将非常感谢(到目前为止,还没有运气,这里和那里只有一些一般性意见,而没有基于实验的内容。) 我不得不提到,最初我是在处理流数据,但是现在我使用的是NAB数据集,其中包括50个数据集,最大大小为2万个数据点。

2
如何使用tsoutliers软件包和auto.arima解释和进行预测
我有1993年至2015年的月度数据,并希望对这些数据进行预测。我使用tsoutliers包检测异常值,但是我不知道如何继续使用我的数据集进行预测。 这是我的代码: product.outlier&lt;-tso(product,types=c("AO","LS","TC")) plot(product.outlier) 这是我从tsoutliers包的输出 ARIMA(0,1,0)(0,0,1)[12] Coefficients: sma1 LS46 LS51 LS61 TC133 LS181 AO183 AO184 LS185 TC186 TC193 TC200 0.1700 0.4316 0.6166 0.5793 -0.5127 0.5422 0.5138 0.9264 3.0762 0.5688 -0.4775 -0.4386 s.e. 0.0768 0.1109 0.1105 0.1106 0.1021 0.1120 0.1119 0.1567 0.1918 0.1037 0.1033 0.1040 LS207 AO237 TC248 AO260 AO266 0.4228 …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.