Questions tagged «var»

向量自回归,一种多个时间序列模型/方法。VAR在计量经济学中很常见,它允许同时根据每个时间序列的自身先前值以及每个其他序列的先前值对每个时间序列进行建模。因此,该系列的状态相同。

5
状态空间模型和卡尔曼滤波器在时间序列建模中的缺点是什么?
考虑到状态空间模型和KF的所有良好特性,我想知道- 状态空间建模并使用卡尔曼滤波器(或EKF,UKF或粒子滤波器)进行估计的缺点是什么?笼统地说,是ARIMA,VAR或即席/启发式方法之类的常规方法。 它们难于校准吗?他们是否复杂且很难看到模型结构的变化将如何影响预测? 或者,换种说法-传统ARIMA,VAR与状态空间模型相比有什么优势? 我只能想到状态空间模型的优点: 它可以轻松地处理某些静态模型的结构破坏,移位,时变参数-只需使这些参数成为状态空间模型的动态状态,模型便会自动适应任何参数移位; 它非常自然地处理丢失的数据,只需执行KF的过渡步骤,而不执行更新步骤; 它允许更改状态空间模型本身的动态参数(噪声和过渡/观测矩阵的协方差),因此,如果您当前的观测值来自与其他观测值略有不同的源,则无需进行任何操作即可轻松将其合并到估计中有什么特别的 使用上述属性,可以轻松处理不规则空间的数据:根据观察之间的间隔每次更改模型,或者使用规则的间隔并将没有观察的间隔视为丢失数据; 它允许在同一模型中同时使用来自不同来源的数据来估算一个基础数量; 它允许从几个可解释的,不可观察的动态成分构建模型并进行估计; 任何ARIMA模型都可以以状态空间形式表示,但是只有简单的状态空间模型可以以ARIMA形式精确表示。

9
为什么要使用矢量纠错模型?
我对向量错误校正模型(VECM)感到困惑。 技术背景: VECM提供了将向量自回归模型(VAR)应用于集成多元时间序列的可能性。在教科书中,他们列举了将VAR应用于集成时间序列时遇到的一些问题,其中最重要的是所谓的虚假回归(t统计量非常重要,R ^ 2很高,尽管变量之间没有关系)。 估计VECM的过程大致包括以下三个步骤,其中一个令人困惑的是我的第一个步骤: 集成多元时间序列的VAR模型的规范和估计 计算似然比检验以确定协整关系数 确定协整次数后,估算VECM 在第一步中,用适当的滞后数(使用通常的拟合优度)来估计VAR模型,然后检查残差是否与模型假设相对应,即没有序列相关性和异方差,并且残差呈正态分布。因此,可以检查VAR模型是否恰当地描述了多元时间序列,只有在这样做的情况下,才可以继续进行下一步。 现在我的问题是:如果VAR模型能够很好地描述数据,为什么我完全需要VECM?如果我的目标是生成预测,那么估计VAR和检查假设还不够,如果这些假设已实现,则仅使用此模型即可吗?

2
VAR预测方法
我正在建立一个VAR模型来预测资产价格,并想知道我的方法在统计上是否合理,我所包括的测试是否相关,以及是否需要更多测试以确保基于输入变量的可靠预测。 下面是我当前的检查Granger因果关系并预测所选VAR模型的过程。 require("forecast") require("vars") #Read Data da=read.table("VARdata.txt", header=T) dac <- c(2,3) # Select variables x=da[,dac] plot.ts(x) summary(x) #Run Augmented Dickey-Fuller tests to determine stationarity and differences to achieve stationarity. ndiffs(x[, "VAR1"], alpha = 0.05, test = c("adf")) ndiffs(x[, "VAR2"], alpha = 0.05, test = c("adf")) #Difference to achieve stationarity d.x1 …
19 r  forecasting  modeling  var 

1
预测短时间序列的最小愚蠢方法
我需要为第29个时间单位预测以下4个变量。我有大约2年的历史数据,其中1和14和27都是同一时期(或一年中的某个时间)。最后,我对w ^w ^W,w ^ dwdwd,w çwCwc和进行了Oaxaca-Blinder风格的分解ppp。 time W wd wc p 1 4.920725 4.684342 4.065288 .5962985 2 4.956172 4.73998 4.092179 .6151785 3 4.85532 4.725982 4.002519 .6028712 4 4.754887 4.674568 3.988028 .5943888 5 4.862039 4.758899 4.045568 .5925704 6 5.039032 4.791101 4.071131 .590314 7 4.612594 4.656253 4.136271 .529247 8 4.722339 4.631588 3.994956 …

1
多元生物学时间序列:VAR和季节性
我有一个多元时间序列数据集,其中包括相互作用的生物学和环境变量(可能还有一些外生变量)。除季节性外,数据中没有明显的长期趋势。我的目的是查看哪些变量彼此相关。预测并不是真正需要的。 作为时间序列分析的新手,我阅读了一些参考资料。据我了解,向量自回归(VAR)模型是合适的,但我对季节性并不满意,大多数示例都涉及到没有季节性的经济学领域(通常是时间序列分析……)。 我应该如何处理我的季节性数据?我考虑过对它们进行反季节化处理-例如在R中,我将使用decompose,然后使用这些$trend + $rand值来获得看起来非常平稳的信号(根据判断acf)。VAR模型的结果使我感到困惑(选择了1滞后模型,而我会凭直觉期望更多,并且只有自回归系数(而不是与其他滞后变量的回归系数)才有意义)。我是在做错什么,还是应该得出结论,我的变量不(线性)相关/我的模型不是一个好模型(子问题:是否存在与VAR等效的非线性?)。 [或者,我读到我可能可以使用虚拟的季节性变量,尽管我无法确切地知道如何实现它]。 逐步的建议将不胜感激,因为有经验的用户的详细信息实际上可能对我有帮助(当然,非常欢迎R代码段或指向具体示例的链接)。

1
GBM软件包与使用GBM的插入符
我一直在使用进行模型调整caret,但随后使用该gbm软件包重新运行模型。据我了解,caret程序包使用gbm的输出应相同。然而,data(iris)使用RMSE和R ^ 2作为评估指标,使用进行的快速测试显示模型中的差异约为5%。我想使用来找到最佳模型性能,caret但要重新运行gbm以利用部分依赖图。下面的代码具有可重复性。 我的问题是: 1)为什么即使这两个软件包应该相同,我仍会看到这两个软件包之间的差异(我知道它们是随机的,但5%的差异还是很大的,尤其是当我没有使用iris建模时使用的很好的数据集时) 。 2)同时使用这两个软件包有什么优点或缺点? 3)不相关:使用iris数据集时,最佳interaction.depth值为5,但高于我所阅读的最大值,使用最大值floor(sqrt(ncol(iris)))为2。这是严格的经验法则还是非常灵活? library(caret) library(gbm) library(hydroGOF) library(Metrics) data(iris) # Using caret caretGrid <- expand.grid(interaction.depth=c(1, 3, 5), n.trees = (0:50)*50, shrinkage=c(0.01, 0.001), n.minobsinnode=10) metric <- "RMSE" trainControl <- trainControl(method="cv", number=10) set.seed(99) gbm.caret <- train(Sepal.Length ~ ., data=iris, distribution="gaussian", method="gbm", trControl=trainControl, verbose=FALSE, tuneGrid=caretGrid, metric=metric, bag.fraction=0.75) print(gbm.caret) # …

2
如何对每日时间序列数据中的月度效果建模?
我有两个时间序列的每日数据。一个是订阅sign-ups,另一个terminations是订阅。我想使用两个变量中包含的信息来预测后者。 从这些系列的图表来看,很明显终止与前几个月的签约倍数相关。也就是说,5月10日的注册人数激增,将导致6月10日,7月10日和8月10日的终止人数增加,依此类推,尽管这种影响逐渐减弱。 我希望获得有关我可以采用哪种模型来建模此特定问题的提示。任何建议将不胜感激。 到目前为止,我一直在考虑一个VAR模型,但是我不确定如何包括月度影响-使用非常高的滞后量或以某种方式添加季节性成分?

4
R中的离散时间事件历史(生存)模型
我正在尝试在R中拟合离散时间模型,但不确定如何执行。 我读过您可以将因变量组织在不同的行中,每个时间观察行一个,并将该glm函数与logit或cloglog链接一起使用。从这个意义上讲,我有三列:ID,Event(在每个时间范围内为1或0)和Time Elapsed(自观察开始以来)以及其他协变量。 如何编写适合模型的代码?哪个因变量?我想我可以将其Event用作因变量,并将其包括Time Elapsed在协变量中。但是,会发生什么ID呢?我需要吗? 谢谢。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
为什么我的VAR模型在非平稳数据上比固定数据能更好地工作?
我正在使用python的statsmodels VAR库为财务时间序列数据建模,有些结果令我感到困惑。我知道VAR模型假设时间序列数据是固定的。我无意中拟合了两种不同证券的非平稳对数价格对数,并且令人惊讶的是,拟合值和样本内预测在相对微不足道的固定残差下非常准确。样本内预测的为99%,预测残差系列的标准偏差为预测值的10%左右。[R2[R2R^2 但是,当我改变对数价格并将该时间序列拟合到VAR模型时,拟合值和预测值相差甚远,在均值附近处于狭窄范围内。结果,残差在预测对数收益方面比拟合值做得更好,预测残差的标准偏差比拟合数据系列大15倍,而预测序列的.007值。[R2[R2R^2 我是否会误解VAR模型上的拟合残差与其他残差?为什么非平稳时间序列会比基于相同基础数据的平稳时间序列产生更准确的预测?我在同一个python库中使用ARMA模型进行了很好的工作,却看不到像对单个系列数据建模那样的东西。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.