介绍
我现在对该主题的兴趣大约是7年,并产生了博士学位论文的时间序列:聚集,分解和长记忆,其中重点关注了AR(1)方案的截面分解问题。
数据
使用不同的聚合方法,您需要澄清的第一个问题是要处理的数据类型(我的猜测是空间数据,最令人兴奋的一个)。在实践中,您可以考虑时间聚集(请参见Silvestrini,A.和Veridas,D.(2008)),横截面(我喜欢Granger,CWJ(1990)的文章)或时间和空间(空间聚集得到了很好的调查)见Giacomini,R.和Granger,CWJ(2004))。
答案(冗长)
现在,在回答您的问题时,我先提出一些直觉。由于我在实践中遇到的问题通常基于不准确的数据(Andy的假设
您可以在任何时间精度级别上测量时间序列的观测值
对于宏观计量经济学来说似乎太强大了,但是对于金融和微观计量经济学或任何实验领域都非常有用,如果您确实很好地控制了精度)年度数据。除了更频繁的时间序列(至少在宏观经济学中)确实具有季节模式,这可能导致虚假的行为。结果(季节性部分确实与序列不相关),因此您需要季节性调整数据-对于更高频率的数据,另一个精度较低的来源。处理横截面数据表明,高级别的分解会带来更多的问题,可能要处理很多零。例如,数据面板中的特定家庭可能每5-10年购买一次汽车,但是对新(二手)汽车的总需求要平稳得多(即使是在小镇或地区)。
该最弱的点聚集总是导致信息丢失,您可能拥有整个十年(例如2001-2010年)期间欧盟国家/地区横截面产生的GDP,但是考虑到详细的面板数据集,您将失去分析中可能出现的所有动态特征。大规模的横截面聚合可能会变得更加有趣:您大致采用简单的事物(短内存AR(1))将它们在相当大的总体上平均,然后获得“代表性”的长存储代理,该代理与任何微型存储都不相似。单位(代表代理的概念再加上一块石头)。因此,聚集〜信息丢失〜对象的不同属性,您希望控制这种丢失和/或新属性的级别。我认为,最好以尽可能高的频率获得精确的微液位数据,但是...
从技术上讲,进行任何回归分析时,您确实都需要更多的空间(自由度)以(或至少)在统计上确信您的结果不是垃圾,尽管它们仍然可能是a理论上的和垃圾的:)问题1和2的权重(通常选择季度数据进行宏观分析)。回答第三个子问题,您在实际应用中将决定对您而言更重要的是:更精确的数据或自由度。如果考虑到上述假设,则更详细(或频率更高)的数据是可取的。
答案可能会在经过某种讨论后再进行编辑。