学习书目:Introduction to Time Series and Forecasting ----Brockwell&Davis
1.定义
时间序列:时间序列是一系列在不同的特定时间记录下来的数据。通常这些数据会显示出趋势,季节性还有随机性。
时间序列模型:时间序列模型通常是具体描述时间序列的联合分布(可能只是均值和协方差)。
注:在研究时间序列的时候通常我们只关注一阶矩和二阶矩(EXt,EXtXt+h)性质(second-order properties),一来是因为在特定情况下,二阶性质就决定了联合分布,二来是因为最小均方误差的线性预测只取决于随机变量的二阶性质。
季节性(seasonality):时间序列的季节性是指序列有周期变化,比如说事故死亡人数在按年周期波动,每年七月最多,二月最少。季节性可以用多个sine曲线加总来进行拟合。
2.时间序列模型的一般方法
- 画出序列图,检查图的特点,尤其是否有以下特征:
- a trend 趋势
- a seasonal component 季节性
- any apparent sharp changes in behavior 急剧变化 --分成几个同质片段来研究
- any outlying observations 偏离 --是否有理由丢弃这个数据
- 去除趋势和季节性,以获得平稳残差
(这里需要对数据进行预先的变换,比如说如果波动幅度的线性变大,那么可以使用ln变换;去除趋势和季节性还可以使用差分。) - 选择模型拟合残差,使用各种样本统计量,包括样本自相关函数。
- 预测。 先预测残差值,然后再做逆变换得到原始数据的预测值。
3. 平稳序列
注:严平稳序列要求对任意整数h联合分布一样,我们一般讲平稳指的是宽平稳,除非特别说明是严平稳。
4. 样本自相关函数
4.1 ACF 定义
通常来讲我们是从观测数据开始研究的,为了衡量观测数据的相关性,并且选择合适的模型来描述数据,我们使用一个重要的工具:样本自相关函数(sample ACF)。
如果我们相信这些数据是平稳序列的值,那么样本自相关函数能够提供给我们序列的自相关函数的估计。例如,如果样本的自相关函数对于任何非零延迟来讲都是接近于0的,那就表明这个数据适合的模型很可能是独立同分布的噪音。
注: 这里的样本自协方差函数是除以n,为什么不是除以n-h呢?参照以下答案:
https://stats.stackexchange.com/questions/56238/question-about-sample-autocovariance-function
主要原因是除以n得到的协方差矩阵是非负正定的(非负正定是协方差矩阵的性质之一,所以样本协方差也要保留这样的性质),除以n-h得到的协方差矩阵很可能是奇异矩阵;另外我们关心的是h远小于n时的情况,在这种情况下,除以n和除以n-h的差别不大。
4.2 ACF用处
- 如果数据包含趋势,那么自相关函数会随着延迟h的增大而减小
- 自相关函数会表现出和原数据一样的周期性
5.估计和消除趋势项、季节项
我们的目的是通过消除趋势项和季节项来获得平稳序列,然后就可以对平稳序列使用合适的模型。
有两种方法消除趋势和季节性:
1)估计出趋势、季节项
2)通过差分的方式得到新的平稳序列
5.1 消除趋势项(没有季节性)
- 方法一:估计趋势
移动平均和光谱平滑是重要的估计趋势的非参数方法。
(a)Smoothing with a finite moving average filter.有限移动平均平滑
因为Yt的均值为0,所以在使用移动平均的时候可以将Yt消除,从而
注:移动平均过滤子实际上就是利用了线性趋势函数求和再平均后数据值不改变,而Yt的均值为0 的性质来消除了该随机变量对数据的影响,仅仅保留下了趋势。
(b)Exponential smoothing 指数平滑
(c)Smoothing by elimination of high-frequency components.
(d)polynomial fitting多项式拟合
- 方法二:差分消除趋势
5.2 同时消除趋势和季节性
- 方法一:估计趋势和季节性
- 方法二:差分
6.测试残差序列是否是独立同分布随机变量
我们做数据转换的目的是为了获得没有趋势没有季节性也没有明显偏离的平稳残差序列。这一步完成后,我们就要对残差序列进行建模。
如果序列之间没有显著依赖性,那么我们就可以认为是独立随机变量,从而只需要估计均值和方差;但如果残差之间是有依赖性的,那么我们需要寻找更复杂的平稳时间序列模型来解释这种依赖性。这种依赖性也意味着过去的噪音序列值可以帮助我们预测未来的值。
下面介绍几种测试残差序列是否是独立同分布随机变量的方法
- (a)样本自相关函数.
- (b) The portmanteau test.
- (c) The turning point test.
- (d) The difference-sign test.
- (e) The rank test.
- (f) Fitting an autoregressive model.
- (g) Checking for normality.