美文网首页
时间序列

时间序列

作者: 堂堂正正的大号 | 来源:发表于2020-08-07 16:31 被阅读0次

    时间序列基础参考

    1、数据介绍

    再介绍本篇的内容之前,我们先来看一下本文用到的数据。本文用到的中国银行股票数据下载:http://pan.baidu.com/s/1gfxRFbH,提取码d3id。

    我们先来导入一下我们的数据,顺便画出收盘价数据的折线图:

    import pandas as pd
    import matplotlib.pyplot as plt
    ChinaBank = pd.read_csv('ChinaBank.csv',index_col = 'Date',parse_dates=['Date'])
     
    #ChinaBank.index = pd.to_datetime(ChinaBank.index)
    sub = ChinaBank['2014-01':'2014-06']['Close']
    train = sub.ix['2014-01':'2014-03']
    test = sub.ix['2014-04':'2014-06']
    plt.figure(figsize=(10,10))
    print(train)
    plt.plot(train)
    plt.show()
    

    数据如下:

    介绍了数据,我们接下来进入今天的正题。


    2、时间序列平稳性

    2.1 平稳性

    平稳性就是要求经由样本时间序列所得到的拟合曲线在未来一段时间内仍能顺着现有的形态惯性地延续下去。平稳性要求序列的均值和方差不发生明显变化。

    严平稳
    严平稳表示的分布不随时间的改变而改变。如白噪声(正太),无论怎么取,都是期望为0,方差为1

    宽平稳
    期望与相关系数(依赖性)不变。未来某时刻的t的值Xt就要依赖于它的过去信息,所以需要依赖性。这种依赖性不能有明显的变化。

    2.2 差分法

    使用差分法可以使得数据更平稳,常用的方法就是一阶差分法和二阶差分法。

    时间序列差分值的求解可以直接通过pandas中的diff函数得到:

    ChinaBank['Close_diff_1'] = ChinaBank['Close'].diff(1)
    ChinaBank['Close_diff_2'] = ChinaBank['Close_diff_1'].diff(1)
    fig = plt.figure(figsize=(20,6))
    ax1 = fig.add_subplot(131)
    ax1.plot(ChinaBank['Close'])
    ax2 = fig.add_subplot(132)
    ax2.plot(ChinaBank['Close_diff_1'])
    ax3 = fig.add_subplot(133)
    ax3.plot(ChinaBank['Close_diff_2'])
    plt.show()
    

    绘制的图如下所示:

    可以看到,基本上时间序列在一阶差分的时候就已经接近于平稳序列了。


    3、ARIMA模型介绍

    3.1 自回归模型AR

    自回归模型描述当前值与历史值之间的关系,用变量自身的历史时间数据对自身进行预测。自回归模型必须满足平稳性的要求。

    自回归模型首先需要确定一个阶数p,表示用几期的历史值来预测当前值。p阶自回归模型的公式定义为:

    y_{t}=\mu+\sum_{i=1}^{p} \gamma_{i} y_{t-i}+\epsilon_{t}

    上式中y_{t}是当前值,u是常数项,p是阶数 \gamma_{i}是自相关系数,\epsilon_{t}是误差。

    自回归模型有很多的限制:

    1. 自回归模型是用自身的数据进行预测
    2. 时间序列数据必须具有平稳性
    3. 自回归只适用于预测与自身前期相关的现象

    3.2 移动平均模型MA

    移动平均模型关注的是自回归模型中的误差项的累加 ,q阶自回归过程的公式定义如下:
    y_{t}=\mu+\epsilon_{t}+\sum_{i=1}^{q} \theta_{i} \epsilon_{t-i}

    移动平均法能有效地消除预测中的随机波动。

    3.3 自回归移动平均模型ARMA

    自回归模型AR和移动平均模型MA模型相结合,我们就得到了自回归移动平均模型ARMA(p,q),计算公式如下:
    y_{t}=\mu+\sum_{i=1}^{p} \gamma_{i} y_{t-i}+\epsilon_{t}+\sum_{i=1}^{q} \theta_{i} \epsilon_{t-i}

    3.4 差分自回归移动平均模型ARIMA

    将自回归模型、移动平均模型和差分法结合,我们就得到了差分自回归移动平均模型ARIMA(p,d,q),其中d是需要对数据进行差分的阶数。


    4、建立ARIMA模型的过程

    一般来说,建立ARIMA模型一般有三个阶段,分别是模型识别和定阶、参数估计和模型检验,接下来,我们一步步来介绍:

    4.1 模型识别和定阶

    模型的识别问题和定阶问题,主要是确定p,d,q三个参数,差分的阶数d一般通过观察图示,1阶或2阶即可。这里我们主要介绍p和q的确定。我们首先介绍两个函数。

    自相关函数ACF(autocorrelation function)
    自相关函数ACF描述的是时间序列观测值与其过去的观测值之间的线性相关性。计算公式如下:
    A C F(k)=\rho_{k}=\frac{\operatorname{Cov}\left(y_{t}, y_{t-k}\right)}{\operatorname{Var}\left(y_{t}\right)}

    其中k代表滞后期数,如果k=2,则代表y_{t}y_{t-2}

    偏自相关函数PACF(partial autocorrelation function)
    偏自相关函数PACF描述的是在给定中间观测值的条件下,时间序列观测值预期过去的观测值之间的线性相关性。

    举个简单的例子,假设k=3,那么我们描述的是y_{t}y_{t-3}之间的相关性,但是这个相关性还受到y_{t-1}y_{t-2}的影响。PACF剔除了这个影响,而ACF包含这个影响。

    拖尾和截尾
    拖尾指序列以指数率单调递减或震荡衰减,而截尾指序列从某个时点变得非常小:

    出现以下情况,通常视为(偏)自相关系数d阶截尾:
    1)在最初的d阶明显大于2倍标准差范围
    2)之后几乎95%的(偏)自相关系数都落在2倍标准差范围以内
    3)且由非零自相关系数衰减为在零附近小值波动的过程非常突然

    出现以下情况,通常视为(偏)自相关系数拖尾:
    1)如果有超过5%的样本(偏)自相关系数都落入2倍标准差范围之外
    2)或者是由显著非0的(偏)自相关系数衰减为小值波动的过程比较缓慢或非常连续。

    p,q阶数的确定
    根据刚才判定截尾和拖尾的准则,p,q的确定基于如下的规则:

    根据不同的截尾和拖尾的情况,我们可以选择AR模型,也可以选择MA模型,当然也可以选择ARIMA模型。接下来,我们就来画一下我们数据的拖尾和截尾情况:

    import statsmodels.api as sm
    fig = plt.figure(figsize=(12,8))
     
    ax1 = fig.add_subplot(211)
    fig = sm.graphics.tsa.plot_acf(train, lags=20,ax=ax1)
    ax1.xaxis.set_ticks_position('bottom')
    fig.tight_layout()
     
    ax2 = fig.add_subplot(212)
    fig = sm.graphics.tsa.plot_pacf(train, lags=20, ax=ax2)
    ax2.xaxis.set_ticks_position('bottom')
    fig.tight_layout()
    plt.show()
    

    结果如下:

    哈哈,咱们这个数据自相关系数4阶拖尾,偏自相关系数2阶截尾,因此可以选择的是AR(2)模型。

    4.2 参数估计

    通过拖尾和截尾对模型进行定阶的方法,往往具有很强的主观性。回想我们之前在参数预估的时候往往是怎么做的,不就是损失和正则项的加权么?我们这里能不能结合最终的预测误差来确定p,q的阶数呢?在相同的预测误差情况下,根据奥斯卡姆剃刀准则,模型越小是越好的。那么,平衡预测误差和参数个数,我们可以根据信息准则函数法,来确定模型的阶数。预测误差通常用平方误差即残差平方和来表示。

    常用的信息准则函数法有下面几种:
    AIC准则
    AIC准则全称为全称是最小化信息量准则(Akaike Information Criterion),计算公式如下:
    AIC = =2 *(模型参数的个数)-2ln(模型的极大似然函数)

    BIC准则
    AIC准则存在一定的不足之处。当样本容量很大时,在AIC准则中拟合误差提供的信息就要受到样本容量的放大,而参数个数的惩罚因子却和样本容量没关系(一直是2),因此当样本容量很大时,使用AIC准则选择的模型不收敛与真实模型,它通常比真实模型所含的未知参数个数要多。BIC(Bayesian InformationCriterion)贝叶斯信息准则弥补了AIC的不足,计算公式如下:

    BIC = ln(n) * (模型中参数的个数) - 2ln(模型的极大似然函数值),n是样本容量

    好了,我们通过类似于网格搜索的方式来寻找我们模型最佳的p,q组合吧,这里我们使用BIC进行试验,AIC同理:

    #遍历,寻找适宜的参数
    import itertools
    import numpy as np
    import seaborn as sns
     
    p_min = 0
    d_min = 0
    q_min = 0
    p_max = 5
    d_max = 0
    q_max = 5
     
    # Initialize a DataFrame to store the results,,以BIC准则
    results_bic = pd.DataFrame(index=['AR{}'.format(i) for i in range(p_min,p_max+1)],
                               columns=['MA{}'.format(i) for i in range(q_min,q_max+1)])
     
    for p,d,q in itertools.product(range(p_min,p_max+1),
                                   range(d_min,d_max+1),
                                   range(q_min,q_max+1)):
        if p==0 and d==0 and q==0:
            results_bic.loc['AR{}'.format(p), 'MA{}'.format(q)] = np.nan
            continue
     
        try:
            model = sm.tsa.ARIMA(train, order=(p, d, q),
                                   #enforce_stationarity=False,
                                   #enforce_invertibility=False,
                                  )
            results = model.fit()
            results_bic.loc['AR{}'.format(p), 'MA{}'.format(q)] = results.bic
        except:
            continue
    results_bic = results_bic[results_bic.columns].astype(float)
     
    fig, ax = plt.subplots(figsize=(10, 8))
    ax = sns.heatmap(results_bic,
                     mask=results_bic.isnull(),
                     ax=ax,
                     annot=True,
                     fmt='.2f',
                     )
    ax.set_title('BIC')
    plt.show()
    

    绘制的热力图如下:

    我们上面采用了循环的方式,其实可以用更简单的方法得到p和q的最优值:

    train_results = sm.tsa.arma_order_select_ic(train, ic=['aic', 'bic'], trend='nc', max_ar=8, max_ma=8)
     
    print('AIC', train_results.aic_min_order)
    print('BIC', train_results.bic_min_order)
    

    结果为:

    AIC (1, 0)
    BIC (1, 0)
    

    表明我们应该选择AR(1)模型。

    一般来说,BIC准则得到的ARMA模型的阶数较AIC的低。

    4.3 模型检验

    这里的模型检验主要有两个:
    1)检验残差的正态性
    2)检验残差序列的随机性,即残差之间是独立的

    残差序列的随机性可以通过自相关函数法来检验,即做残差的自相关函数图:

    model = sm.tsa.ARIMA(train, order=(1, 0, 0))
    results = model.fit()
    resid = results.resid #赋值
    fig = plt.figure(figsize=(12,8))
    fig = sm.graphics.tsa.plot_acf(resid.values.squeeze(), lags=40)
    plt.show()
    

    结果如下:

    这里很明显的检测是通过的。

    4.4 模型预测

    预测主要有两个函数,一个是predict函数,一个是forecast函数,predict中进行预测的时间段必须在我们训练ARIMA模型的数据中,forecast则是对训练数据集末尾下一个时间段的值进行预估。

    model = sm.tsa.ARIMA(sub, order=(1, 0, 0))
    results = model.fit()
    predict_sunspots = results.predict(start=str('2014-04'),end=str('2014-05'),dynamic=False)
    print(predict_sunspots)
    fig, ax = plt.subplots(figsize=(12, 8))
    ax = sub.plot(ax=ax)
    predict_sunspots.plot(ax=ax)
    plt.show()
    

    结果如下:

    预估下一个值:

    results.forecast()[0]
    

    解说视频:B站:机器学习经典算法:时间序列ARIMA模型

    参考文献:
    ARIMA模型原理及实现
    机器学习(五)——时间序列ARIMA模型
    时间序列模型 一到七

    相关文章

      网友评论

          本文标题:时间序列

          本文链接:https://www.haomeiwen.com/subject/dphlrktx.html