美文网首页
序列模型

序列模型

作者: 小黄不头秃 | 来源:发表于2022-09-28 03:09 被阅读0次

(一)序列模型

我们前面所讨论的模型都是和图片信息息息相关的。图片信息是一种空间信息,而我们现在处理的信息是要加上时间信息的。例如RNN,NLP。都是一种序列模型。

现实生活中,我们的很多信息都是有时序结构的,举个例子,例如电影的评分,随着时间的变化,分数会变化;音乐,语言,文本,视频都是连续的信息。

(1)对时序数据怎么建模?

在时间t观察得到了一个数据x_t,那么得到T个不独立的随机变量(x_1, x_2, ..., x_T) ~ p(x)。使用条件概率展开(乘法法则):
p(a,b)=p(a)p(b|a)=p(b)p(a|b)

我们可以看这个公式在直观上的表达,也就是后续的概率是基于前面的概率。从公式表达来讲,当然也可以反过来观察。但是有时候不一定能知道后续序列,例如在股票预测中,我们不能用后面的信息推测前面的信息。在填空题中,我们需要观测上下文,这时候是可以使用逆向的。

(2)序列模型

那么对于神经网络要解决的问题是什么呢?就是说给定前面t-1个样本的概率预测第t个样本的概率。我们可以在前面给定的t-1个样本上建立一个模型f。那么现在预测样本t的概率被分解为了两个小问题。

  • 怎么建模函数 f
  • 怎么预测 p

当然这里的模型和我们之前的模型是不一样的,我们前边的大部分模型是给定一个输入,这个输入是独立同分布的,我们给他分类,输入一个图片输出一个label。但现在不同,现在的样本是不独立的,给定一个x1,输出一个x2,然后又根据x1,x2,输出x3.这就是这样的一个过程。这就叫做自回归模型

方案1:马尔科夫假设
假设:当前数据值更过去的τ个过去的数据点有关。
我们之前说的是后面的输出回合前面所有的样本都有关,但是那样的话随着时间的变化,计算量会剧增。所以我们假设,当前数据只跟前面部分数据有关系。这样的假设也是和现实情况是相似的。

假设仅和预测位置前τ个信息有关,可得:

方案2:潜变量模型
引入一个潜变量h_t来表示过去的信息h_t=f(x1,...x_{t-1})
这样的话x_t=p(x_t|h_t),我们可以把h_t看作是一个向量或者是一个数。

如果这样假设的话,h 需要跟着时间的变化而变化,他根据上一个 h 和 x 更新得到新的 h' ,然后在计算得到下一个 x' 。这样就构造了两个模型分别计算 x 和 h 。

总结:

  • 时序模型中,当前数据跟之前观察得到的数据相关
  • 自回归模型使用自身过去的数据来预测未来
  • 马尔可夫模型假设现在的数据之和过去少量数据有关,从而简化了模型
  • 潜变量模型使用潜变量来概括历史信息

(二)代码实现

我们看如何用马尔可夫假设构建一个训练模型

%matplotlib inline
import torch 
from torch import nn 
from d2l import torch as d2l  

# 构造一个时间序列,sin函数加噪声
t = 1000
time = torch.arange(1,t+1,dtype=torch.float32)
x = torch.sin(0.01*time) + torch.normal(0,0.2,(t,))
d2l.plot(time,[x],'time','x',xlim=[0.9,1000.1],figsize=(6,3))

y_t= x_t

x_t= [x_{t-τ},..., x_{t-1}]

# 将数据映射为一个数据对
tau = 4
# features是一个序列的列表,每次预测拿前面的tau个样本预测。
# 那么预测时间一直到t,一共需要预测t-τ次,所以将数据构造成(t-tau,tau)
features = torch.zeros((t-tau,tau))

for i in range(tau):
    features[:,i] = x[i:t-tau+i] # 优雅
# i=0, features[:,0] = x[0:996] 第一列填充[0-996)
# i=1, features[:,1] = x[1:997] 第一列填充[1-997)
# i=2, features[:,2] = x[2:998] 第一列填充[2-998)
# i=3, features[:,3] = x[3:999] 第一列填充[3-999)

label  =x[tau:].reshape((-1,1)) # (预测值)

batch_size, n_train=16, 600
train_iter = d2l.load_array((features[:n_train],label[:n_train]),batch_size,is_train=True)

# 构建一个简单的函数
def init_weights(m):
    if type(m) == nn.Linear:
        nn.init.xavier_normal_(m.weight)

def get_net():
    net = nn.Sequential(
        nn.Linear(4,10),
        nn.ReLU(),
        nn.Linear(10,1)
    )
    net.apply(init_weights)
    return net

loss = nn.MSELoss()
# 训练模型
def train(net, train_iter, loss, epochs, lr):
    trainer = torch.optim.Adam(net.parameters(), lr)
    for epoch in range(epochs):
        for X, y in train_iter:
            trainer.zero_grad()
            l = loss(net(X), y)
            l.sum().backward()
            trainer.step()
        print(f'epoch {epoch + 1}, '
              f'loss: {d2l.evaluate_loss(net, train_iter, loss):f}')

net = get_net()
train(net, train_iter, loss, 5, 0.01)
# 模型预测下一步, 蓝色的线是原始数据,紫色的线是根据四个点往后预测一个值的结果
onestep_preds = net(features) # 600以后是预测值
d2l.plot([time, time[tau:]],
         [x.detach().numpy(), onestep_preds.detach().numpy()], 'time',
         'x', legend=['data', '1-step preds'], xlim=[1, 1000],
         figsize=(6, 3))

效果还是不错的,那么现在的预测还仅仅是预测异步的结果。那么我们看看让他预测出一系列的数据藏什么样子呢?,也就是给定前4个,预测下一个,然后把预测值加到历史数据中在预测下一个。看看表现如何?

multistep_preds = torch.zeros(t)
multistep_preds[: n_train + tau] = x[: n_train + tau]# [0:604)
for i in range(n_train + tau, t): # [604,1000)
    multistep_preds[i] = net( # 预测结果放进历史数据,不断地预测
        multistep_preds[i - tau:i].reshape((1, -1)))

# 画图看结果
d2l.plot([time, time[tau:], time[n_train + tau:]],
         [x.detach().numpy(), onestep_preds.detach().numpy(),
          multistep_preds[n_train + tau:].detach().numpy()], 'time',
         'x', legend=['data', '1-step preds', 'multistep preds'],
         xlim=[1, 1000], figsize=(6, 3))

600以后就开始预测,结果发现错的相当离谱。(绿色的线)那么出现这种现象的原因是什么呢?
是因为我们每一次预测都会产生一些误差,然而每一次误差会叠加到下一次,一直一直叠加下去。

max_steps = 64

features = torch.zeros((t - tau - max_steps + 1, tau + max_steps))
# 列i(i<tau)是来自x的观测,其时间步从(i)到(i+T-tau-max_steps+1)
for i in range(tau):
    features[:, i] = x[i: i + t - tau - max_steps + 1]

# 列i(i>=tau)是来自(i-tau+1)步的预测,其时间步从(i)到(i+T-tau-max_steps+1)
for i in range(tau, tau + max_steps):
    features[:, i] = net(features[:, i - tau:i]).reshape(-1)

steps = (1, 4, 16, 64)
d2l.plot([time[tau + i - 1: t - max_steps + i] for i in steps],
         [features[:, (tau + i - 1)].detach().numpy() for i in steps], 'time', 'x',
         legend=[f'{i}-step preds' for i in steps], xlim=[5, 1000],
         figsize=(6, 3))

这里可以看出当step=4的时候还不错,当step=16或者64的时候误差会相当大。
第一和τ的选取有关;
第二我们的模型是两层模型,非常简单比较难拟合sin函数。
所以说,序列模型对于长远的未来数据是很难预测的。

相关文章

  • restful 可写嵌套模型

    Django Rest Framework 嵌套序列化关系模型 序列化模型与序列化关系模型 序列化和反序列化 通俗...

  • Django:rest framework之序列化(Serial

    一 什么是序列化 ——序列化模型与序列化关系模型:序列化模型,顾名思义,即对 models 里的数据模型作序列化。...

  • 开源AI模型序列化总结

    目录 模型序列化简介 序列化分类 Scikit-learn模型序列化方法 XGBoost模型序列化方法 Light...

  • 深度学习之序列模型

    1,序列模型应用 输入或者输出中包含有序列数据的模型叫做序列模型。以循环神经网络RNN为基础建立的序列模型在自然语...

  • 时间序列分析

    趋势,平稳时间序列模型,非平稳时间序列模型,模型识别,模型估计,参数估计,模型诊断,预测,季节模型,时间序...

  • tensorflow代码全解析 -3- seq2seq 自动生成

    模型概述 序列建模seq2seq,给定一个序列A,模型生产另一个序列B,然后模型再由序列B生成C,以此一直持续下去...

  • 吴恩达深度学习-序列模型1.1 为什么选择序列模型

    序列模型指的是一串数据前后之间有相关关系的模型,在使用序列模型的过程当中,没有指定输入量或者是输出量要是序列模型,...

  • (1)序列模型简介

    序列模型特点 序列模型也是基于训练集(X, Y)的监督学习类型:输入和输出都为序列 OR 只有输入或输出为序列 序...

  • 将自定义模型存入沙盒

    要先将模型序列化----》然后存的时候要先将模型转为Data类型再存储 1.将模型序列化 模型.h文件 模型.m文...

  • 概率计算算法

    1.1 直接计算法 由于已知马尔可夫模型参数和观察序列,所以有 模型产生某一状态序列的概率 模型产生某一状态序列时...

网友评论

      本文标题:序列模型

      本文链接:https://www.haomeiwen.com/subject/ntdkortx.html