IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 基于pytorch搭建多特征CNN-LSTM时间序列预测代码详细解读(附完整代码) -> 正文阅读

[人工智能]基于pytorch搭建多特征CNN-LSTM时间序列预测代码详细解读(附完整代码)

系列文章目录

lstm系列文章目录
1.基于pytorch搭建多特征LSTM时间序列预测代码详细解读(附完整代码)
2.基于pytorch搭建多特征CNN-LSTM时间序列预测代码详细解读(附完整代码)



前言

除了LSTM神经网络,一维CNN神经网络也是处理时间系列预测和分类的一种重要工具,本文不从理论上赘述CNN处理时间序列,仅通过代码复现向大家展示CNN+LSTM是如何具体的运作的。另外,数据集和数据预处理仍沿用之前文章基于pytorch搭建多特征LSTM时间序列预测代码详细解读(附完整代码),本文不再赘述其细节,主要复现网络结构的变动。


一、数据展示

本次实验的数据集仍沿用前文数据集,一共三个特征,经过预处理后数据集维度为(604,3,3)数据集

二、模型构建

1.网络模型构建

代码如下:

def __init__(self,in_channels,out_channels,hidden_size,num_layers,output_size,batch_size,seq_length) -> None:
        super(convNet,self).__init__()
        self.in_channels=in_channels       
        self.out_channels=out_channels
        self.hidden_size=hidden_size
        self.num_layers=num_layers
        self.output_size=output_size
        self.batch_size=batch_size
        self.seq_length=seq_length
        self.num_directions=1 # 单向LSTM
        self.relu = nn.ReLU(inplace=True)
        # (batch_size=64, seq_len=3, input_size=3) ---> permute(0, 2, 1)
        # (64, 3, 3)
        self.conv=nn.Sequential(
            nn.Conv1d(in_channels=self.in_channels, out_channels=self.out_channels, kernel_size=2), #shape(7,--)  ->(64,3,2)
            nn.ReLU())
        self.lstm=nn.LSTM(input_size=out_channels,hidden_size=hidden_size,num_layers=num_layers,batch_first=True)
        self.fc = nn.Linear(hidden_size, output_size)

首先创建一个实例,其中包括必要参数 ( in_channels,out_channels, hidden_size,num_layers,output_size,batch_size,seq_length),根据一维CNN网络参数的定义有:
nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)
本文设定的参数为:
'nn.Conv1d(in_channels=self.in_channels, out_channels=self.out_channels, kernel_size=2)

这里补充一下CNN处理时间序列的知识
in channels:在文本应用中,即为词向量的维度(在本文中为3,也即特征数) out_channels:卷积产生的通道数,有多少个out_channels,就需要多少个一维卷积(也就是卷积核的数量,在本文中为9)
kernel_size:卷积核的尺寸;卷积核的第二个维度由in_channels决定,所以实际上卷积核的大小为kernel_size * in channels(在本文中为2* 3)
padding:对输入的每一条边,补充0的层数
其中in_channels和out_channels分别表示输入通道数和输出通道数,结合我们的时间序列预测,我们可以把in_channels理解为特征数或者为自然语言处理中的embedding。
在本数据集中一共3个特征,所以in_channels=3。out_channels可以随意设置,本文中将其设置为9,但是要注意,在其后的LSTM层中,有input_size=out_channels,也就是说所设置的输出通道数将会成为LSTM层的输入,因此在实例参数中没有input_size,因为input_size=out channels。所以只需要设置参数out_channels。
可能这样描述大家会被绕的头晕目眩的,可能我把每层网络输入纬度描写出来会清晰很多:

  • 由于是将数据输入至LSTM中,所以数据预处理之后的格式为:

    x.shape=(batce_size,seq_length,input_size)

  • 将数据输入至网络中,除去relu函数,就是输入至第一层的conv层中,conv层输入格式为:
    conv_input=(batch_size,input_size,seq_length),这里注意后两个3交换了

  • 经过卷积层卷积后,维度将会变换:
    conv_output=(batch_size,output_channels,seq_length-kernel_size+1
    这里注释一下,第二个维度为什么从input_size变成了out_channels,因为input_szie就是in_channels,我是为了方便大家从LSTM输入层次理解才写成input_size,卷积层卷积后,in_channels自然就变成了out_channels,这是第二个维度的变换。
    第三个维度为什么变成了seq_length-kernel_size+1,这是因为一维卷积中卷积操作是针对seq_len维度进行的,维度可通过公式计算: N = W ? F + 2 P S + 1 N=\frac{W-F+2P}{S}+1 N=SW?F+2P?+1。其中:W为输入大小,F为核大小,P为填充大小,S为步长,P=0,S=1,那么维度自然就成了seq_length-kernel_size+1,而这个变换后的维度,会变成下一层LSTM输入维度中的seq_length,这什么意思呢,接下来继续看

  • LSTM接收数据形式为input_size=(batce_size,seq_length,input_size)此处input_size=out_channels,将维度交换有:
    input_size=(batch_size,seq_length,out_channels)

  • LSTM输出结果维度形式为:
    output=(batch_size, seq_len, num_directions * hidden_size)

  • 全连接层的输入维度形式为:
    fc=(hidden_size,output_size)因为是做时间序列预测,这里的output_size直接就是1了

  • 展示一下网络结构:
    convNet( (relu): ReLU(inplace=True) (conv): Sequential( (0): Conv1d(3, 9, kernel_size=(2,), stride=(1,)) (1): ReLU() ) (lstm): LSTM(9, 12, num_layers=6, batch_first=True) (fc): Linear(in_features=12, out_features=1, bias=True) )
    这就是整个模型数据走下来的流程了,相信这样大家还是能够看到很清晰的,可惜数据最后两个维度都是3,有点混淆但是我也懒得新找数据集了,大家将就一下吧,不懂留言我看见会回的。

2.前向传播

代码如下:

def forward(self,x):
        x=x.permute(0,2,1)
        x=self.conv(x)
        x=x.permute(0,2,1)
        batch_size, seq_len = x.size()[0], x.size()[1]    
        h_0 = torch.randn(self.num_directions * self.num_layers, x.size(0), self.hidden_size)
        c_0 = torch.randn(self.num_directions * self.num_layers, x.size(0), self.hidden_size)
        # output(batch_size, seq_len, num_directions * hidden_size)
        output, _ = self.lstm(x, (h_0, c_0)) 
        pred = self.fc(output)  
        pred = pred[:, -1, :]  
        return pred

前向传播主要就是实现各层维度输入上的一致,完整的输入流程为:

1. 数据集输入x.shape=(batce_size,seq_length,input_size)=(64,3,3)
2. 卷积层输入conv_input=(batch_size,input_size,seq_length)=(64,3,3)
3. LSTM层输入input_size=(batch_size,seq_length,out_channels)=(64,1,9)

从数据集输入至卷积层需要进行一次维度交换,有x=x.permute(0,2,1)
从卷积层输入至LSTM需要进行一次维度交换,有x=x.permute(0,2,1)
之后的操作就是LSTM的前向传播了,参考前文,不再赘述。
总的看下来我们就会发现cnn-lstm主要难点在于理解各个层的数据接收形式,将数据形式维度变化搞清楚我们就能很清楚的应用了


三、训练

本文的训练函数仍沿用前文,不再赘述,直接上结果:
最后几次训练的损失:
iter: 4400, loss: 0.00325 iter: 4500, loss: 0.00024 iter: 4600, loss: 0.00368 iter: 4700, loss: 0.00046
最后的预测图
预测结果比较
最后真实值和预测值的MAE/RMSE:
36.01287
77.402145
损失函数的:MAE/RMSE
216.57518
216.59293

好像比只用LSTM还差一点哈哈哈哈哈哈,那没事了,大家懂cnn-lstm怎么用就行了,这玩意我琢磨了好久好久,希望能帮到大家


总结

cnn-lstm主要是维度和输入限制,建议大家在草稿纸上画一画,会明了很多
完整代码见我的GitHub

如果您也觉得写得不错的话请关注、点赞+收藏,不懂的在文章下方评论我会不定时解答

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-10-17 12:33:42  更:2022-10-17 12:35:02 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 20:22:42-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码