1、概述
深度学习方法是一种利用神经网络模型进行高级模式识别和自动特征提取的机器学习方法,近年来在时序预测领域取得了很好的成果。常用的深度学习模型包括循环神经网络(RNN)、长短时记忆网络(LSTM)、门控循环单元(GRU)、卷积神经网络(CNN)、注意力机制(Attention)和混合模型(Mix )等,与机器学习需要经过复杂的特征工程相比,这些模型通常只需要经数据预处理、网络结构设计和超参数调整等,即可端到端输出时序预测结果。深度学习算法能够自动学习时间序列数据中的模式和趋势,神经网络涉及隐藏层数、神经元数、学习率和激活函数等重要参数,对于复杂的非线性模式,深度学习模型有很好的表达能力。在应用深度学习方法进行时序预测时,需要考虑数据的平稳性和周期性,选择合适的模型和参数,进行训练和测试,并进行模型的调优和验证。
2、算法展示
(资料图片仅供参考)
2.1 RNN类
在RNN中,每个时刻的输入和之前时刻的状态被映射到隐藏状态中,同时根据当前的输入和之前的状态,预测下一个时刻的输出。RNN的一个重要特性是可以处理变长的序列数据,因此非常适用于时序预测中的时间序列数据。另外,RNN还可以通过增加LSTM、GRU、SRU等门控机制来提高模型的表达能力和记忆能力。
2.1.1 RNN(1990)
Paper:Finding Structure in Time
RNN(循环神经网络)是一种强大的深度学习模型,经常被用于时间序列预测。RNN通过在时间上展开神经网络,将历史信息传递到未来,从而能够处理时间序列数据中的时序依赖性和动态变化。在RNN模型的构建中,LSTM和GRU模型常被使用,因为它们可以处理长序列,并具有记忆单元和门控机制,能够有效地捕捉时间序列中的时序依赖性。
2.1.2 LSTM(1997)
Paper:Long Short-Term Memory
LSTM(长短期记忆)是一种常用的循环神经网络模型,经常被用于时间序列预测。相对于基本的RNN模型,LSTM具有更强的记忆和长期依赖能力,可以更好地处理时间序列数据中的时序依赖性和动态变化。在LSTM模型的构建中,关键的是对LSTM单元的设计和参数调整。LSTM单元的设计可以影响模型的记忆能力和长期依赖能力,参数的调整可以影响模型的预测准确性和鲁棒性。
2.1.3 GRU(2014)
Paper:Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
GRU(门控循环单元)是一种常用的循环神经网络模型,与LSTM模型类似,也是专门用于处理时间序列数据的模型。GRU模型相对于LSTM模型来说,参数更少,运算速度也更快,但是仍然能够处理时间序列数据中的时序依赖性和动态变化。在GRU模型的构建中,关键的是对GRU单元的设计和参数调整。GRU单元的设计可以影响模型的记忆能力和长期依赖能力,参数的调整可以影响模型的预测准确性和鲁棒性。
2.1.4 SRU(2018)
Paper:Simple Recurrent Units for Highly Parallelizable Recurrence
SRU(随机矩阵单元)是一种基于矩阵计算的循环神经网络模型,也是专门用于处理时间序列数据的模型。SRU模型相对于传统的LSTM和GRU模型来说,具有更少的参数和更快的运算速度,同时能够处理时间序列数据中的时序依赖性和动态变化。在SRU模型的构建中,关键的是对SRU单元的设计和参数调整。SRU单元的设计可以影响模型的记忆能力和长期依赖能力,参数的调整可以影响模型的预测准确性和鲁棒性。
2.2 CNN类
CNN通过卷积层和池化层等操作可以自动提取时间序列数据的特征,从而实现时序预测。在应用CNN进行时序预测时,需要将时间序列数据转化为二维矩阵形式,然后利用卷积和池化等操作进行特征提取和压缩,最后使用全连接层进行预测。相较于传统的时序预测方法,CNN能够自动学习时间序列数据中的复杂模式和规律,同时具有更好的计算效率和预测精度。
2.2.1 WaveNet(2016)
Paper:WAVENET: A GENERATIVE MODEL FOR RAW AUDIO
WaveNet是由DeepMind团队在2016年提出的一种用于生成语音的神经网络模型,它的核心思想是利用卷积神经网络来模拟语音信号的波形,并使用残差连接和门控卷积操作来提高模型的表示能力。除了用于语音生成,WaveNet还可以应用于时序预测任务。在时序预测任务中,我们需要预测给定时间序列的下一个时间步的取值。通常情况下,我们可以将时间序列看作是一个一维向量,并将其输入到WaveNet模型中,得到下一个时间步的预测值。
在WaveNet模型的构建中,关键的是对卷积层的设计和参数调整。卷积层的设计可以影响模型的表达能力和泛化能力,参数的调整可以影响模型的预测准确性和鲁棒性。
2.2.2 TCN(2018)
Paper:An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling
TCN(Temporal Convolutional Network)是一种基于卷积神经网络的时序预测算法,其设计初衷是为了解决传统RNN(循环神经网络)在处理长序列时存在的梯度消失和计算复杂度高的问题。。相比于传统的RNN等序列模型,TCN利用卷积神经网络的特点,能够在更短的时间内对长期依赖进行建模,并且具有更好的并行计算能力。TCN模型由多个卷积层和残差连接组成,其中每个卷积层的输出会被输入到后续的卷积层中,从而实现对序列数据的逐层抽象和特征提取。TCN还采用了类似于ResNet的残差连接技术,可以有效地减少梯度消失和模型退化等问题,而空洞卷积可以扩大卷积核的感受野,从而提高模型的鲁棒性和准确性。
TCN模型的结构如下图所示:
TCN模型的预测过程包括以下几个步骤:
输入层:接收时间序列数据的输入。
卷积层:采用一维卷积对输入数据进行特征提取和抽象,每个卷积层包含多个卷积核,可以捕获不同尺度的时间序列模式。
残差连接:类似于ResNet,通过将卷积层的输出与输入进行残差连接,可以有效地减少梯度消失和模型退化等问题,提高模型的鲁棒性。
重复堆叠:重复堆叠多个卷积层和残差连接,逐层提取时间序列数据的抽象特征。
池化层:在最后一个卷积层之后添加一个全局平均池化层,将所有特征向量进行平均,得到一个固定长度的特征向量。
输出层:将池化层的输出通过一个全连接层进行输出,得到时间序列的预测值。
TCN模型的优点包括:
能够处理长序列数据,并且具有良好的并行性。
通过引入残差连接和空洞卷积等技术,避免了梯度消失和过拟合的问题。
相对于传统RNN模型,TCN模型具有更高的计算效率和预测准确率。
数据归一化对时序预测影响探究?
原始数据是否按月份生成协变量,是否归一化,对最终时序预测效果影响重大,就本实验场景而言,原始数据为百分制更适用于无归一化&有协变量方式,协变量需根据实际业务表现进行选择
归一化&无协变量
归一化&有协变量
无归一化&无协变量
无归一化&有协变量
2.2.3 DeepTCN(2019)
Paper:Probabilistic Forecasting with Temporal Convolutional Neural Network
Code:deepTCN
DeepTCN(Deep Temporal Convolutional Networks)是一种基于深度学习的时序预测模型,它是对传统TCN模型的改进和扩展。DeepTCN模型使用了一组1D卷积层和最大池化层来处理时序数据,并通过堆叠多个这样的卷积-池化层来提取时序数据的不同特征。在DeepTCN模型中,每个卷积层都包含多个1D卷积核和激活函数,并且使用残差连接和批量归一化技术来加速模型的训练。
DeepTCN模型的训练过程通常涉及以下几个步骤:
数据预处理:将原始的时序数据进行标准化和归一化处理,以减小不同特征的尺度不一致对模型训练的影响。
模型构建:使用多个1D卷积层和最大池化层构建DeepTCN模型,可以使用深度学习框架,如TensorFlow、PyTorch等来构建模型。
模型训练:使用训练数据集对DeepTCN模型进行训练,并通过损失函数(如MSE、RMSE等)来度量模型的预测性能。在训练过程中,可以使用优化算法(如SGD、Adam等)来更新模型参数,并使用批量归一化和DeepTCN等技术来提高模型的泛化能力。
模型评估:使用测试数据集对训练好的DEEPTCN模型进行评估,并计算模型的性能指标,如平均绝对误差(MAE)、平均绝对百分比误差(MAPE)等。
模型训练输入输出长度对时序预测影响探究?
就本实验场景而言,受原始数据样本限制,输入输出长度和batch_size无法过大调整,从性能角度建议选用大batch_size&短输入输出方式
短输入输出
长输入输出
长输入输出,大batch_size
短输入输出,大batch_size
2.3 Attention类
注意力机制(Attention)是一种用于解决序列输入数据中重要特征提取的机制,也被应用于时序预测领域。Attention机制可以自动关注时间序列数据中的重要部分,为模型提供更有用的信息,从而提高预测精度。在应用Attention进行时序预测时,需要利用Attention机制自适应地加权输入数据的各个部分,从而使得模型更加关注关键信息,同时减少无关信息的影响。Attention机制不仅可以应用于RNN等序列模型,也可以应用于CNN等非序列模型,是目前时序预测领域研究的热点之一。
2.3.1 Transformer(2017)
Paper:Attention Is All You Need
Transformer是一种广泛应用于自然语言处理(NLP)领域的神经网络模型,其本质是一种序列到序列(seq2seq)的模型。Transformer将序列中的每个位置视为一个向量,并使用多头自注意力机制和前馈神经网络来捕捉序列中的长程依赖性,从而使得模型能够处理变长序列和不定长序列。
在时序预测任务中,Transformer模型可以将输入序列的时间步作为位置信息,将每个时间步的特征表示为一个向量,并使用编码器-解码器框架进行预测。具体来说,可以将预测目标的前N个时间步作为编码器的输入,将预测目标的后M个时间步作为解码器的输入,并使用编码器-解码器框架进行预测。编码器和解码器都是由多个Transformer模块堆叠而成,每个模块由多头自注意力层和前馈神经网络层组成。
在训练过程中,可以使用均方误差(MSE)或平均绝对误差(MAE)等常见的损失函数来度量模型的预测性能,使用随机梯度下降(SGD)或Adam等优化算法来更新模型参数。在模型训练过程中,还可以使用学习率调整、梯度裁剪等技术来加速模型的训练和提高模型的性能。
2.3.2 TFT(2019)
Paper:Temporal Fusion Transformersfor Interpretable Multi-horizon Time Series Forecasting
TFT(Transformer-based Time Series Forecasting)是一种基于Transformer模型的时序预测方法,它是由谷歌DeepMind团队于2019年提出的。TFT方法的核心思想是在Transformer模型中引入时间特征嵌入(Temporal Feature Embedding)和模态嵌入(Modality Embedding)。时间特征嵌入可以帮助模型更好地学习时序数据中的周期性和趋势性等特征,而模态嵌入可以将外部的影响因素(如气温、节假日等)与时序数据一起进行预测。
TFT方法可以分为两个阶段:训练阶段和预测阶段。在训练阶段,TFT方法使用训练数据来训练Transformer模型,并使用一些技巧(如随机掩码、自适应学习率调整等)来提高模型的鲁棒性和训练效率。在预测阶段,TFT方法使用已训练好的模型来对未来时序数据进行预测。
与传统的时序预测方法相比,TFT方法具有以下优点:
可以更好地处理不同尺度的时间序列数据,因为Transformer模型可以对时间序列的全局和局部特征进行学习。
可以同时考虑时间序列数据和外部影响因素,从而提高预测精度。
可以通过端到端的训练方式直接学习预测模型,不需要手动提取特征。
2.3.3 HT(2019)
HT(Hierarchical Transformer)是一种基于Transformer模型的时序预测算法,由中国香港中文大学的研究人员提出。HT模型采用分层结构来处理具有多个时间尺度的时序数据,并通过自适应注意力机制来捕捉不同时间尺度的特征,以提高模型的预测性能和泛化能力。
HT模型由两个主要组件组成:多尺度注意力模块和预测模块。在多尺度注意力模块中,HT模型通过自适应多头注意力机制来捕捉不同时间尺度的特征,并将不同时间尺度的特征融合到一个共同的特征表示中。在预测模块中,HT模型使用全连接层对特征表示进行预测,并输出最终的预测结果。
HT模型的优点在于,它能够自适应地处理具有多个时间尺度的时序数据,并通过自适应多头注意力机制来捕捉不同时间尺度的特征,以提高模型的预测性能和泛化能力。此外,HT模型还具有较好的可解释性和泛化能力,可以适用于多种时序预测任务。
2.3.4 LogTrans(2019)
Paper:Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting
Code:Autoformer
LogTrans提出了一种 Transformer 时间序列预测改进方法,包括卷积自注意力(生成具有因果卷积的查询和密钥,将局部环境纳入注意力机制)和LogSparse Transformer(Transformer 的内存效率较高的变体,用于降低长时间序列建模的内存成本),主要用于解决Transformer时间序列预测与位置无关的注意力和记忆瓶颈两个主要弱点。
2.3.5 DeepTTF(2020)
DeepTTF(Deep Temporal Transformational Factorization)是一种基于深度学习和矩阵分解的时序预测算法,由美国加州大学洛杉矶分校的研究人员提出。DeepTTF模型将时间序列分解为多个时间段,并使用矩阵分解技术对每个时间段进行建模,以提高模型的预测性能和可解释性。
DeepTTF模型由三个主要组件组成:时间分段、矩阵分解和预测器。在时间分段阶段,DeepTTF模型将时间序列分为多个时间段,每个时间段包含连续的一段时间。在矩阵分解阶段,DeepTTF模型将每个时间段分解为两个低维矩阵,分别表示时间和特征之间的关系。在预测器阶段,DeepTTF模型使用多层感知机对每个时间段进行预测,并将预测结果组合成最终的预测序列。
DeepTTF模型的优点在于,它能够有效地捕捉时间序列中的局部模式和全局趋势,同时保持较高的预测精度和可解释性。此外,DeepTTF模型还支持基于时间分段的交叉验证,以提高模型的鲁棒性和泛化能力。
2.3.6 PTST(2020)
Probabilistic Time Series Transformer (PTST)是一种基于Transformer模型的时序预测算法,由Google Brain于2020年提出。该算法采用了概率图模型来提高时序预测的准确性和可靠性,能够在不确定性较大的时序数据中取得更好的表现。
PTST模型主要由两个部分组成:序列模型和概率模型。序列模型采用Transformer结构,能够对时间序列数据进行编码和解码,并利用自注意力机制对序列中的重要信息进行关注和提取。概率模型则引入了变分自编码器(VAE)和卡尔曼滤波器(KF)来捕捉时序数据中的不确定性和噪声。
具体地,PTST模型的序列模型使用Transformer Encoder-Decoder结构来进行时序预测。Encoder部分采用多层自注意力机制来提取输入序列的特征,Decoder部分则通过自回归方式逐步生成输出序列。在此基础上,概率模型引入了一个随机变量,即时序数据的噪声项,它被建模为一个正态分布。同时,为了减少潜在的误差,概率模型还使用KF对序列进行平滑处理。
在训练过程中,PTST采用了最大后验概率(MAP)估计方法,以最大化预测的概率。在预测阶段,PTST利用蒙特卡洛采样方法来从后验分布中抽样,以生成一组概率分布。同时,为了衡量预测的准确性,PTST还引入了均方误差和负对数似然(NLL)等损失函数。
2.3.7 Reformer(2020)
Paper:Reformer: The Efficient Transformer
Reformer是一种基于Transformer模型的神经网络结构,它在时序预测任务中具有一定的应用前景。可以使用Reformer模型进行采样、自回归、多步预测和结合强化学习等方法来进行时序预测。在这些方法中,通过将已知的历史时间步送入模型,然后生成未来时间步的值。Reformer模型通过引入可分离的卷积和可逆层等技术,使得模型更加高效、准确和可扩展。总之,Reformer模型为时序预测任务提供了一种全新的思路和方法。
2.3.8 Informer(2020)
Paper:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting
Code: https://github.com/zhouhaoyi/Informer2020
Informer是一种基于Transformer模型的时序预测方法,由北京大学深度学习与计算智能实验室于2020年提出。与传统的Transformer模型不同,Informer在Transformer模型的基础上引入了全新的结构和机制,以更好地适应时序预测任务。Informer方法的核心思想包括:
长短时记忆(LSTM)编码器-解码器结构:Informer引入了LSTM编码器-解码器结构,可以在一定程度上缓解时间序列中的长期依赖问题。
自适应长度注意力(AL)机制:Informer提出了自适应长度注意力机制,可以在不同时间尺度上自适应地捕捉序列中的重要信息。
多尺度卷积核(MSCK)机制:Informer使用多尺度卷积核机制,可以同时考虑不同时间尺度上的特征。
生成式对抗网络(GAN)框架:Informer使用GAN框架,可以通过对抗学习的方式进一步提高模型的预测精度。
在训练阶段,Informer方法可以使用多种损失函数(如平均绝对误差、平均平方误差、L1-Loss等)来训练模型,并使用Adam优化算法来更新模型参数。在预测阶段,Informer方法可以使用滑动窗口技术来预测未来时间点的值。
Informer方法在多个时序预测数据集上进行了实验,并与其他流行的时序预测方法进行了比较。实验结果表明,Informer方法在预测精度、训练速度和计算效率等方面都表现出了很好的性能。
2.3.9 TAT(2021)
TAT(Temporal Attention Transformer)是一种基于Transformer模型的时序预测算法,由北京大学智能科学实验室提出。TAT模型在传统的Transformer模型基础上增加了时间注意力机制,能够更好地捕捉时间序列中的动态变化。
TAT模型的基本结构与Transformer类似,包括多个Encoder和Decoder层。每个Encoder层包括多头自注意力机制和前馈网络,用于从输入序列中提取特征。每个Decoder层则包括多头自注意力机制、多头注意力机制和前馈网络,用于逐步生成输出序列。与传统的Transformer模型不同的是,TAT模型在多头注意力机制中引入了时间注意力机制,以捕捉时间序列中的动态变化。具体地,TAT模型将时间步信息作为额外的特征输入,然后利用多头注意力机制对时间步进行关注和提取,以辅助模型对序列中动态变化的建模。此外,TAT模型还使用了增量式训练技术,以提高模型的训练效率和预测性能。
2.3.10 NHT(2021)
Paper:Nested Hierarchical Transformer: Towards Accurate, Data-Efficient and Interpretable Visual Understanding
NHT(Nested Hierarchical Transformer)是一种用于时间序列预测的深度学习算法。它采用了一种嵌套的层次变换器结构,通过多层次嵌套的自注意力机制和时间重要性评估机制来实现对时间序列数据的精确预测。NHT模型通过引入更多的层次结构来改进传统的自注意力机制,同时使用时间重要性评估机制来动态地控制不同层次的重要性,以获得更好的预测性能。该算法在多个时间序列预测任务中表现出了优异的性能,证明了其在时序预测领域的潜力。
2.3.11 Autoformer(2021)
Paper:Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting
Code:https://github.com/thuml/Autoformer
AutoFormer是一种基于Transformer结构的时序预测模型。相比于传统的RNN、LSTM等模型,AutoFormer具有以下特点:
自注意力机制:AutoFormer采用自注意力机制,可以同时捕捉时间序列的全局和局部关系,避免了长序列训练时的梯度消失问题。
Transformer结构:AutoFormer使用了Transformer结构,可以实现并行计算,提高了训练效率。
多任务学习:AutoFormer还支持多任务学习,可以同时预测多个时间序列,提高了模型的效率和准确性。
AutoFormer模型的具体结构类似于Transformer,包括编码器和解码器两部分。编码器由多个自注意力层和前馈神经网络层组成,用于从输入序列中提取特征。解码器同样由多个自注意力层和前馈神经网络层组成,用于将编码器的输出转化为预测序列。此外,AutoFormer还引入了跨时间步的注意力机制,可以在编码器和解码器中自适应地选择时间步长。总体而言,AutoFormer是一种高效、准确的时序预测模型,适用于多种类型的时间序列预测任务。
2.3.12 Pyraformer(2022)
Paper:Pyraformer: Low-complexity Pyramidal Attention for Long-range Time Series Modeling and Forecasting
Code: https://github.com/ant-research/Pyraformer
蚂蚁研究院提出一种新的基于金字塔注意力的Transformer(Pyraformer),以弥补捕获长距离依赖和实现低时间和空间复杂性之间的差距。具体来说,通过在金字塔图中传递基于注意力的信息来开发金字塔注意力机制,如图(d)所示。该图中的边可以分为两组:尺度间连接和尺度内连接。尺度间的连接构建了原始序列的多分辨率表示:最细尺度上的节点对应于原始时间序列中的时间点(例如,每小时观测值),而较粗尺度下的节点代表分辨率较低的特征(例如,每日、每周和每月模式)。这种潜在的粗尺度节点最初是通过粗尺度构造模块引入的。另一方面,尺度内边缘通过将相邻节点连接在一起来捕获每个分辨率下的时间相关性。因此,该模型通过以较粗的分辨率捕获此类行为,从而使信号穿越路径的长度更短,从而为远距离位置之间的长期时间依赖性提供了一种简洁的表示。此外,通过稀疏的相邻尺度内连接,在不同尺度上对不同范围的时间依赖性进行建模,可以显著降低计算成本。
2.3.13 FEDformer(2022)
Paper:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
Code: https://github.com/MAZiqing/FEDformer
FEDformer是一种基于Transformer模型的神经网络结构,专门用于分布式时序预测任务。该模型将时间序列数据分成多个小的分块,并通过分布式计算来加速训练过程。FEDformer引入了局部注意力机制和可逆注意力机制,使得模型能够更好地捕捉时序数据中的局部特征,并且具有更高的计算效率。此外,FEDformer还支持动态分区、异步训练和自适应分块等功能,使得模型具有更好的灵活性和可扩展性。
2.3.14 Crossformer(2023)
Paper:Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series Forecasting
Code: https://github.com/Thinklab-SJTU/Crossformer
Crossformer提出一个新的层次Encoder-Decoder的架构,如下所示,由左边Encoder(灰色)和右边Decoder(浅橘色)组成,包含Dimension-Segment-Wise (DSW) embedding,Two-Stage Attention (TSA)层和LinearProjection三部分。
2.4 Mix类
将ETS、自回归、RNN、CNN和Attention等算法进行融合,可以利用它们各自的优点,提高时序预测的准确性和稳定性。这种融合的方法通常被称为“混合模型”。其中,RNN能够自动学习时间序列数据中的长期依赖关系;CNN能够自动提取时间序列数据中的局部特征和空间特征;Attention机制能够自适应地关注时间序列数据中的重要部分。通过将这些算法进行融合,可以使得时序预测模型更加鲁棒和准确。在实际应用中,可以根据不同的时序预测场景,选择合适的算法融合方式,并进行模型的调试和优化。
2.4.1 Encoder-Decoder CNN(2017)
Paper:Deep Learning for Precipitation Nowcasting: A Benchmark and A New Model
Encoder-Decoder CNN也是一种可以用于时序预测任务的模型,它是一种融合了编码器和解码器的卷积神经网络。在这个模型中,编码器用于提取时间序列的特征,而解码器则用于生成未来的时间序列。
具体而言,Encoder-Decoder CNN模型可以按照以下步骤进行时序预测:
输入历史时间序列数据,通过卷积层提取时间序列的特征。
将卷积层输出的特征序列送入编码器,通过池化操作逐步降低特征维度,并保存编码器的状态向量。
将编码器的状态向量送入解码器,通过反卷积和上采样操作逐步生成未来的时间序列数据。
对解码器的输出进行后处理,如去均值或标准化,以得到最终的预测结果。
需要注意的是,Encoder-Decoder CNN模型在训练过程中需要使用适当的损失函数(如均方误差或交叉熵),并根据需要进行超参数调整。此外,为了提高模型的泛化能力,还需要使用交叉验证等技术进行模型评估和选择。
2.4.2 LSTNet(2018)
Paper:Modeling Long- and Short-Term Temporal Patterns with Deep Neural Networks
LSTNet是一种用于时间序列预测的深度学习模型,其全称为Long- and Short-term Time-series Networks。LSTNet结合了长短期记忆网络(LSTM)和一维卷积神经网络(1D-CNN),能够有效地处理长期和短期时间序列信息,同时还能够捕捉序列中的季节性和周期性变化。LSTNet最初是由中国科学院计算技术研究所的Guokun Lai等人于2018年提出的。
LSTNet模型的核心思想是利用CNN对时间序列数据进行特征提取,然后将提取的特征输入到LSTM中进行序列建模。LSTNet还包括一个自适应权重学习机制,可以有效地平衡长期和短期时间序列信息的重要性。LSTNet模型的输入是一个形状为(T, d)的时间序列矩阵,其中T表示时间步数,d表示每个时间步的特征维数。LSTNet的输出是一个长度为H的预测向量,其中H表示预测的时间步数。在训练过程中,LSTNet采用均方误差(MSE)作为损失函数,并使用反向传播算法进行优化。
2.4.3 TDAN(2018)
Paper:TDAN: Temporal Difference Attention Network for Precipitation Nowcasting
TDAN(Time-aware Deep Attentive Network)是一种用于时序预测的深度学习算法,它通过融合卷积神经网络和注意力机制来捕捉时间序列的时序特征。相比于传统的卷积神经网络,TDAN能够更加有效地利用时间序列数据中的时间信息,从而提高时序预测的准确性。
具体而言,TDAN算法可以按照以下步骤进行时序预测:
输入历史时间序列数据,通过卷积层提取时间序列的特征。
将卷积层输出的特征序列送入注意力机制中,根据历史数据中与当前预测相关的权重,计算加权特征向量。
将加权特征向量送入全连接层,进行最终的预测。
需要注意的是,TDAN算法在训练过程中需要使用适当的损失函数(如均方误差),并根据需要进行超参数调整。此外,为了提高模型的泛化能力,还需要使用交叉验证等技术进行模型评估和选择。
TDAN算法的优点在于可以自适应地关注历史数据中与当前预测相关的部分,从而提高时序预测的准确性。同时,它也可以有效地处理时间序列数据中的缺失值和异常值等问题,具有一定的鲁棒性。
2.4.4 DeepAR(2019)
Paper:DeepAR: Probabilistic Forecasting with Autoregressive Recurrent Networks
DeepAR 是一个自回归循环神经网络,使用递归神经网络 (RNN) 结合自回归 AR 来预测标量(一维)时间序列。在很多应用中,会有跨一组具有代表性单元的多个相似时间序列。DeepAR 会结合多个相似的时间序列,例如是不同方便面口味的销量数据,通过深度递归神经网络学习不同时间序列内部的关联特性,使用多元或多重的目标个数来提升整体的预测准确度。DeepAR 最后产生一个可选时间跨度的多步预测结果,单时间节点的预测为概率预测,默认输出P10,P50和P90三个值。这里的P10指的是概率分布,即10%的可能性会小于P10这个值。通过给出概率预测,我们既可以综合三个值给出一个值预测,也可以使用P10 – P90的区间做出相应的决策。
2.4.5 N-BEATS(2020)
Paper:N-BEATS: Neural basis expansion analysis for interpretable time series forecasting
Code: https://github.com/amitesh863/nbeats_forecast
N-BEATS(Neural basis expansion analysis for interpretable time series forecasting)是一种基于神经网络的时序预测模型,由Oriol Vinyals等人在Google Brain团队开发。N-BEATS使用基于学习的基函数(learned basis function)对时间序列数据进行表示,从而能够在保持高精度的同时提高模型的可解释性。N-BEATS模型还采用了堆叠的回归模块和逆卷积模块,可以有效地处理多尺度时序数据和长期依赖关系。
2.4.6 TCN-LSTM(2021)
Paper:A Comparative Study of Detecting Anomalies in Time Series Data Using LSTM and TCN Models
TCN-LSTM是一种融合了Temporal Convolutional Network(TCN)和Long Short-Term Memory(LSTM)的模型,可以用于时序预测任务。在这个模型中,TCN层和LSTM层相互协作,分别用于捕捉长期和短期时间序列的特征。具体而言,TCN层可以通过堆叠多个卷积层来实现,以扩大感受野,同时通过残差连接来防止梯度消失。而LSTM层则可以通过记忆单元和门控机制来捕捉时间序列的长期依赖关系。
TCN-LSTM模型可以按照以下步骤进行时序预测:
输入历史时间序列数据,通过TCN层提取时间序列的短期特征。
将TCN层输出的特征序列送入LSTM层,捕捉时间序列的长期依赖关系。
将LSTM层输出的特征向量送入全连接层,进行最终的预测。
需要注意的是,TCN-LSTM模型在训练过程中需要使用适当的损失函数(如均方误差),并根据需要进行超参数调整。此外,为了提高模型的泛化能力,还需要使用交叉验证等技术进行模型评估和选择。
2.4.7 NeuralProphet(2021)
Paper:Neural Forecasting at Scale
NeuralProphet是Facebook提供的基于神经网络的时间序列预测框架,它在Prophet框架的基础上增加了一些神经网络结构,可以更准确地预测具有复杂非线性趋势和季节性的时间序列数据。
NeuralProphet的核心思想是利用深度神经网络来学习时间序列的非线性特征,并将Prophet的分解模型与神经网络结合起来。NeuralProphet提供了多种神经网络结构和优化算法,可以根据具体的应用需求进行选择和调整。NeuralProphet的特点如下:
灵活性:NeuralProphet可以处理具有复杂趋势和季节性的时间序列数据,并且可以灵活地设置神经网络结构和优化算法。
准确性:NeuralProphet可以利用神经网络的非线性建模能力,提高时间序列预测的准确性。
可解释性:NeuralProphet可以提供丰富的可视化工具,帮助用户理解预测结果和影响因素。
易用性:NeuralProphet可以很容易地与Python等编程语言集成,并提供了丰富的API和示例,使用户可以快速上手。
NeuralProphet在许多领域都有广泛的应用,例如金融、交通、电力等。它可以帮助用户预测未来的趋势和趋势的变化,并提供有用的参考和决策支持。
2.4.8 N-HiTS(2022)
Paper:N-HiTS: Neural Hierarchical Interpolation for Time Series Forecasting
N-HiTS(Neural network-based Hierarchical Time Series)是一种基于神经网络的层次时序预测模型,由Uber团队开发。N-HiTS使用基于深度学习的方法来预测多层次时间序列数据,如产品销售、流量、股票价格等。该模型采用了分层结构,将整个时序数据分解为多个层次,每个层次包含不同的时间粒度和特征,然后使用神经网络模型进行预测。N-HiTS还采用了一种自适应的学习算法,可以动态地调整预测模型的结构和参数,以最大程度地提高预测精度。
2.4.9 D-Linear(2022)
Paper:Are Transformers Effective for Time Series Forecasting?
Code: https://github.com/cure-lab/LTSF-Linear
D-Linear(Deep Linear Model)是一种基于神经网络的线性时序预测模型,由李宏毅团队开发。D-Linear使用神经网络结构来进行时间序列数据的线性预测,从而能够在保持高预测精度的同时提高模型的可解释性。该模型采用了多层感知器(Multilayer Perceptron)作为神经网络模型,并通过交替训练和微调来提高模型的性能。D-Linear还提供了一种基于稀疏编码的特征选择方法,能够自动选择具有区分性和预测能力的特征。与之相近,N-Linear(Neural Linear Model)是一种基于神经网络的线性时序预测模型,由百度团队开发。
编辑:黄飞
标签:
基于深度学习方法进行时序预测的调优方案 基于深度学习方法进行时序预测的调优方案-RNN(循环神经网络)是一种强
外媒:日本央行决定维持大规模货币宽松政策 据日本共同社消息,日本央行16日在货币政策会议上决定,维持将利率控制
悦心健康:预计上半年净利润1.55亿元-1.7亿元 上年同期亏损860.88万元 快讯 金融界6月16日消息悦心健康(行情002162,诊股)发布业绩预告,2023年上半
全球微资讯!今日美元/日元汇率基本面分析及交易策略(2023年6月16日) 周五(6月16日),美元 日元上涨,暂报140 686,涨幅0 30%。市场基本面
德生科技(002908.SZ):发行可转债申请获深交所受理 全球今头条 格隆汇6月16日丨德生科技002908002908SZ公布公司于2023年6月15日收到深
中国女排今晚迎战保加利亚队 力争六连胜 京报体育|记者卓然今晚8时30分,2023年世界女排联赛中国香港站,中国女
当前要闻:高德发布HQ Live MAP,基于视觉众源技术可实现数据实时更新 高德发布HQLiveMAP,基于视觉众源技术可实现数据实时更新,近日在第十五
中国加快构建上合组织国家货物快速通道 近日,在青岛海关所属胶州海关现场监管下,一列满载麦麸颗粒的中欧班列
信城通贸系统_信城通 世界快讯 1、[A]:可能存在以下原因:1)没有安装驱动程序排查方法:点击windows
环球快资讯:口岸船舶为浦盛海运建造62000吨多用途重吊船下水 口岸船舶为浦盛海运建造62000吨多用途重吊船下水
庆元县:文化礼堂为您送上一份健康饮水“小贴士”|环球看点 浙江在线-庆元新闻网6月16日讯(通讯员胡芳娟)为普及健康饮水科学知识
2023安全创客汇复赛重庆站落幕 网络安全创新创业企业20强名单出炉 每日时讯 作为国内首个聚焦网络安全领域的专业创投平台,安全创客汇代表了国内信
上艮下震卦详解感情_上艮下震 1、看脸色行事,也是看重容貌。2、犯口舌,男人让步就能成。本文分享完
化妆师资格证怎么考需要什么条件才能报名_化妆师资格证怎么考需要什么条件 1、如果你是社会人员,那你应该去国家职业资格鉴定所参加化妆师资格考
“这麦子地毯,比什么装修都好看!” 记者:李代祥、孙清清、缪异星河南安阳滑县瓦岗寨乡种粮大户祁会轻,望
第二套人民币收藏价格(2023年6月16日)-热推荐 第二套人民币收藏价格(2023年6月16日)
林俊杰歌曲百度云资源下载-林俊杰歌曲百度云打包|焦点热文 1、很多人说看到了他的成长,但是我看到的是他一直以来都不曾改变的认
【世界聚看点】高考考生们这些“套路”骗局要当心:千万别信 高考考生们这些“套路”骗局要当心:千万别信
世界滚动:安克创新:拟发行可转债募资不超过11亿元 安克创新(300866):拟发行可转债募资不超过11亿元,用于便携及户用储能
盛会将至!第十三届烟台国际葡萄酒博览会6月16日开幕-新资讯 以“品牌·文化·合作”为主题的第十三届烟台国际葡萄酒博览会,即将于
环球要闻:分子生物学实验技术都有哪些_分子生物学实验技术 1、PCR分子克隆核酸电泳、琼脂糖凝胶电泳测序DNA。2、RNA提取转化外源D
上海沪工:舒宏瑞减持公司股份约562万股 上海沪工(SH603131,收盘价:11 95元)6月16日晚间发布公告称,公司股
金融街完成发行10亿元公司债 利率3.14% 债券设2个品种,品种一发行金额10亿元,期限为5年期,票面利率3 14%;
北京到大连的火车车次时间表_北京到大连火车时刻表-全球报资讯 1、北京至大连站间开行列车目录车次始发站终到站等级车型开点到点运行
海信商用显示出席上合组织国家级论坛,共话数字化下显示产业变革趋势_全球快资讯 上海合作组织产业链供应链论坛在青岛·上合之珠国际博览中心举行。海信
英方软件:
英方与华为在海外如东南亚、中东、非洲、拉丁美洲有众多的项目落地 英方软件(688435)06月16日在投资者关系平台上答复了投资者关心的问题。
推动金融服务实体经济 河西区营造优质金融营商环境|环球时讯 津云新闻讯:6月16日,天津市人民政府新闻办公室召开新闻发布会,会上
【环球聚看点】五部门:强化脱贫地区和脱贫人口金融支持 人民网北京6月16日电(记者罗知之)据中国人民银行官网消息,中国人民
农业农村部:强化科技创新驱动 加快先进技术装备转化应用|当前快看 人民网北京6月16日电(记者王仁宏)6月15-16日,现代设施农业新设备新
当前快播:天津市举办安全宣传咨询日活动暨金属冶炼安全生产事故应急演练 天津市举办安全宣传咨询日活动暨金属冶炼安全生产事故应急演练2023-06-
内蒙古呼伦贝尔:夏日草原 牧歌悠长 原标题:内蒙古呼伦贝尔:夏日草原牧歌悠长六月草原,天高云淡,牛羊成
2023年7月份去广州长隆会热吗 对于将要迎来的暑假假期想必很多人都为自己制定了游玩计划,而广州长隆
今日看点:国足对阵缅甸队首发阵容公布 6月16日晚,中国队将在大连梭鱼湾体育场与来访的缅甸队进行一场国际A级
全球首款!阿斯利康Capivasertib申报上市,浅谈AKT抑制剂研发进展 Capivasertib是一款靶向三种AKT亚型(AKT1 2 3)的高效选择性抑制剂。
刘诗诗越老越有韵味!穿露肩裙闪耀活动超惊艳,手臂蚊子包好抢眼 天天通讯 前几次出席活动时,刘诗诗都是以蓬松妩媚的波浪发示人,而这一次亮相品
基于深度学习方法进行时序预测的调优方案 基于深度学习方法进行时序预测的调优方案-RNN(循环神经网络)是一种强
邮储银行武威市分行开展打击防范非法集资主题宣传 6月15日,邮储银行武威市分行组织全辖各单位开展“守住钱袋子,护好幸
同和药业(300636.SZ):董事、副总经理黄国军增持16.41万股-环球观焦点 格隆汇6月16日丨同和药业300636300636SZ公布公司于近日收到公司董事副
苏宁易购发布《618下沉市场消费大数据》 苏宁易购发布《618下沉市场消费大数据》:“高端智能化、绿色健康化、
中天金融预重整投资人招募和遴选截止时间延长至8月18日 贵阳市中级人民法院于2023年5月4日决定对中天金融启动预重整,并于2023
金奇仕乳钙软胶囊_金奇仕乳钙怎么样 1、新西兰十一坊牛乳钙粉,在所有钙类中,牛乳钙最容易被人体吸收,吸
东吴证券完成兑付短期融资券本息共计20.16亿元 世界观点 6月16日晚间,东吴证券发布公告称,公司于2023年2月22日发行公司2023年
广日股份:
公司对恒大地产不存在应收账款-世界观速讯 广日股份60089406月16日在投资者关系平台上答复了投资者关心的问题投资
乳化沥青厂家_乳化沥青|焦点热门 1、乳化沥青是一种水包油的乳液。2、液体石油沥青是石油沥青。3、我感
金陵丸子是哪里的菜系?金陵丸子是什么地方的菜?-焦点简讯 金陵丸子已有二千多年的历史,目前以浙江一代比较多见。那么金陵丸子是
全球热资讯!保温杯清洗方法小苏打(保温杯小苏打怎么清洗) 1、先在保温杯中倒入30ml小苏打,再倒入120ml醋。二者混合之后就会起泡
中国产平价车施压!Stellantis将在明年推出平价电动车-观天下 中国产平价车施压!Stellantis将在明年推出平价电动车盖世汽车讯据外媒
【天天速看料】满级爆笑喜剧!电影《表白吧!在毕业前》公映 1905电影网讯6月16日,青春喜剧电影《表白吧!在毕业前》正式登陆全国
埃里克森:霍伊伦德能为曼联效力,但我没有向滕哈赫推荐他|天天观焦点 直播吧6月16日讯曼联中场埃里克森最近接受了EkstraBladet采访,并谈到
怎么喝红酒 怎么喝红酒不容易醉 1、首先,准备高脚杯,拿高脚杯时应握在杯脚处,不可触到杯身。2、喝红
要红包的新年祝福语 要红包的新年祝福语怎么说|每日观察 1、致新年贺忱与最美好的祝福,把红包交出来。2、让温馨的祝愿、幸福的
世界信息:漫威地球为何人才辈出?原来是有天神之血附魔 漫威成立至今已经有80多年了,在这些年中漫威一共创造了8000多位有名有
政银深度融合,乾安联社“四举措”助力村党支部领办合作社_世界热讯 为加快推进村党支部领办合作社快速稳健发展,促进农村金融与村党支部领
拍照扫描文字 手机拍照扫描文字|环球热闻 拍照扫描文字,以小米CC9为例,拍照扫描文字的方法如下:1、在小米手机
lol劫连招教程_lol劫连招 全球聚焦 1、连续招的方法一:先用WEQ消耗,如果消耗半血左右,再按W技能来到分
车被追尾修好了去开车要注意什么_开车要注意什么-微速讯 开车前不能喝酒或醉酒。这是众所周知的事情。开车时不要戴耳机。戴耳机
一代沙雕泰坦泥壳号攻略详解 头条 可能很多一代沙雕朋友还不了解一代...
新业态有新担当!“温小爱”融入基层治理“大格局” 快递“温小爱”志愿服务队员。温江...
再度亮相国际舞台丨海辰储能闪耀欧洲智慧能源展Smarter E Europe_即时 德国当地时间6月14日-16日,集Inte...
每日热议!《赛博朋克2077》“往日之影”导演将继续领导续作制作 CDProjektRED的GabeAmatangelo一直...
外汇市场最新行情走势展望:英镑/日元升至2015年12月以来新高 6月16日,周五欧市盘中,英镑 日...
苹果手机6s Plus多少钱一台?看看市场行情分析 环球热头条 苹果6sPlus作为一款早期的大屏幕iP...
郭永航任广东省委常委、广州市委书记 海报新闻记者张玉升广州报道据《南...
天天观焦点:力勤资源(02245.HK):RKEF项目一期八条生产线均成功投产 力勤资源02245HK公告公司RKEF项目...
全球微动态丨传化货运网行业供应链解决方案,助力客户降本增效 在新能源汽车行业高速发展的背景下...
负数发票的账务处理_负数发票如何做分录_今热点 1、负数发票即税务管理系统中的红...
二级建造师安全教育_二级建造师安全员b证考试时间 1、如何报考二级建造师安全员B证 ...
头条:国足vs缅甸首发平均身价:59万欧vs12.5万欧,武磊一人超缅甸全队 直播吧6月16日讯足球友谊赛,中国...
互坑友情!孟子义说曾舜唏我谈没谈你不知道吗 在娱乐圈发展过程中,粉丝们对于孟...
即时:董慧双_关于董慧双的简介 1、董慧双,女,外科专业医师,现...
“湖北造”整车加速驶向海外,长城110辆越野乘用车抵达欧洲 世界时讯 长城汽车股份有限公司华中整车生产...
39.4℃!北京热到破纪录,明天高温继续-环球报资讯 北京日报客户端|记者骆倩雯今天的...
当前要闻:红豆股份(600400.SH)控股股东大宗交易减持公司1.3%股份 智通财经APP讯红豆股份60040060040...
环球热门:北京土拍:保利发展以36.2亿元竞得石景山广宁村2015等地块 溢价率12.07% 财经网讯6月16日,北京迎来本月第...
每日热门:买车首付一般多少合适_一般买车首付占全价多少比例 想必现在有很多小伙伴对于一般买车...
世界快播:2024款奥德赛上市,配置全面升级 6月15日,2024款奥德赛(参数|询价)...
微信:集中整治涉企业、企业家的虚假不实和侵权信息 当前关注 据“微信珊瑚安全”微信号16日消息...
环球看热讯:微信:集中整治涉企业、企业家的虚假不实和侵权信息 严厉打击恶意炒... 近日,平台上线了“涉企业侵权举报...
民航局:预计今年暑运每日有近195万旅客通过航空出行 民航局:预计今年暑运每日有近195...
win7无线网络列表显示不出来_焦点精选 为了方便很多人移动办公,很多笔记...
全球新资讯:七龙珠全王终极之战_七龙珠全王 1、可以让宇宙在一瞬间全部消失,...
8万元级SUV再添新潮品,2023款欧萌达焕新上市 在出行需求升级时代,SUV是更多年...
中塘镇网格员开展“远离毒品 珍爱生命”宣传活动 每日精选 为进一步引导村民了解毒品的危害、...
全球视点!北京已有413辆通勤班车核定可走公交道,这些路段最受欢迎 6月1日起,北京公交专用道优化调整...
【环球时快讯】01s502室外消火栓井pdf_01s502 1、不存在01S502,只有05S502室外...
首届中国益生菌酸奶营养科学论坛举办 明治中国专家代表进行了题为“LG21...
天天热推荐:工行咸阳彩虹支行开展“守住钱袋子 护好幸福家”主题宣传活动 为认真落实上级和监管部门的部署,...
环球通讯!国际油价料终结周线二连跌,产油国期待中国买需托市 国际油价料终结周线二连跌,产油国...
一代沙雕泰坦泥壳号攻略详解 头条 可能很多一代沙雕朋友还不了解一代...
新老产品定价_关于新老产品定价简介 世界热门 1、新老产品定价是指企业应该根据...
快报:禁毒宣讲进课堂 携手护航助成长 “新型毒品说:我是一颗‘糖’,一...
辽宁防范高温旱情 大中型灌区已累计补水1.86亿立方米 讯息 近日,辽宁省出现自1995年以来历史...
浙数文化涨10.03% 机构净买入1.6亿元 浙数文化涨10 03%机构净买入1 6亿元
外媒:日本央行决定维持大规模货币宽松政策 据日本共同社消息,日本央行16日在...
广州招聘实习生越秀区专场线上招聘会 展翅计划直播带岗越秀区专场(6月1...
青岛市北城发集团7.5亿元中票将兑付 利率3.67% 当前快播 本期债券简称“20青岛北发MTN002”...
79年羊2022年运势如何,2022 79年羊2022年运势如何女 全球时讯 综合运势 属羊天蝎座在虎年里会...
百事通!淄博市淄川区商务局 1、淄博市淄川区商务局是淄博市淄...
超1000小时高度稳定!新工艺助力钙钛矿光伏电池突破瓶颈…… 全球新资讯 财联社6月16日讯(编辑黄君芝)钙...
热头条丨恢复态势延续 新业态注入新动能——前五月经济数据透视 恢复态势延续 新业态注入新动能—...
环球快播:付钱奖励孩子做家务可行吗? 《发现你内心的经济学家》[美]泰勒...
6月16日东明石化油品报价上涨-今日热闻 产品6月15日6月16日涨跌单位:元 ...
打女友屁股-世界热头条 1、能打,但只能暧昧的意思一下轻轻...
注意绕行!最新施工公告 关于实施海峰北路(海滨南路-滨海...
武昌国控集团:携手铺就“放心路”,答好共建“民生答卷”|今日精选 武昌国控集团:携手铺就“放心路”...
又被限高,涉及2.4亿!FF“意外”盈利,贾跃亭能翻身吗?|全球要闻 随着FF91的交付,贾跃亭也迎来了翻...
云赛智联涨10.03% 机构净卖出5987万元 云赛智联涨10 03%机构净卖出5987万元
诺基亚E51无摄像头版:一个时代的回忆_热点评 作为一款曾经风靡一时的经典手机,...
姆巴佩是夏窗的的焦点人物 姆巴佩是夏窗的的焦点人物,虽然他...
华为余承东谈未来汽车行业格局:要么倒闭,要么成为巨头 比亚迪将在未来成为少数能够活下来...
热推荐:将连续的偶数2468排列如图四所示_将连续的奇数1 3 5 7 9排成如下的数表 1、探究规律一:设正中间的数为a,...
世界快资讯丨理性消费、诚信经营!江西省永修县市场监管局有话说 近期,江西省永修县市场监管局收到...
英语应该怎样学好_怎么样学好英语相关内容简介介绍 世界今日讯 如何学好英语,这似乎是一个很古老...
五部门:加大粮食和重要农产品生产金融支持力度 世界速看料 人民网北京6月16日电(记者罗知之...