当前位置:   article > 正文

交通网络多步速度预测:一种考虑时空相关性的深度学习方法_交通速度预测系统实现

交通速度预测系统实现

本文提出了一种新的深度学习结构,即注意图卷积序列到序列模型(AGC-Seq2Seq),将图卷积网络和注意机制集成到Seq2Seq框架中,以开发能够描述多步流量预测中时空相关性的预测模型。考虑到Seq2Seq模型的现有训练方法不适用于时间序列问题,我们在此提出的框架中设计了一种新的训练方法。

AGC-Seq2Seq,该框架通过Seq2Seq模型和图卷积层从时空域协同提取特征。为了克服多步预测的挑战并捕获城市交通模式的时间异质性,模型中进一步引入了注意机制。为Seq2Seq框架设计了一种新的训练方法,旨在多步交通预测,以取代现有的训练方法(即强制教学和计划采样)。它将多维特征(例如历史统计信息和一天中的时间)与时空速度变量协调在一个端到端的深度学习结构中,并使测试周期的输入与训练周期一致。

道路网建模为有向图,节点集N表示交点(路上的探测器或选定分界点),边集L代表路段。A是链接集的邻接矩阵。即如果链接li和链接lj是相连的,则A(i,j)=1。路段li在第t个时间段(5分钟)的速度定义为该时间间隔内车辆在该路段上的平均速度,用表示。第t个时间段道路网的速度定义为向量,其中第i个元素

经典的时间序列预测问题:最近历史m步观测数据可以为多步交通速度预测提供有价值的信息。但除了实时的交通速度信息外,还有一些外生变量,如time-of-day,weekday-or-weekend以及历史统计信息也有助于预测未来的交通速度。

time-of-day转换为有序整数N,比如00:00–00:05为,7:00–7:05为。weekday-or-weekend由变量表示,用以区分工作日和周末。通过在预测模型中引入历史统计信息,可以捕捉交通状况的每日趋势。li路段第t个时间段的历史平均速度、中值速度、最大速度、最小速度和标准偏差分别定义为训练数据集中的平均值、中值、最大值、最小值和标准偏差,分别由表示。

交通速度预测的任务是利用以前观测到的速度记录来预测某一时期内各路段的未来值。多步交通速度问题可以表示为

注意图卷积序列到序列模型(AGC-Seq2Seq),该模型将时空变量和外部/外生信息集成到多步骤交通速度预测的深度学习体系结构中。利用图卷积运算来获取空间特征,然后,Seq2Seq模型由两个具有独立参数的连接RNN模块组成,将空间融合的时间序列编码为输入,以捕获时空相关性。其解码器从上下文向量协同产生按时间步长组织的目标多步输出。我们进一步采用注意机制来建模编码器和解码器中序列之间的交通模式的时间异质性。

我们使用一般的K阶图卷积,对于每个路段,其k阶邻域可表示为。邻接矩阵正好是一跳邻域矩阵A,而K跳邻域矩阵可以通过计算A的K次方来获得clip函数将每个非零元素修改为1。添加单位矩阵使卷积在拓扑图中可以自访问。因此,图卷积简单版本可表示为代表Hadamard积(进行元素级相乘),这样得到一个有可训练参数的新矩阵。因此,Vt(K)是时间t处的空间融合速度向量,其第i个元素代表路段li在时间步t的包含了所有K阶邻居路段信息的空间混合速度。上式也可分解成下式,这里[i]代表矩阵的第i行。

Seq2Seq model:Seq2Seq模型的编码器以设计的多维特征向量为输入,这个多维特征向量将时空变量与外生变量(包含time-of-day and weekday-or-weekend)连接起来。如下:

 

 运算符[·;·]代表将两个张量沿相同维度连接。

然后,在编码器中,先前的隐藏状态ht-j-1与输入Xt-j一起传递到当前时间戳,以计算ht-j。因此,上下文向量C存储编码器的所有信息,包括隐藏状态和输入向量,其作为编码器和解码器部件之间的连接器。

h0是初始隐藏状态,一般设为0。在解码器部分,核心思想是利用上下文向量C作为初始隐藏状态,然后逐步解码输出序列。这样,时间戳t+j,隐藏状态ht+j不仅包含输入信息,还考虑了之前的输出状态

新设计的训练方法

解码器的输入取决于训练方法。Teacher-forcing 是自然语言处理中常用的一种训练策略,真实值(目标序列)被输入解码器进行训练,而在测试阶段,先前生成的预测被用作后续时间戳的输入。然而,这种方法不适用于时间序列问题,主要是因为解码器输入在训练和测试周期之间的分布不一致。Li等通过使用计划抽样来缓解此问题,计划抽样随机选择真实值或之前的预测来向模型提供设定概率然而,这将不可避免地增加模型的复杂性和计算负担。

为了克服上述问题,我们提出了一种新的训练方法,利用历史统计信息和time-of-day作为输入。在时间序列预测问题中,历史统计信息在训练和测试阶段都能获得。在这种情况下,解码器输入在培训和测试阶段之间的分布将相互同步。此外,由于历史统计信息在多步预测中至关重要,因此将其添加到模型中有望提高预测精度。计算式子如下:

采用的RNN结构

我们采用门控递归单元作为编码器和解码器的内部结构。与标准LSTM相比,它具有竞争性的性能和更简单的结构。计算程序如下

 其中.zt和rt分别是更新门和重置门,ct是候选输出。

注意力机制

 为了在不考虑其在输入或输出序列中的距离的情况下对依赖关系进行建模,我们进一步将注意机制集成到模型中。注意机制的关键概念是为每个时间步添加注意力向量,以捕获源端信息的相关性。在时间步t+j注意力函数将查询和一组键映射为注意力向量作为一组键的加权和来计算,分配给每个键的权重通过带有相应键的查询的兼容性函数获得可被解释为测量之间的相似性。本文运用Luong注意形式作为兼容函数,带有可训练权重矩阵Wf和向量来调整结果的维度;进一步用作相应编码器隐藏状态的权重系数来计算

 注意隐藏状态由注意向量和初始隐藏状态组成通过一个简单的连接组成,通过从隐藏状态到输出的线性变换得到最终输出

目标函数

 损失函数:平均绝对误差

本文提出架构图示如下

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/737559
推荐阅读
相关标签
  

闽ICP备14008679号