赞
踩
论文链接:Spatial-Temporal Large Language Model for Traffic Prediction
代码仓库:https://github.com/ChenxiLiu-HNU/ST-LLM
发表于MDM2024(Mobile Data Management)
本文主要面向交通流量数据。
符号 | 含义 |
---|---|
N | 交通站点数 |
C | 特征数量 |
P | 历史序列长度 |
S | 预测序列长度 |
注: X P ∈ R P ∗ N ∗ C X_P \isin R^{P*N*C} XP∈RP∗N∗C,但在本文实验中C=1(原文“C = 1 represents the traffic pick-up or drop-off flow”),因而有 X P ∈ R P ∗ N X_P \isin R^{P*N} XP∈RP∗N
一般而言,spatial-temporal embedding分为:
然后将三种embedding合并:
H
F
=
F
u
s
i
o
n
C
o
n
v
(
E
P
∣
∣
E
S
∣
∣
E
T
)
∈
R
N
∗
3
D
H_F = FusionConv(E_P||E_S||E_T) \isin R^{N*3D}
HF=FusionConv(EP∣∣ES∣∣ET)∈RN∗3D
其中’||'是拼接符号。
这部分使用GPT2捕获时空依赖。Transformer Block中训练时空开销最大的是注意力(Attention)模块。本文使用了F+U个Transformer层:
从这个实验结果来看,看起来很多后来的方法都比不上DCRNN???
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。