赞
踩
arxive: DSformer: A Double Sampling Transformer for Multivariate Time Series Long-term Prediction
github: MTST
分类:多变量时间序列(Multivariate time series)
Variable Attention
Down Sampling
Piecewise Sampling
个人观点:全局信息更多指周期项,局部信息更多指趋势项
符号 | 含义 |
---|---|
N | 变量数 |
H | 输入序列长度 |
L | 输出序列长度 |
C | 切分子序列数量 |
N 为变量数,H为输入序列长度,C是切分子序列的数量。
输入序列
X
∈
R
N
∗
H
X \in R^{N*H}
X∈RN∗H,经过Down sampling
得到
X
d
s
∈
R
N
∗
C
∗
H
C
X_{ds} \in R ^{N * C * \frac{H}{C}}
Xds∈RN∗C∗CH,经过Picewise Sampling
得到
X
p
s
∈
R
N
∗
C
∗
H
C
X_{ps} \in R ^{N * C * \frac{H}{C}}
Xps∈RN∗C∗CH。
在TVA-block
中进行Variable Attention
和Temporal Attention
。其中Temporal Attention
中
Q
∈
R
N
∗
C
∗
H
C
Q \in R ^{N * C * \frac{H}{C}}
Q∈RN∗C∗CH,
K
∈
R
N
∗
H
C
∗
C
K \in R ^{N * \frac{H}{C} *C}
K∈RN∗CH∗C;Variable Attention
中
Q
∈
R
H
C
∗
C
∗
N
Q \in R ^{\frac{H}{C} * C * N}
Q∈RCH∗C∗N,
K
∈
R
∗
H
C
∗
N
∗
C
K \in R ^{ * \frac{H}{C} *N *C}
K∈R∗CH∗N∗C。
Temporal Attention
是子序列之间,通过比较同一变量子序列的相似度计算注意力,Variable Attention
是不同子序列之间,通过比较同一位置各个变量的相似度计算注意力。
随后,Temporal Attention
和Variable Attention
输出
X
′
∈
R
N
∗
C
∗
H
C
X' \in R ^{N * C * \frac{H}{C}}
X′∈RN∗C∗CH被FFN压缩成
X
′
∈
R
N
∗
H
C
X' \in R ^{N * \frac{H}{C}}
X′∈RN∗CH,然后相加。
最后,经过一个TVA-block
整理来自不同视角的信息(Down sampling
和Picewise Sampling
)和MLP
得到输出。
两种采样方式的区别在于如何将切分后的子序列重新排列。
两种attention的主要区别在于X的维度变化:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。