当前位置:   article > 正文

2022最新!基于深度transformer的时间序列异常检测模型

vldb tranad
  1. 点击上方“python与机器智能”,选择“星标”公众号
  2. 重磅干货,第一时间送达

论文:TranAD: Deep Transformer Networks for Anomaly Detection in Multivariate Time Series Data

代码链接:来源:VLDB 2022

文章链接:https://arxiv.org/abs/2201.07284

代码链接:https://github.com/imperial-qore/tranad

在本文中,作者提出了 TranAD,这是一种基于深度transformer的异常检测和诊断模型,它使用基于注意力的序列编码器来快速执行推理,并了解数据中更广泛的时间趋势。TranAD 使用基于焦点分数的自我调节来实现强大的多模态特征提取和对抗训练以获得稳定性。此外,与模型无关的元学习 (MAML) 使得可以使用有限的数据训练模型。对六个公开可用数据集的广泛实证研究表明,TranAD 可以通过数据和高效的训练在检测和诊断性能方面优于最先进的基线方法。具体来说,与基线相比,TranAD 将 F1 分数提高了 17%,将训练时间减少了 99%。

outside_default.png

01

研究背景

多变量时间序列数据中的有效异常检测和诊断对于现代工业应用具有重要意义。然而,构建一个能够快速准确地查明异常观察的系统是一个具有挑战性的问题。这是由于缺乏异常标签、高数据波动性以及现代应用程序中对超低推理时间的需求。尽管很多出现了用于异常检测的深度学习方法,但其中只有少数能够解决所有这些挑战。

02

方法原理

a7b28b8fc98fb1ac13d0ec73298ab578.png

Transformer 是流行的深度学习模型,已用于各种自然语言和视觉处理任务。在这篇论文中,作者使用对Transformer架构的深度重构来完成时间序列数据中的异常检测任务。就像其他编码器-解码器模型一样,在转换器中,输入序列会经历多次基于注意力的转换。图 1 显示了 TranAD 中使用的神经网络的架构。编码器对完整序列进行编码。窗口编码器使用它来创建输入窗口

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/355980
推荐阅读
相关标签