赞
踩
针对 ViT
需求数据量大、运算速度慢的问题,Facebook 与索邦大学 Matthieu Cord 教授合作发表 Training data-efficient image transformers(DeiT) & distillation through attention
。DeiT
将知识蒸馏
的策略与 ViT
相结合,性能与最先进的卷积神经网络(CNN)可以抗衡。
论文名称:Training data-efficient image transformers & distillation through attention
论文地址:https://arxiv.org/abs/2012.12877
代码地址:https://github.com/facebookresearch/deit
提到 DeiT
,就不提不提及 ViT
。这里对 ViT
进行简要介绍来帮助大家初步了解 ViT
。
ViT
模型将 Transformer
模型应用在了 CV
领域,并取得了突出的成果。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。