赞
踩
2021年诺贝尔生理学、医学奖揭晓,获奖者是戴维·朱利叶斯(DavidJulius)和阿代姆·帕塔博蒂安(Ardem Patapoutian),表彰他们在“发现温度和触觉感受器”方面作出的贡献。那作为算法从业者,我们该思考些什么呢?人在感知这个世界的时候,主要的方式就是视觉,嗅觉,听觉等等。其中语音,文字和图像是最重要的传播载体,这三个领域的研究也都在这几年得到了快速的发展,今天我们就来看看其交叉的领域即文字+图像的图文多模态,其实多模态涉及的领域很多,目前主流的是文字+图像这一分支。从2018年Bert横空出世以后,以预训练模型为基石的各个领域百花齐放,下面梳理的多模态预训练模型也是在这样一个背景下诞生的,具体大概是从2019年开始涌现的。主要包括VILBERT
、B2T2
、LXMERT
、VisualBERT
、Unicoder-VL
、VL-BERT
、UNITER
、Pixel-BERT
、ERNIE-ViL
、UNIMO
、CLIP
、FLAVA
、ERNIE-VILG
、X-VLM
、OFA
、STA
等。目前布局在这一赛道的公司包括:腾讯、百度、谷歌、微软、Facebook、UCLA、京东、阿里等等。
数据模态主要包括RGB
、骨架
、深度
、红外序列
、点云
、事件流
、音频
、加速信号
、雷达
和WiFi
等
字节 AI Lab 提出多模态模型:X-VLM,学习视觉和语言多粒度对齐
ICML 2022|达摩院多模态模型OFA,实现模态、任务和架构三个统一
电子科大(申恒涛团队)&京东AI(梅涛团队)提出用于视频问答的结构化双流注意网络,性能SOTA!优于基于双视频表示的方法!
顶刊TPAMI 2022!基于不同数据模态的行为识别:最新综述
微软亚研院
)一>2022.03
谷歌
)一>2022.04
谷歌
)一>2022.05
智源
)一>2022.05
OpenAI
)一>2022.06
Ego-4D
Facebook开源的Ego 4D(Egocentric 4D Perception)计划数据集,该计划是对第一人称或“以自我为中心”的视频进行分析,由两个主要部分组成:一个开放的以自我为中心的视频数据集和一系列Facebook将在未来赋予AI系统的基准。
Facebook与全球9个国家13所大学和实验室合作收集数据。最新数据显示总共有大约3,205小时的镜头,由居住在9个不同国家的855名参与者录制。参与者佩戴GoPro相机和AR眼镜来录制无脚本活动的视频,视频内容包括建筑工作、烘焙、与宠物玩耍和与朋友交往等行为。
JRDB
斯坦福视觉与学习实验室研究团队在一篇名为「JRDB:用于人类环境中导航的视觉感知的数据集和基准」的研究中介绍了他们从其社交移动操纵器 JackRabbot 收集的新颖数据集 JRDB。 该数据集包括来自传统上代表性不足的场景(例如室内环境和行人区域)的数据,这些数据来自固定和导航机器人平台。数据集包括 64 分钟的多模式传感器数据,包括:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。