赞
踩
点击蓝字
关注我们
AI TIME欢迎每一位AI爱好者的加入!
8月27日20:00—21:30,本期直播间邀请了苏黎世联邦理工大学梁经韵、中国科学院大学博士生刘翼豪、南洋理工大学博士生冯锐成、悉尼大学博士生顾津锦,与大家一起探讨底层视觉研究,我们应该往哪走?
Low-level Vision 中 Transformer 是未来的趋势吗?
如何看待底层视觉研究进入定式化的状态?还有哪些高价值问题值得我们探索?
底层视觉独特于其他研究的难点是什么?
如何看待现在底层视觉的论文发表趋势?
哔哩哔哩直播通道
扫码关注AITIME哔哩哔哩官方账号预约直播
★ 嘉宾简介 ★
梁经韵:
苏黎世联邦理工大学(ETH Zurich)计算机视觉实验室博士生,师从Luc Van Gool教授和Radu Timofte教授。主要研究方向为底层计算机视觉,尤其是视频和图像复原技术,包括超分辨率、去模糊、去噪、插桢等。在CVPR、ICCV、ECCV等会议发表多篇学术论文,并担任TPAMI、IJCV、TIP等期刊审稿人。
刘翼豪:
中国科学院大学博士生(培养单位:中科院深圳先进技术研究院),导师为乔宇研究员、董超副研究员。主要研究方向为底层图像处理及增强,包括图像视频超分、复原、插帧、上色、增强,以及底层视觉可解释性等。在ICCV、ECCV、TPAMI、TMM等会议和期刊发表多篇论文。曾参与6次国内外学术竞赛,其中获得AIM2020视频插帧竞赛第1名、PIRM2018感知图像超分竞赛第1名、NTIRE2021 HDR图像恢复竞赛第2名、UDC2020屏下摄像机图像复原竞赛第3名的成绩。
冯锐成:
南洋理工大学MMLab博士生,师从吕健勤(Chen Change Loy)教授。主要研究方向为计算摄影、底层图像处理及图像增强,包括超分辨率、屏下相机、光场相机、夜景增强等。曾在CVPR上发表多篇学术论文,获得NTIRE2019 RealSR竞赛第2名。
顾津锦:
现在在悉尼大学攻读博士学位。于 CVPR、ECCV、Cell Patterns 等知名会议和期刊上发表 20余篇论文,Google 学术引用量超过 3100 次。曾获 PIRM2018 感知图像超分辨率比赛冠军, NTIRE2019 真实图像超分辨比赛冠军,NTIRE2022 高效图像超分辨比赛模型复杂度赛道冠军。其研究成果SenseSR 已经产品化并被应用到 Vivo、Oppo 等智能手机中。曾获得商汤优秀实习生、商汤实习生之星和商汤奖学金等荣誉。此外,他还是学术会议NeurIPS、ICLR、CVPR、ECCV、ICCV、ICML、AAAI、WACV的审稿人。他也是IEEE, Transactions on Pattern Analysis and Machine Intelligence (TPAMI),IEEE, Transactions on Image Processing (TIP),IEEE, Transactions on Multimedia (TMM),IEEE, Transactions on Circuits and Systems for Video Technology (TCSVT),IEEE, Transactions on Cybernetics (TCYB),Springer, International Journal of Computer Vision (IJCV)等期刊的审稿人。他曾是知名研讨会New Trends in Image Restoration and Enhancement workshop (NTIRE)的组织者。
★ 主持人简介 ★
毛海涛:
密歇根州立大学一年级博士生,师从汤继良教授,曾以一作身份获CIKM2021 best short paper award。
直播结束后大家可以在群内进行提问,请添加“AI TIME小助手(微信号:AITIME_HY)”,回复“CVPR”,将拉您进“AI TIME 计算机视觉交流群”!
AI TIME微信小助手
主 办:AI TIME
合作媒体:AI 数据派、学术头条
合作伙伴:智谱·AI、中国工程院知领直播、学堂在线、蔻享学术、AMiner、 Ever链动、科研云
往期精彩文章推荐
记得关注我们呀!每天都有新知识!
关于AI TIME
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
迄今为止,AI TIME已经邀请了700多位海内外讲者,举办了逾350场活动,超280万人次观看。
我知道你
在看
哦
~
点击 阅读原文 预约直播!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。