赞
踩
聊聊NLP那些大事儿,预训练大模型大势所趋。
Transformer:在seq2seq+Attention模型的基础上把循环神经网络的部分给去掉了,取而代之的也是attention结构。
BERT:双向Transformer+微调
BERT与模型压缩:
BERT变种:
自然语言处理领域:ACL, EMMLP, NAACL, COLING
机器学习/深度学习领域:ICML, NIPS, UAI, ALSTATS, ICLR
数据挖掘领域:SIGIR, KDD(应用), WSDM, SDM(理论), WWW, CIKM, SIGMOD(数据管理)
人工智能领域:IJCAI, AAAI
https://www.ccf.org.cn/xspj/rgzn/
https://dblp.uni-trier.de
国内NLP/CL学术会议:NLP&CC,CCL, YSSNLP, CCIR, CWMT
科技媒体:机器之心、雷锋网/AI科技评论、PaperWeekly、DeepTech、新智元。
会议或期刊排名:参考CCF列表
https://www.ccf.org.cn/Academic_Evaluation/By_category/
新手关注,查看会议路径:
1) Tutorial Session
2) Workshop
3) Paper Session
去www.arxiv.org上订阅某个领域,收取相关最新的邮件。
欢迎各位关注我的个人公众号:HsuDan,我将分享更多自己的学习心得、避坑总结、面试经验、AI最新技术资讯。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。