当前位置:   article > 正文

网易NLP面经 2020-11-02_网易nlp算法面经

网易nlp算法面经

网易NLP面经

  1. 面试职位:AI研究工程师(NLP方向)-实习生 - 技术中心030
  2. 面试方式:视频面试
  3. 个人信息:双非中流一本 软件工程 大三上学期 11月

面试流程

  • 首先问了我的空余时间怎么样 能实习多久
  • 然后开始问简历,简历上打的比赛是什么样的形式和内容
  • 然后在这个比赛中用的一篇论文解释一下思想(没答上来 忘了论文的细节了) 往简历上放的论文和技能一定要多复习 熟悉每一个细节
  • 然后讲了我在比赛中完成的任务 顺便讲了一下我们和前几名的差距所在

开始问课题项目

  • 由于不能说我的idea 故只讲了一些baseline方面的论文,主要是讲论文里面提到的两个SOTA模型,其中一个我细节又发不上来:为什么这个投票机制有效,一个句子中的比较不相关的token(比如‘的’ ‘我’)所对应的意图会是正确的吗?我这个问题曾经稍微想过,但是没多看。往简历上放的论文和技能一定要多复习 熟悉每一个细节

问NLP的知识

  • RNN中的梯度爆炸和梯度消失:没复习,忘了
  • lstm的门控机制里面用的是什么激活函数:我又忘了,只回答是把范围限制在0-1之间的那个。
  • 遗忘门怎么工作,为什么要设计遗忘门:他说我回答对了,但可以简洁一点
  • TF-IDF解释一下:我又忘了,在百度的帮助下说了一下大概(还好前几天还刚好看了莫凡python的文本搜索 复习了一下这个)
  • 为什么有了sigmod函数还要tanh函数,设计这个激活函数的原因是什么:这我真没探究过,看了一下百度好像也和梯度消失爆炸有关
  • 问了BERT:讲了一下Transformers里面的attention机制,上周工程训练一直在看这个。不过刚看完不久,还不熟悉。里面的KEY这个专有名词一直想不起来,是他提醒了我。

问有无了解过文本生成

只看了一两次,知道个大概。但确实没有做过相关的任务和调研,不过他说的seq2seq和attention结合的模型我是有了解的。他又问了这个模型的attention和transformers中的attention有什么区别,区别是什么:不知道

补充

我的大创项目,还有数模国赛省二等,全都没有问我。好歹也是用python做的嘛,这么不值钱吗呜呜呜,好歹也是爬虫相关和数学相关的啊啊啊。
校园经历也没有问我,不过他看一下至少也能知道我的成绩也还不错。
后来也问了一下我为什么来投简历,我也如实说实在boss上机缘巧合跟HR投的简历。

反馈

我问了一下他在实际工作中,NLP做了些什么:

  • 网易互娱在游戏中,在逢年过节时会有一些作诗做对联的,这时候就用到了文本生成。
  • 在公司文档很多,做一个文档的归类和关键词搜索。这时候就用到了关系抽取和命名实体识别。
  • 工业界会有数据,但肯定没有学术界的数据那么干净。有时候需要自己标数据。

他给我的的面试提了一些建议

建议

  • 第一个是不要紧张,可能我是第一次,以后就会好了
  • 第二个是一些专有名词忘了就用别的普通语言描述这个专有名词 不用一定要死磕想出来专有名词
  • 第三个是鼓励我 说我大三现在的水平还可以 很有潜力
  • 第四个是让我下次视频面试时可以跟舍友先调好设备 耳机里面有电流声
  • 第五个是跟着老师做实践时多想得深一点(因为里面有一两个问题 我稍微看一眼就过去了 没看细节)

总结

面试官人很好,感觉真的一种老鸟在面试一个新手,没有问很难很偏的题目,也没有很为难,一直都说没关系,不用紧张,最后也会鼓励我。真的是要求放的很低很低。也没问我关于leecode的题 也没有给我那种考智商的题 也没有现场手撕代码

不过一个没刷过leecode,没复习机器学习和深度学习的基础知识,也没修完所有学科的大三上学期的我,确实也就是这水平了。如果有复习和多一些时间复盘之类的应该会比较好。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/419756
推荐阅读
相关标签
  

闽ICP备14008679号