当前位置:   article > 正文

大厂面经|NLP 算法实习岗,对我后续找工作太重要了!_nlp实习生

nlp实习生

当前就业大环境,我不用多说,大家都懂的,能找一份大厂实习机会,对后续的春招和秋招都是至关重要的。

最近星球群的两位同学,分享了他们 NLP 算法岗的实习经历、心得和后续的校招面试经验分享。

今天我整理一下,分享一下他们的面试题给大家,如果你对这块感兴趣,可以文末加入我们的技术群。

1、平安科技

1.自我介绍;

2.主要用过哪些深度学习框架(Pytorch);

3.介绍自己的论文和项目;

4.什么是元学习(项目和论文中用到了);

5.多任务学习的一些框架(项目和论文中用到了,SharedBottom、MMoE、SRN等);

6.介绍一下LR回归、XGBoost、GBDT,以及他们的优缺点;

7.介绍一下BERT和ChactGPT;

8.如何处理文本信息(Word2Vec);

9.有用过C++吗,说一下C++的三个特性(封装、集成、多态);

10.SQL有使用过吗,只会最简单的增删改查;

11.了解哪些深度学习模型(MLP、CNN、RNN、Transformer),说一下各自的优缺点;

12.RNN有哪些问题(梯度消失、梯度爆炸),如何缓解(使用LSTM结构,引入门控机制);

13.可以实习多长时间,学校导师放实习吗;

12.反问(实习主要做什么,自己应该补充哪些知识);

13.总结:本身是做推荐相关的,没有问太多NLP相关的内容,需要恶补一下NLP相关的知识,总体面试感觉良好;

14.大模型是否有关注过,熟悉那些大模型,并说明它们的区别?

15.有没有看过大模型相关的论文、参加比赛、项目案例?

2、吉利极氪智能座舱 NLP

让我也打开简历,简单做个自我介绍

crf原理

基于Bert的序列标注任务去掉crf效果是否有影响

lstm 的门有哪些,怎么运算的(这个答得不好,当时把他当黑盒用了,对门控机制不熟)

交叉熵、BCE、softmax、sigmoid

深挖 Bert,Bert 的结构,base有多少层、BatchNorm/LayerNorm、Bert的输入、残差层公式、是否了解

BPE/WordPiece/SentencePiece(这个答得不好,记不太清楚了),其实问的还不够深入,我还准备了比如多头注意力的并行计算细节之类的,有种拔剑四顾心茫然的怅然若失(这就问完了,不及我准备的十分之一呢)

论文和科研工作的时间分配

大模型在NLP的幻觉问题如何解决?

大模型在NLP可能应用的场景有那些?

大模型应用框架Langchain 是否知道?几个模块是做什么的

技术交流群

前沿技术、岗位信息分享、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)、等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~

我们建了大模型&NLP 面试与技术交流群, 想要进交流群、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2060。加的时候备注一下:研究方向 +学校/公司+CSDN,即可。然后就可以拉你进群了。

方式①、添加微信号:mlc2060,备注:技术交流
方式②、微信搜索公众号:机器学习社区,后台回复:技术交流

用通俗易懂方式讲解系列

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/823656
推荐阅读
相关标签
  

闽ICP备14008679号