当前位置:   article > 正文

大模型面试题最全总结,没有一道是送分题。。。_rag 面试

rag 面试

节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂同学、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。

今天分享大模型面试相关知识点,持续更新,希望对后续找工作的有所帮助。喜欢记得点赞、收藏、关注。更多技术交流&面经学习,可以文末加入我们交流群。


1. RAG技术体系的总体思路

数据预处理->分块(这一步骤很关键,有时候也决定了模型的效果)->文本向量化->query向量化->向量检索->重排->query+检索内容输入LLM->输出

2. 使用外挂知识库主要为了解决什么问题

  • 克服遗忘问题

  • 提升回答的准确性、权威性、时效性

  • 解决通用模型针对一些小众领域没有涉猎的问题

  • 提高可控性和可解释性,提高模型的可信度和安全性

3. 如何评价RAG项目效果的好坏

针对检索环节的评估:

  • MMR 平均倒排率:查询(或推荐请求)的排名倒数

  • Hits Rate 命中率:前k项中,包含正确信息的项的数目占比

  • NDCG

针对生成环节的评估:

  • 非量化:完整性、正确性、相关性

  • 量化:Rouge-L

4. 大模型的幻觉问题、复读机问题是什么

幻觉问题:即生成的内容是无意义的或不忠实于提供的源内容

复读机问题:重复生成某些话

5. 针对问题4,有没有什么解决办法

针对幻觉问题:引入外挂知识库,加入一些纠偏规则,限制输出长度等

针对复读机问题:

  • 丰富数据集的多样性,预处理时尽量过滤重复无意义的文本

  • 同义词替换等做数据增强

  • 温度参数调整

  • 后处理与过滤

6. 出现问题4的原因有哪些

7. 当前主流的开源大模型是哪个,其架构具体是怎样的?

当前开源影响范围最广,生态建设最好的开源大模型是Meta的LLaMA。其依旧采用Transformers架构,并做了如下改动:

  • 为了提高训练稳定性,对每个子层做输入前置归一化,归一化函数为RMSNorm(受GPT-3启发)

  • 为了提升性能,SwiGLU激活函数替换ReLU激活函数(受PaLM启发)

  • 从绝对位置嵌入,改为旋转嵌入(受GPT-neo启发)

  • 使用causal multi-head attention的一个高效实现来减少内存占用和运行时间

8. 有哪几种SFT方法

9. 什么是lora微调

12. 什么是LangChain

13. LangChain的常用模块有哪些?

14. SFT和RLHF优劣对比

在这里插入图片描述

15. 详细介绍一下RLHF

16. 大模型训练经常出现一些OOM问题,在现有硬件基础下,有什么性能提升trick

17. LLaMA模型输入句子理论上可以无限长吗?

18. 如何让大模型处理更长的文本?

19. 大模型推理时,显存中有那几部分数据?

20. 介绍下ChatGLM

21. 介绍下GLU激活函数和SwiGLU激活函数

22. LLaMA1/2的异同

23. 模型在训练和推理的时候各占用显存的多少?

24. 详细说说Deepspeed的机制

25. 什么是混合精度训练

26. 什么是prefix LLM和casual LLM

27. 说一说针对MHA后续的一些计算优化工作

28. 说说attention几种常见的计算方式

技术交流&资料

技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。

成立了大模型面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。

方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流

通俗易懂讲解大模型系列

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号