赞
踩
节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂同学、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
今天分享大模型面试相关知识点,持续更新,希望对后续找工作的有所帮助。喜欢记得点赞、收藏、关注。更多技术交流&面经学习,可以文末加入我们交流群。
1. RAG技术体系的总体思路
数据预处理->分块(这一步骤很关键,有时候也决定了模型的效果)->文本向量化->query向量化->向量检索->重排->query+检索内容输入LLM->输出
2. 使用外挂知识库主要为了解决什么问题
克服遗忘问题
提升回答的准确性、权威性、时效性
解决通用模型针对一些小众领域没有涉猎的问题
提高可控性和可解释性,提高模型的可信度和安全性
3. 如何评价RAG项目效果的好坏
针对检索环节的评估:
MMR 平均倒排率:查询(或推荐请求)的排名倒数
Hits Rate 命中率:前k项中,包含正确信息的项的数目占比
NDCG
针对生成环节的评估:
非量化:完整性、正确性、相关性
量化:Rouge-L
4. 大模型的幻觉问题、复读机问题是什么
幻觉问题:即生成的内容是无意义的或不忠实于提供的源内容
复读机问题:重复生成某些话
5. 针对问题4,有没有什么解决办法
针对幻觉问题:引入外挂知识库,加入一些纠偏规则,限制输出长度等
针对复读机问题:
丰富数据集的多样性,预处理时尽量过滤重复无意义的文本
同义词替换等做数据增强
温度参数调整
后处理与过滤
6. 出现问题4的原因有哪些
7. 当前主流的开源大模型是哪个,其架构具体是怎样的?
当前开源影响范围最广,生态建设最好的开源大模型是Meta的LLaMA。其依旧采用Transformers架构,并做了如下改动:
为了提高训练稳定性,对每个子层做输入前置归一化,归一化函数为RMSNorm(受GPT-3启发)
为了提升性能,SwiGLU激活函数替换ReLU激活函数(受PaLM启发)
从绝对位置嵌入,改为旋转嵌入(受GPT-neo启发)
使用causal multi-head attention的一个高效实现来减少内存占用和运行时间
8. 有哪几种SFT方法
9. 什么是lora微调
12. 什么是LangChain
13. LangChain的常用模块有哪些?
14. SFT和RLHF优劣对比
15. 详细介绍一下RLHF
16. 大模型训练经常出现一些OOM问题,在现有硬件基础下,有什么性能提升trick
17. LLaMA模型输入句子理论上可以无限长吗?
18. 如何让大模型处理更长的文本?
19. 大模型推理时,显存中有那几部分数据?
20. 介绍下ChatGLM
21. 介绍下GLU激活函数和SwiGLU激活函数
22. LLaMA1/2的异同
23. 模型在训练和推理的时候各占用显存的多少?
24. 详细说说Deepspeed的机制
25. 什么是混合精度训练
26. 什么是prefix LLM和casual LLM
27. 说一说针对MHA后续的一些计算优化工作
28. 说说attention几种常见的计算方式
技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
成立了大模型面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。