当前位置:   article > 正文

大模型(LLMs)算法工程师的面试题_大模型开发工程师 面试问题(1)_大模型微调面经

大模型微调面经
+ 17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
+ 18. 微调模型需要多大显存?
+ 19. 大模型LLM进行SFT操作的时候在学习什么?
+ 20. 预训练和SFT操作有什么不同
+ 21. 样本量规模增大,训练出现OOM错
+ 22. 大模型LLM进行SFT 如何对样本进行优化?
+ 23. 模型参数迭代实验
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 大模型(LLMs)langchain面
      1. 基于LLM+向量库的文档对话 基础面
        1. 基于LLM+向量库的文档对话 优化面
        1. 基于LLM+向量库的文档对话 工程示例面
        1. LLMs 存在模型幻觉问题,请问如何处理?
        1. 基于LLM+向量库的文档对话 思路是怎么样?
        1. 基于LLM+向量库的文档对话 核心技术是什么?
        1. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
        1. 痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
        1. 痛点2:在基于垂直领域 表现不佳
        1. 痛点3:langchain 内置 问答分句效果不佳问题
        1. 痛点4:如何 尽可能召回与query相关的Document 问题
        1. 痛点5:如何让LLM基于query和context得到高质量的response
        1. 避坑记录
        1. 本地知识库问答系统(Langchain-chatGLM)
        1. 什么是 LangChain?
        1. LangChain 包含哪些 核心概念?
        1. 什么是 LangChain Agent?
        1. 如何使用 LangChain ?
        1. LangChain 支持哪些功能?
        1. 什么是 LangChain
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/906763
推荐阅读
相关标签
  

闽ICP备14008679号