当前位置:   article > 正文

大模型(LLMs)算法工程师的面试题_大模型开发工程师 面试问题(1)_面试题 lora微调 vs

面试题 lora微调 vs
+ 2. LangChain 文档的问题
+ 3. LangChain 太多概念容易混淆,过多的“辅助”函数问题
+ 4. LangChain 行为不一致并且隐藏细节问题
+ 5. LangChain 缺乏标准的可互操作数据类型问题
+ **大模型(LLMs)langchain 面**
+ **基于LLM+向量库的文档对话 经验面**
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 大模型(LLMs)参数高效微调(PEFT) 面
    • 一、LoRA篇
      • 二、QLoRA篇
      • 三、AdaLoRA篇
      • 四、LoRA权重是否可以合入原模型?
      • 五、ChatGLM-6B LoRA后的权重多大?
      • 六、LoRA 微调优点是什么?
      • 七、LoRA微调方法为啥能加速训练?
      • 八、如何在已有LoRA模型上继续训练?
      • 1.1 什么是 LoRA?
      • 1.2 LoRA 的思路是什么?
      • 1.3 LoRA 的特点是什么?
      • 2.1 QLoRA 的思路是怎么样的?
      • 2.2 QLoRA 的特点是什么?
      • 3.1 AdaLoRA 的思路是怎么样的?
      • 一、为什么需要 提示学习(Prompting)?
      • 二、什么是 提示学习(Prompting)?
      • 三、提示学习(Prompting) 有什么优点?
      • 四、提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?
      • 4.4.1 为什么需要 P-tuning v2?
      • 4.4.2 P-tuning v2 思路是什么?
      • 4.4.3 P-tuning v2 优点是什么?
      • 4.4.4 P-tuning v2 缺点是什么?
      • 4.3.1 为什么需要 P-tuning?
      • 4.3.2 P-tuning 思路是什么?
      • 4.3.3 P-tuning 优点是什么?
      • 4.3.4 P-tuning 缺点是什么?
      • 4.2.1 为什么需要 指示微调(Prompt-tuning)?
      • 4.2.2 指示微调(Prompt-tuning)思路是什么?
      • 4.2.3 指示微调(Prompt-tuning)优点是什么?
      • 4.2.4 指示微调&
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/845421
推荐阅读
相关标签
  

闽ICP备14008679号