赞
踩
最近 11 个大型语言模型 (LLM) 面试问题(已解答)供您下次 ML 和 LLM 面试
哪种技术有助于减少基于提示的学习中的偏见?
A、微调
B. 数据增强
C. 及时校准
D. 梯度裁剪
正确答案:C
解释
及时校准涉及调整提示以尽量减少生成的输出中的偏差。微调修改模型本身,而数据增强则扩展训练数据。梯度裁剪可防止训练期间梯度爆炸。
您是否需要为所有基于文本的 LLM 用例建立一个向量存储?
答:是的
B、否
正确答案:B
解释
向量存储用于存储单词或句子的向量表示。这些向量表示捕获单词或句子的语义,并用于各种 NLP 任务。
然而,并非所有基于文本的 LLM 用例都需要向量存储。有些任务,例如摘要、情感分析和翻译,不需要上下文增强。
原因如下:
摘要:此任务涉及将大量文本压缩为简短的摘要。除了所总结的文本之外,它不需要其他文档或句子的上下文。
情绪分析:此任务涉及确定一段文本中表达的情绪(积极、消极、中性)。它通常是根据文本本身完成的,不需要额外的上下文。
翻译:此任务涉及将文本从一种语言翻译成另一种语言。上下文通常由句子本身及其所属的更广泛的文档提供,而不是由单独的向量存储提供。
以下哪一项不是专门用于使大型语言模型 (LLM) 与人类价值观和偏好保持一致的技术?
A、RLHF
B. 直接偏好优化
C. 数据增强<
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。