赞
踩
随着越来越多的大语言模型被发布和使用,如何对大模型的能力进行评测(LLM Evaluation)成为一个新的课题,本篇对大模型评测的基础知识做简要综述介绍。
对大模型做评测的必要性来源于以下多方面原因:
OpenCompass官网的模型定量评分
大模型评测大致包含自然语言处理、知识能力、领域模型、对齐评测、安全性等多个方面,其中自然语言处理是相对简单的的测评任务,包含NLU自然语言理解和NLG自然语言生成,NLU中包括情感分析、文本分类、信息抽取等典型任务,NLG包括机器翻译、自动摘要等任务。
大模型评测涉及内容
传统的NLP任务大多是为了衡量特定且相对简单的能力而设计的,而大型语言模型已经展示了各种新的能力,并将评估重点转移到更一般和复杂的技能上,如广泛的世界知识和复杂的推理。大模型在预训练过程中吸收了海量数据的知识,因此需要对大模型的知识能力进行考量,相比于NLP任务,知识能力使得大模型更加接近一个智能体。
知识能力测评包含知识问答、逻辑推理、工具学习等方面,一般的通过Prompt提示语使得大模型回忆起在预训练过程中学到的知识,来完成知识问答任务;CoT思维链的方式,能够使得模型能够逐步思考,从而解决逻辑推理类的任务;**工具学习(Tool Learning)**的目标是让大模型能够根据人类的指示和操作来使用工具,以解决特定任务,比如让大模型调用搜索引擎或者API,将搜索返回结果融合预训练知识来增强答案生成。
工具增强学习的示意图
相比于通识知识,垂直领域的知识能力对于产业落地更加重要,因此还存在各个垂直领域的知识测评,包括教育、医疗、金融、法律等大模型,该测评用于选择合适的大模型作为垂直领域的模型基座。
额外的,除了NLP任务和知识能力,大模型回答内容的对齐性也在测评的范畴之内。对齐性是指大模型的回答需要符合人类价值观和偏好。一般的,期望大模型的回答不能违背伦理道德,不能带有偏见歧视等内容,另一方面需要测评大模型回答的真实性,防止生成不准确或缺乏事实精确性的内容,导致该问题的原因可能在训练数据集包含错误的细节、过时的事实,甚至是故意的错误信息,从而损害了大语言模型的真实性。
最后还需要考察大模型的安全性,大模型不能生成有害的内容,同时需要具备一定的鲁棒性,以防止故意向模型输入一些微小的扰动,使得模型输出有害的内容,给模型安全带来威胁。
大模型评测分为客观评测和主观评测。客观评测是有标准答案的,一般通过问答题、选择题的形式输入给大模型,让大模型回答出答案和正确答案进行比对。
对于NLP任务,采用特定任务的评价指标来考量大模型,比如文本分类使用准确率,机器翻译使用BLEU来打分。对于知识能力,通过做题的方式来考量大模型,形如中文评测数据集C-EVAL构造了多个垂直领域的选择题,通过回答的正确率来评测大模型。另外对于Base模型和Chat模型,对于Base模型需要在Prompt中加入一定的范例,而Chat模型由于经过了指令微调和RLHF,一般直接采用对话的方式即可获得模型输出的答案。
C-EVAL数据集的问题分类
主观评测一般使用在没有标准答案的场景,比如让多个大模型基于题目写一篇作文,如何评价它们输出的作文质量的高低,此时可以采用人工介入打分的方式,也可以引入一个裁判模型对这些作文进行打分。
全文完毕,后续将分享大模型测评数据集、大模型测评框架的使用和实践。
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料
包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。