赞
踩
第六节 OpenCompass 大模型评测
提示:这里可以添加本文要记录的大概内容:
介绍大模型评测的基本知识,OpenCompass工具介绍,并实现一个评测的demo
提示:以下是本篇文章正文内容,下面案例可供参考
公平统一的了解模型的效果
知识语言推理、情感倾向、长文本生成、agent、垂直领域问答
基座模型和微调后的模型有所不同
客观评测和主观评测(人工评价和模型评价)
提示词工程:换prompt看是否还能答对
成熟完善的测评平台架构
丰富的模型支持
成熟的流水线设计:开源模型和API模型都可以测评,易于拓展到自己的模型和数据集
有模型能力榜单
多模态模型有MMBench框架
专家领域也有特有的评测集
首先准备环境
conda create --name opencompass --clone=/root/share/conda_envs/internlm-base # 创建环境
conda activate opencompass # 激活环境
随后下载安装opencompass项目:
git clone https://github.com/open-compass/opencompass # 下载opencompass项目
pip install -e . # 安装opencompass项目
git连接不稳定,报错HTTP503,选择下载zip包之后上传到开发机,解压
unzip opencompass-main.zip
cd opencompass-main
pip install -e .
数据准备:
cp /share/temp/datasets/OpenCompassData-core-20231110.zip ./ # 拷贝数据
unzip OpenCompassData-core-20231110.zip # 解压
查看支持的数据集和模型
python tools/list_configs.py internlm ceval
python run.py --datasets ceval_gen --hf-path /share/temp/model_repos/internlm-chat-7b/ --tokenizer-path /share/temp/model_repos/internlm-chat-7b/ --tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True --model-kwargs trust_remote_code=True device_map='auto' --max-seq-len 2048 --max-out-len 16 --batch-size 4 --num-gpus 1 --debug
分别指定了hf格式的模型路径、hf格式的tokenizer路径,tokenizer参数,模型参数,最大序列长度,最大token数量,batch大小,GPU数量,debug模型
也可以用python run.py configs/xxxx.py
,现将model,Dataset,infer写好,直接运行
运行结束后,可以再output/default下找到一个用时间命名的文件夹,里面存放了模型的评估结果,下图展示了单个实验的汇总评估结果。
主要介绍了模型评测的基础知识,opencompass工具的使用方法,随后实现了internlm7b模型在C-Eval数据集下的效果。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。