当前位置:   article > 正文

第六次课程:OpenCompass 大模型评测_opencompass 运行ppl数据集

opencompass 运行ppl数据集

感谢书生·浦语和上海人工智能实验室提供的模型和算力支持!!!

课程链接:https://github.com/InternLM/tutorial/blob/main/opencompass/opencompass_tutorial.md

模型评测的问题

OpenCompass能力框架

 动手实践:

git clone https://github.com/open-compass/opencompass


注意:使用上面进行clone的时候可能会出现问题,可以本地下载好再上传。

python run.py --datasets ceval_gen --hf-path /share/temp/model_repos/internlm-chat-7b/ --tokenizer-path /share/temp/model_repos/internlm-chat-7b/ --tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True --model-kwargs trust_remote_code=True device_map='auto' --max-seq-len 2048 --max-out-len 16 --batch-size 4 --num-gpus 1 --debug

  1. --datasets ceval_gen \
  2. --hf-path /share/temp/model_repos/internlm-chat-7b/ \ # HuggingFace 模型路径
  3. --tokenizer-path /share/temp/model_repos/internlm-chat-7b/ \ # HuggingFace tokenizer 路径(如果与模型路径相同,可以省略)
  4. --tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True \ # 构建 tokenizer 的参数
  5. --model-kwargs device_map='auto' trust_remote_code=True \ # 构建模型的参数
  6. --max-seq-len 2048 \ # 模型可以接受的最大序列长度
  7. --max-out-len 16 \ # 生成的最大 token 数
  8. --batch-size 4 \ # 批量大小
  9. --num-gpus 1 # 运行模型所需的 GPU 数量
  10. --debug

[2024-01-12 18:23:55,076] [opencompass.openicl.icl_inferencer.icl_gen_inferencer] [INFO] Starting inference process...

OpenCompass 提供了一系列预定义的模型配置,位于 configs/models 下。

  1. # 使用 `HuggingFaceCausalLM` 评估由 HuggingFace 的 `AutoModelForCausalLM` 支持的模型
  2. from opencompass.models import HuggingFaceCausalLM
  3. # OPT-350M
  4. opt350m = dict(
  5. type=HuggingFaceCausalLM,
  6. # `HuggingFaceCausalLM` 的初始化参数
  7. path='facebook/opt-350m',
  8. tokenizer_path='facebook/opt-350m',
  9. tokenizer_kwargs=dict(
  10. padding_side='left',
  11. truncation_side='left',
  12. proxies=None,
  13. trust_remote_code=True),
  14. model_kwargs=dict(device_map='auto'),
  15. # 下面是所有模型的共同参数,不特定于 HuggingFaceCausalLM
  16. abbr='opt350m', # 结果显示的模型缩写
  17. max_seq_len=2048, # 整个序列的最大长度
  18. max_out_len=100, # 生成的最大 token 数
  19. batch_size=64, # 批量大小
  20. run_cfg=dict(num_gpus=1), # 该模型所需的 GPU 数量
  21. )

数据集配置通常有两种类型:'ppl' 和 'gen',分别指示使用的评估方法。其中 ppl 表示辨别性评估,gen 表示生成性评估。

可以在脚本直接写好:(因此可以有两种方式进行评测:脚本或者命令行)

参数--reuse介绍:

接着以前的结果继续评测,这也是需要时间戳的原因

也可以同时测试多个数据集和多个模型

还可以引用第三个模型进行评价打分

后处理:

注意:主观评测的时候最后加入这里的字段

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/935425
推荐阅读
相关标签
  

闽ICP备14008679号