赞
踩
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。
今天给大家带来的文章是大模型推理速度测评的实战代码,希望能对学习大模型的同学们有所帮助。
最近有同学提出新的疑问,大模型推理速度的单位为token/s,那么如何得到不同模型对应的具体速度呢?更进一步,如何在不同的GPU上对不同的大模型进行速度测评呢?
需要说明的是,本文是在Linux+CUDA 12.2+Python 3.10+transformers 4.36.2 环境下复现成功的。建议大家将GPU驱动、CUDA、CuDNN均升级为到CUDA最新版本12.2。
这里以Qwen-14B-Chat为例,其他模型请自行修改路径:
import time
import torch
from transformers
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。