当前位置:   article > 正文

大模型推理速度测评的实战代码_模型推理代码(需根据所使用的硬件平台做优化,提供模型推理速度对比数据,需要在项

模型推理代码(需根据所使用的硬件平台做优化,提供模型推理速度对比数据,需要在项

  大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。

  今天给大家带来的文章是大模型推理速度测评的实战代码,希望能对学习大模型的同学们有所帮助。

文章目录

1. 前言

  最近有同学提出新的疑问,大模型推理速度的单位为token/s,那么如何得到不同模型对应的具体速度呢?更进一步,如何在不同的GPU上对不同的大模型进行速度测评呢?
在这里插入图片描述

2. 实战代码

  需要说明的是,本文是在Linux+CUDA 12.2+Python 3.10+transformers 4.36.2 环境下复现成功的。建议大家将GPU驱动、CUDA、CuDNN均升级为到CUDA最新版本12.2。

  这里以Qwen-14B-Chat为例,其他模型请自行修改路径:

import time
import torch
from transformers 
  • 1
  • 2
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/909082
推荐阅读
相关标签
  

闽ICP备14008679号