当前位置:   article > 正文

在英特尔® 酷睿™ Ultra7处理器上优化和部署Phi-3-min模型_ultra7部署本地大模型

ultra7部署本地大模型

作者 英特尔边缘计算创新大使 王一凡

1.1  Phi-3-mini模型简介

2024423日,微软研究院公布Phi-3系列AI大模型,包含三个版本:mini(3.8B参数)small(7B参数)以及medium(14B参数)phi-3-mini是一个拥有3.8B参数规模的模型,其训练数据集基于Phi-2所使用数据集的扩大版本由大量过滤后的网络数据和合成数据组成,经过3.3T tokens的训练,表现可以与Mixtral 8x7B和GPT-3.5等模型相媲美(例如,phi-3-mini在MMLU测试中达到了69%的准确率,在MT-bench上的得分为8.38)

请用下面的命令把Llama3-Chinese-8B-Instruct模型的预训练权重下载到本地待用。

git clone https://www.modelscope.cn/LLM-Research/Phi-3-mini-128k-instruct.git

1.2  英特尔® 酷睿™ Ultra处理器简介

英特尔® 酷睿™ Ultra系列处理器是英特尔公司于2023年6月推出的一个高端处理器系列,其第一代产品代号为Meteor Lake。这款处理器标志着英特尔在处理器设计上的重大革新,它采用了先进的Intel 4制造工艺(先前称为7nm),并利用了EUV(极紫外光刻)技术,这带来了显著的性能提升和能效优化。

英特尔®酷睿™ Ultra系列处理器内置CPU、锐炫™GPU和NPU,非常适合在端侧运行AI大模型。本文将在英特尔®酷睿™ Ultra 7 155H处理器上完成验证。

1.3  搭建开发环境

首先,请下载并安装Anaconda,然后创建并激活名为phi3的虚拟环境:

  1. conda create -n phi3 python=3.11  #创建虚拟环境
  2. conda activate phi3                #激活虚拟环境
  3. python -m pip install --upgrade pip           #升级pip到最新版本

然后,安装Optimum Intel和其依赖项OpenVINO™与NNCF

python -m pip install "optimum-intel[openvino,nncf]"@git+https://github.com/huggingface/optimum-intel.git

最后,安装构建WebUI的工具包:

pip install gradio mdtex2html streamlit

1.4  对Phi-3-mini-4k-instruct模型进行INT4量化

optimum-cli是Optimum Intel自带的跨平台命令行工具,可以不用编写量化代码,实现对Phi-3-mini-4k-instruct模型的量化。

执行命令将Phi-3-mini-4k-instruct模型量化为INT4 OpenVINO格式模型:

optimum-cli export openvino --model Phi-3-mini-4k-instruct --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.8 --trust-remote-code phi3_ov

1.5  编写Phi-3-Mini的WebUI对话程序

Phi-3-Mini推理程序的关键代码,如下所示,主要实现载入Phi-3模型和对应的分词器,然后将提示词Token化后输入模型,最后解码模型生成的Token序列。

完整代码请参考:https://github.com/WangAria/OpenVINO/blob/main/phi3_webui.py

  1. model_dir = "C:\\Users\\ASUS\\phi3_ov"  #Phi-3-mini-4k-instruct int4模型路径
  2. DEVICE = "GPU" #可更换为"CPU", "AUTO"...
  3. # 编译并载入Phi-3-mini-4k-instruct int4模型到指定DEVICE
  4. ov_model = OVModelForCausalLM.from_pretrained(
  5.     model_dir,
  6.     device=DEVICE,
  7.     ov_config=ov_config,
  8.     config=AutoConfig.from_pretrained(model_dir, trust_remote_code=True),
  9.     trust_remote_code=True,
  10. )
  11. # 实例化Phi-3-mini-4k-instruct int4模型的Tokenizer
  12. tok = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)

运行phi3_webui.py, 结果如下:

python phi3_webui.py


运行视频,链接如下(百度网盘):
链接:百度网盘 请输入提取码

提取码:nmye

1.6  总结

Phi-3模型是微软公司新近推出的一系列小型语言模型(SLM),旨在以更小的规模实现与大型语言模型(LLM)相媲美的性能,特别是在语言处理、推理、编码和数学基准测试方面;英特尔® 酷睿™ Ultra系列处理器是英特尔公司新近推出高端处理器,相对前代有显著的AI性能提升和能效优化;二者相互结合,使得广大的端侧设备都能受益于日益先进的AI技术。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/爱喝兽奶帝天荒/article/detail/751512
推荐阅读
相关标签
  

闽ICP备14008679号