赞
踩
近期,Meta 宣布大语言模型 Llama2 开源,包含7B、13B、70B不同尺寸,分别对应70亿、130亿、700亿参数量,并在每个规格下都有专门适配对话场景的优化模型Llama-2-Chat。Llama2 可免费用于研究场景和商业用途(但月活超过7亿以上的企业需要申请),对企业和开发者来说,提供了大模型研究的最新利器。
目前,Llama-2-Chat在大多数评测指标上超过了其他开源对话模型,并和一些热门闭源模型(ChatGPT、PaLM)相差不大。阿里云机器学习平台PAI第一时间针对 Llama2 系列模型进行适配,推出全量微调、Lora微调、推理服务等场景最佳实践,助力AI开发者快速开箱。以下我们将分别展示具体使用步骤。
1、进入PAI-EAS模型在线服务页面。
2、在PAI EAS模型在线服务页面,单击部署服务。
3、在部署服务页面,配置以下关键参数。
参数 | 描述 |
服务名称 | 自定义服务名称。本案例使用的示例值为:chatllm_llama2_13b。 |
部署方式 | 选择镜像部署AI-Web应用。 |
镜像选择 | 在PAI平台镜像列表中选择chat-llm-webui,镜像版本选择1.0。由于版本迭代迅速,部署时镜像版本选择最高版本即可。 |
运行命令 | 服务运行命令: 1.如果使用13b的模型进行部署:python webui/webui_server.py --listen --port=8000 --model-path=meta-llama/Llama-2-13b-chat-hf --precision=fp16 2.如果使用7b的模型进行部署:python webui/webui_server.py --listen --port=8000 --model-path=meta-llama/Llama-2-7b-chat-hf 端口号输入:8000 |
资源组种类 | 选择公共资源组。 |
资源配置方法 | 选择常规资源配置。 |
资源配置选择 | 必须选择GPU类型,实例规格推荐使用ecs.gn6e-c12g1.3xlarge。13b的模型务必跑在gn6e及更高规格的机型上。7b的模型可以跑在A10/GU30机型上。 |
额外系统盘 | 选择50GB |
4、单击部署,等待一段时间即可完成模型部署。
1、单击目标服务的服务方式列下的查看Web应用。
2、在WebUI页面,进行模型推理验证。
在对话框下方的输入界面输入对话内容,例如”请提供一个理财学习计划”,点击发送,即可开始对话。
点击立即免费试用云产品 开启云上实践之旅!
本文为阿里云原创内容,未经允许不得转载。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。