当前位置:   article > 正文

0基础学会在亚马逊云科技AWS上利用SageMaker、PEFT和LoRA高效微调AI大语言模型(含具体教程和代码)_如果要学习训练模型、微调模型,需要会代码嘛

如果要学习训练模型、微调模型,需要会代码嘛

项目简介:

小李哥今天将继续介绍亚马逊云科技AWS云计算平台上的前沿前沿AI技术解决方案,帮助大家快速了解国际上最热门的云计算平台亚马逊云科技AWS上的AI软甲开发最佳实践,并应用到自己的日常工作里。本次介绍的是如何在Amazon SageMaker上微调(Fine-tune)大语言模型dolly-v2-3b,满足日常生活中不同的场景需求,并将介分享如何在SageMaker上优化模型性能并节省计算资源实现成本控制,最后将部署后的大语言模型URL集成到自己云上的软件应用中。

本方案包括通过Amazon Cloudfront和S3托管前端页面,并通过Amazon API Gateway和AWS Lambda将应用程序与AI模型集成,调用大模型实现推理。本方案的解决方案架构图如下:

利用微调模型创建的对话机器人前端UI

利用本方案小李哥用微调后的模型搭建了一个Q&A对话机器人助手,可以生成代码、文字总结、回答问题。

在开始分享案例之前,我们来了解一下本方案的技术背景,帮助大家更好的理解方案架构。

什么是Amazon SageMaker?

Amazon SageMaker 是一个完全托管的机器学习服务(大家可以理解为Serverless的Jupyter Notebook),专为应用开发和数据科学家设计,帮助他们快速构建、训练和部署机器学习模型。使用 SageMaker,您无需担心底层基础设施的管理,可以专注于模型的开发和优化。它提供了一整套工具和功能,包括数据准备、模型训练、超参数调优、模型部署和监控,简化了整个机器学习工作流程。

本方案将介绍以下内容:

1. 使用 SageMaker Jupyter Notebook进行dolly-v2-3b模型开发和微调

2. 在SageMaker部署微调后的大语言模型LLM并基于数据进行推理

3. 使用多场景的测试案例验证推理结果表现,并将部署的模型API节点集成进云端应用

项目搭建具体步骤:

下面跟着小李哥手把手微调一个亚马逊云科技AWS上的生成式AI模型(dolly-v2-3b)的软件应用,并将AI大模型部署与应用集成。

1. 在控制台进入Amazon SageMaker, 点击Notebook

2. 打开Jupyter Notebook

3. 创建一个新的Notebook:“lab-notebook.ipynb”并打开

4. 接下来我们在单元格内一步一步运行代码,检查CUDA的内存状态

!nvidia-smi

5.接下来,我们安装必要依赖并导入

  1. %%capture
  2. !pip3 install -r requirements.txt --quiet
  3. !pip install sagemaker --quiet --upgrade --force-reinstall
  1. %%capture
  2. import os
  3. import numpy as np
  4. import pandas as pd
  5. from typing import Any, Dict, List, Tuple, Union
  6. from datasets import Dataset, load_dataset, disable_caching
  7. disable_caching() ## disable huggingface cache
  8. from transformers import AutoModelForCausalLM
  9. from transformers import AutoTokenizer
  10. from transformers import TextDataset
  11. import torch
  12. from torch.utils.data import Dataset, random_split
  13. from transformers import TrainingArguments, Trainer
  14. import accelerate
  15. import bitsandbytes
  16. from IPython.display import Markdown

6. 导入提前准备好的FAQs数据集

  1. sagemaker_faqs_dataset = load_dataset("csv",
  2. data_files='data/amazon_sagemaker_faqs.csv')['train']
  3. sagemaker_faqs_dataset
  4. sagemaker_faqs_dataset[0]

7. 我们定义用于模型推理的提示词格式

  1. from utils.helpers import INTRO_BLURB, INSTRUCTION_KEY, RESPONSE_KEY, END_KEY, RESPONSE_KEY_NL, DEFAULT_SEED, PROMPT
  2. '''
  3. PROMPT = """{intro}
  4. {instruction_key}
  5. {instruction}
  6. {response_key}
  7. {response}
  8. {end_key}"""
  9. '''
  10. Markdown(PROMPT)

8. 下面我们进入重头戏,导入一个提前预训练好的LLM大语言模型“databricks/dolly-v2-3b”。

  1. tokenizer = AutoTokenizer.from_pretrained("databricks/dolly-v2-3b",
  2. padding_side="left")
  3. tokenizer.pad_token = tokenizer.eos_token
  4. tokenizer.add_special_tokens({"additional_special_tokens":
  5. [END_KEY, INSTRUCTION_KEY, RESPONSE_KEY_NL]})
  6. model = AutoModelForCausalLM.from_pretrained(
  7. "databricks/dolly-v2-3b",
  8. # use_cache=False,
  9. device_map="auto", #"balanced",
  10. load_in_8bit=True,
  11. )

9. 对模型训练进行预准备, 处理数据集、优化模型训练(PEFT)效率

  1. model.resize_token_embeddings(len(tokenizer))
  2. from functools import partial
  3. from utils.helpers import mlu_preprocess_batch
  4. MAX_LENGTH = 256
  5. _preprocessing_function = partial(mlu_preprocess_batch, max_length=MAX_LENGTH, tokenizer=tokenizer)
  6. encoded_sagemaker_faqs_dataset = sagemaker_faqs_dataset.map(
  7. _preprocessing_function,
  8. batched=True,
  9. remove_columns=["instruction", "response", "text"],
  10. )
  11. processed_dataset = encoded_sagemaker_faqs_dataset.filter(lambda rec: len(rec["input_ids"]) < MAX_LENGTH)
  12. split_dataset = processed_dataset.train_test_split(test_size=14, seed=0)
  13. split_dataset

10. 同时我们使用LoRA(Low-Rank Adaptation)模型加速我们的模型微调

  1. from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training, TaskType
  2. MICRO_BATCH_SIZE = 8
  3. BATCH_SIZE = 64
  4. GRADIENT_ACCUMULATION_STEPS = BATCH_SIZE // MICRO_BATCH_SIZE
  5. LORA_R = 256 # 512
  6. LORA_ALPHA = 512 # 1024
  7. LORA_DROPOUT = 0.05
  8. # Define LoRA Config
  9. lora_config = LoraConfig(
  10. r=LORA_R,
  11. lora_alpha=LORA_ALPHA,
  12. lora_dropout=LORA_DROPOUT,
  13. bias="none",
  14. task_type="CAUSAL_LM"
  15. )
  16. model = get_peft_model(model, lora_config)
  17. model.print_trainable_parameters()
  18. from utils.helpers import MLUDataCollatorForCompletionOnlyLM
  19. data_collator = MLUDataCollatorForCompletionOnlyLM(
  20. tokenizer=tokenizer, mlm=False, return_tensors="pt", pad_to_multiple_of=8
  21. )

11. 接下来我们定义模型训练参数并开始训练。其中Batch=1,Step=20000,epoch为10.

  1. EPOCHS = 10
  2. LEARNING_RATE = 1e-4
  3. MODEL_SAVE_FOLDER_NAME = "dolly-3b-lora"
  4. training_args = TrainingArguments(
  5. output_dir=MODEL_SAVE_FOLDER_NAME,
  6. fp16=True,
  7. per_device_train_batch_size=1,
  8. per_device_eval_batch_size=1,
  9. learning_rate=LEARNING_RATE,
  10. num_train_epochs=EPOCHS,
  11. logging_strategy="steps",
  12. logging_steps=100,
  13. evaluation_strategy="steps",
  14. eval_steps=100,
  15. save_strategy="steps",
  16. save_steps=20000,
  17. save_total_limit=10,
  18. )
  19. trainer = Trainer(
  20. model=model,
  21. tokenizer=tokenizer,
  22. args=training_args,
  23. train_dataset=split_dataset['train'],
  24. eval_dataset=split_dataset["test"],
  25. data_collator=data_collator,
  26. )
  27. model.config.use_cache = False # silence the warnings. Please re-enable for inference!
  28. trainer.train()

12. 接下来我们将微调后的模型保存在本地

  1. trainer.model.save_pretrained(MODEL_SAVE_FOLDER_NAME)
  2. trainer.save_model()
  3. trainer.model.config.save_pretrained(MODEL_SAVE_FOLDER_NAME)
  4. tokenizer.save_pretrained(MODEL_SAVE_FOLDER_NAME)

13. 接下来,我们将保存到本地的模型进行部署,生成公开访问的API节点Endpoint

对部署所需要的参数进行定义和初始化

  1. import boto3
  2. import json
  3. import sagemaker.djl_inference
  4. from sagemaker.session import Session
  5. from sagemaker import image_uris
  6. from sagemaker import Model
  7. sagemaker_session = Session()
  8. print("sagemaker_session: ", sagemaker_session)
  9. aws_role = sagemaker_session.get_caller_identity_arn()
  10. print("aws_role: ", aws_role)
  11. aws_region = boto3.Session().region_name
  12. print("aws_region: ", aws_region)
  13. image_uri = image_uris.retrieve(framework="djl-deepspeed",
  14. version="0.22.1",
  15. region=sagemaker_session._region_name)
  16. print("image_uri: ", image_uri)

进行模型部署

  1. model_data="s3://{}/lora_model.tar.gz".format(mybucket)
  2. model = Model(image_uri=image_uri,
  3. model_data=model_data,
  4. predictor_cls=sagemaker.djl_inference.DJLPredictor,
  5. role=aws_role)

14.最后我们写入提示词,对大语言模型进行测试, 得到推理

  1. outputs = predictor.predict({"inputs": "What solutions come pre-built with Amazon SageMaker JumpStart?"})
  2. from IPython.display import Markdown
  3. Markdown(outputs)

15. 我们下面进入SageMaker Endpoint页面,得到刚部署的模型API端点的URL,通过这种方式我们就可以在应用中调用我们的微调后的大语言模型了。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/939298
推荐阅读
相关标签
  

闽ICP备14008679号