当前位置:   article > 正文

书生·浦语大模型实战营作业合集

书生·浦语大模型实战营作业合集

第二节课作业:轻松玩转书生·浦语大模型趣味 Demo

GitHub地址:
https://github.com/InternLM/tutorial/blob/main/helloworld/hello_world.md
1.使用 InternLM2-Chat-7B 模型生成 300 字的小故事
在这里插入图片描述

2.熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM2-20B 的 config.json 文件到本地

import os 
os.environ['HF_ENDPOINT']='https://hf-mirror.com'
from huggingface_hub import hf_hub_download  # Load model directly 

hf_hub_download(repo_id="internlm/internlm2-20b", filename="config.json",local_dir ='/root/code/')
  • 1
  • 2
  • 3
  • 4
  • 5

在这里插入图片描述
进阶:
1.完成 Lagent 工具调用 Demo 创作部署
使用了pythonInterpreter工具
在这里插入图片描述
2.完成浦语·灵笔的图文理解及创作部署
在这里插入图片描述

第三节课作业:基于 InternLM 和 LangChain 搭建你的知识库

GitHub地址:https://github.com/InternLM/tutorial/tree/main/langchain
选择一个垂直领域,收集该领域的专业资料构建专业知识库,并搭建专业问答助手,并在 OpenXLab 上成功部署
本次选用的数据为:中文医患问答对话数据,选用其中2022年的部分数据
在这里插入图片描述
测试效果并不是很好,可能是数据太少的缘故;
github地址:https://github.com/Yang-Changhui/medi_langchain_internlm/tree/main
openxlab应用地址:https://openxlab.org.cn/apps/detail/Yang-Changhui/medi_langchain_internlm

第四节课作业:XTuner低成本微调

GitHub地址:
https://github.com/InternLM/tutorial/tree/main/xtuner
构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它是你的智能小助手,效果如下图所示
微调前:
在这里插入图片描述
微调后:
在这里插入图片描述
进阶作业:

将训练好的Adapter模型权重上传到 OpenXLab、Hugging Face 或者 MoelScope 任一一平台。

from modelscope.hub.api import HubApi

YOUR_ACCESS_TOKEN = '你的modelscope的key'

api = HubApi()
api.login(YOUR_ACCESS_TOKEN)
api.push_model(
    model_id="yangchanghui/personal_assistant", 
    model_dir="/root/personal_assistant/work_dirs/hf" # 本地模型目录,要求目录中必须包含configuration.json
)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

在这里插入图片描述

第五节课作业: LMDeploy 的量化和部署

GitHub地址:https://github.com/InternLM/tutorial/blob/main/lmdeploy/lmdeploy.md
基础作业:
使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事
在这里插入图片描述
进阶作业:
KV Cache量化前:
请添加图片描述
KV Cache量化后:
请添加图片描述
显存大概减少32G
模型量化前:
请添加图片描述
模型量化后:
请添加图片描述
显存大概下降一半

第六节课作业:opencompass模型评测

GitHub实验:https://github.com/InternLM/tutorial/blob/main/opencompass/opencompass_tutorial.md
使用 OpenCompass 评测 InternLM2-Chat-7B 模型在 C-Eval 数据集上的性能:
在这里插入图片描述
使用 OpenCompass 评测 InternLM2-Chat-7B 模型使用 LMDeploy 0.2.0 部署后在 C-Eval 数据集上的性能
在这里插入图片描述
部署量化后效果变差,很可能是模型量化出错,目前还在排查

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/161890?site
推荐阅读
相关标签
  

闽ICP备14008679号