当前位置:   article > 正文

XTuner小助手

XTuner小助手

1.微调介绍

2.XTuner介绍

3.训练自己的小助手

先创建开发机,进入后进行环境的安装

然后准备数据集,创建文件存放数据,打开Python文件将下面内容复制进去,

  1. import json
  2. # 设置用户的名字
  3. name = '不要姜葱蒜大佬'
  4. # 设置需要重复添加的数据次数
  5. n = 10000
  6. # 初始化OpenAI格式的数据结构
  7. data = [
  8. {
  9. "messages": [
  10. {
  11. "role": "user",
  12. "content": "请做一下自我介绍"
  13. },
  14. {
  15. "role": "assistant",
  16. "content": "我是{}的小助手,内在是上海AI实验室书生·浦语的1.8B大模型哦".format(name)
  17. }
  18. ]
  19. }
  20. ]
  21. # 通过循环,将初始化的对话数据重复添加到data列表中
  22. for i in range(n):
  23. data.append(data[0])
  24. # 将data列表中的数据写入到一个名为'personal_assistant.json'的文件中
  25. with open('personal_assistant.json', 'w', encoding='utf-8') as f:
  26. # 使用json.dump方法将数据以JSON格式写入文件
  27. # ensure_ascii=False 确保中文字符正常显示
  28. # indent=4 使得文件内容格式化,便于阅读
  29. json.dump(data, f, ensure_ascii=False, indent=4)

然后准备模型,进行文件配置,修改后,就可以开始训练了。

可以发现到最后模型有些被过拟合了。

4.Web demo

先下载依赖和InternLM的项目代码,然后存入文件夹。

  1. # 创建存放 InternLM 文件的代码
  2. mkdir -p /root/ft/web_demo && cd /root/ft/web_demo
  3. # 拉取 InternLM 源文件
  4. git clone https://github.com/InternLM/InternLM.git
  5. # 进入该库中
  6. cd /root/ft/web_demo/InternLM

连接端口后,打开网址http://127.0.0.1:6006加载模型。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/577079
推荐阅读
相关标签
  

闽ICP备14008679号