搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
笔触狂放9
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
【高阶篇】3.4 Redis之底层数据结构快表QuickList详解_redis quicklist
2
机器学习_总结篇_十大经典算法与算法选择_算法选型
3
centos7.x中安装SQL Server_centos7 安装sqlserver2022
4
Topaz Video AI for Mac v5.0.2 人工智能视频增强软件 激活版_topaz video ai 5.0.2 登陆补丁
5
SQLServer主从复制(通过FTP发布快照)_sqlserver 2017 ftp快照
6
Unity凭借什么改变了理智的资深软件开发人员?_美 哈尔彭 halpern,jared.unity 2d游戏开发
7
[SwiftUI 开发] Widget 小组件_用swiftui开发小组件
8
【GitHub项目推荐--10个最佳开源Docker&Kubernetes安全扫描工具,提升容器安全性!】【转载】_7款神级docker
9
Ubuntu20.04 ISAAC SIM仿真下载使用流程_isaac sim下载
10
navicat试用期过了怎么激活_navicat过期以后如何激活
当前位置:
article
> 正文
【AI大模型】从零开始运用LORA微调ChatGLM3-6B大模型并私有数据训练_chalm3进行lora训练_chatglm3-6b lora
作者:笔触狂放9 | 2024-08-11 08:50:29
赞
踩
chatglm3-6b lora
目录导航
1.什么是ChatGLM3-6B
2.什么是LORA微调技术
3.算力平台
4.环境搭建
4.1 虚拟环境conda工具搭建并激活
4.2 CUDA版本查看和torch版本匹配
4.3 git lfs下载
4.4 模型下载和代码拉取
4.5 依赖下载
5 模型微调
5.1 数据准备
5.2 LORA微调
5.3 微调前后对比
6 总结
1.什么是ChatGLM3-6B
ChatGLM3
是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:
更强大的基础模型:
ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,* ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能*。
更完整的功能支持:
ChatGLM3-6B 采用了全新设计的 Prompt 格式 ,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
更全面的开源序列:
除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base 、长文本对话模型 ChatGLM3-6B-32K 和进一步强化了对于长文本理解能力的 ChatGLM3-6B-128K。以上所有权重对学术研究完全开放 ,在填写 问卷 进行登记后亦允许免费商业使用。
2.什么是LORA微调技术
LoRA(Low-Rank Adaptation)微调技术
是一种用于微调大型预训练语言模型的方法。这种技术的核心思想是通过在原有的模型中引入少量的额外参数来实现模型的微调,而不是改变模型的全部参数。这样做可以在保持预训练模型的大部分知识的同时,使模型适应特定的任务或数据集。
LoRA
主要通过在模型的每个变换器层中引入两个低秩矩阵(A 和 B)来实现。这些矩阵与原始的注意力矩阵或前馈网络权重矩阵相乘,以引入新的可训练参数。在实践中,通过这种方式添加的参数数量远少于原始模型的参数总量,从而大幅减少了微调过程中的计算和存储需求。
LoRA技术
特别适合于需要在资源受限环境下迅速部署模型的场景,例如在移动设备上或在云端服务中处理大量用户请求时。此外,这种方法也适用于那些需要对模型进行频繁更新的应用
声明:
本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:
https://www.wpsshop.cn/w/笔触狂放9/article/detail/963282
推荐阅读
article
大
模型
高效
微调
-
LoRA
原理详解和
训练
过程
深入分析
_
大
模型
lora
...
LoRA
与
训练
目标是解耦的,但本文设定就是语言
模型
建模。以下将给出语言建模(可自然推广到序列建模)的基本符号定义,即最
大
...
赞
踩
article
OrangePi
Kunpeng
Pro
初体验_
香橙
派
chatglm3
-6b...
_
香橙
派
chatglm3
-6b
香橙
派
chatglm3
-6b 引言
香橙
派Kunpen...
赞
踩
article
LoRa
MESH
网络拓扑
及其物
联网
应用场景简介_
lora
组网
拓扑图...
LORA
MESH
组网
技术是一种基于LORA传输的Mesh
组网
方案,
LoRa
MESH
网络允许设备之间以多跳(multi...
赞
踩
article
ChatGLM3
在线
体验
及部署经验_
chatglm3
在线
体验
...
本文主要介绍使用virtualenv库生成venv,进而部署/运行
ChatGLM3
-6B开源双语对话语言模型的方法。_c...
赞
踩
article
开源
模型
应用落地-
chatglm3
-
6b
-
function
call
-
入门篇
(六)
_
chatglm3
...
学习如何使用在ChatGLM3
模型
下,实现Function Call的功能
_
chatglm3
function
call
...
赞
踩
article
ComfyUI
使用
LoRA
极简工作流_
comfyui
lora
...
ComfyUI
的
LoRA
工作流相信大家都不陌生。开发者提供了大量基于默认节点功能搭建的工作流,其中就包括了如何使用LoR...
赞
踩
article
大语言
模型
LangChain
+
ChatGLM3
-6B的组合集成:
工具
调用
+
提示
词解读_chatg...
大语言
模型
(如
ChatGLM3
)的
提示
词模板,用于指导
模型
在与人类交互时如何使用
工具
以及基于自身知识进行回答。该模板用于...
赞
踩
article
【大
模型
本地
知识库
搭建】
ChatGLM3
,M3E,
FastGPT
,One-
API
_
fastgpt
m...
本文技术路线为:利用
ChatGLM3
-6b作为基座大
模型
,M3E作为向量
模型
,基于
FastGPT
建立用户
知识库
,One-...
赞
踩
article
PEFT
LoRA
介绍(
LoRA
微调
使用的
参数
及方法)_
lora
微调
哪些层...
官网简介如下图:翻译过来是:低秩自适应(
LoRA
)是一种
PEFT
方法,它将一个大矩阵在注意层分解成两个较小的低秩矩阵。这...
赞
踩
article
【记录】
ChatGLM3
-6B大
模型
部署、
微调
(二):
微调
_阿里云
服务器
微调
chatglm3
lla...
包括界面语言、
模型
名称和
模型
路径,以及训练的轮数(看情况自行选择,训练后不够可继续训练)此处记录了所有的数据集点击预览。...
赞
踩
相关标签
深度学习
人工智能
AI
AI大模型
大模型微调
物联网
lora
自然语言处理
语言模型
javascript
开发语言
ecmascript
midjourney
前端
AIGC
langchain
chatglm3-6b
提示词
prompt
nlp
chatgpt