当前位置:   article > 正文

ChatGLM警情识别实战(四)_chatglm 意图识别

chatglm 意图识别

基于ChatGLM模型关于警情识别实战

前言

大模型有哪些?FLAN-T5、GPT4、ChatYuan、ChatGLM等等。为什么选择ChatGLM,这句新闻给出了答案

在中文C-Eval榜单中,ChatGLM2以71.1分位居榜首,碾压GPT-4;对学术研究完全开放,且允许申请商用授权。
在这里插入图片描述

尤其是面对的文本是中文文本,没有哪个大模型比清华大学的ChatGLM更适合此次项目了,因此选定了ChatGLM。

ChatGLM模型

本次选用的是刚刚在7月14日开源的ChatGLM2-6B,ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

1、更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。
2、更长的上下文:基于 FlashAttention 技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,我们会在后续迭代升级中着重进行优化。
3、更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
4、更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。

更多详情可以参考github

ChatGLM的使用

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
print(response)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

在这里插入图片描述
运行上述代码需要大概 13GB 显存,如果使用的是个人电脑,可能会出现显存不够的情况,可以将THUDM/chatglm-6b改为THUDM/chatglm-6b-int4,量化版本大概需要7GB的显存。
如果你没有 GPU 硬件的话,也可以在 CPU 上进行推理,但是推理速度会更慢。使用方法如下(需要大概 32GB 内存)

model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True).float()
  • 1

如果你的内存不足的话,也可以使用量化后的模型

model = AutoModel.from_pretrained("THUDM/chatglm2-6b-int4",trust_remote_code=True).float()
  • 1

在 cpu 上运行量化后的模型需要安装 gccopenmp。多数 Linux 发行版默认已安装。对于 Windows ,可在安装 TDM-GCC 时勾选 openmp。 Windows 测试环境 gcc 版本为 TDM-GCC 10.3.0, Linux 为 gcc 11.3.0

完成本地部署测试完之后,便可以开始训练自己的数据集,下一篇将会是训练自己数据集包括脱敏、训练、推理的全过程。由于下一篇涉及到全部代码以及数据暂时还不方便公开,如果有需要的小伙伴可以私信我并说明查看的目的,我可以单独开放

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/260358
推荐阅读
相关标签
  

闽ICP备14008679号