赞
踩
ChatGLM2-6B是一个开源的、支持中英双语的对话语言模型,基于General Language Model (GLM)架构。
ChatGLM2-6B具备的能力:
大语言模型通常基于通识知识进行训练,因此在面向如下场景时,常常需要借助模型微调或提示词工程提升语言模型应用效果:
LangChain是一个用于开发由语言模型驱动的应用程序的框架。
主要功能:
LangChain中提供的模块
LangChain的运用场景:
1、加载本地文档:读取本地文档加载为文本
2、文本拆分:将文本按照字符、长度或语义进行拆分
3、根据提问匹配文本:根据用户提问对文本进行字符匹配或语义检索
4、构建Prompt:将匹配文本、用户提问加入Prompt模板
5、LLM生成回答:将Pronpt发送给LLM获得基于文档内容的回答
GLM本质是类似一个自回归填空的过程
新建知识库的过程相当于在本地新建一个路径,因此不支持路径当中存在中文。但是知识库的文件可以使用中文名称。
1、上传文件:将文件上传到知识库当中,这个过程相当于将文件加载成文本并进行向量化的过程。
1、模型微调:对llm和embedding基于专业领域数据进行微调。
2、文档加工:在文本分段后,对每段分别进行总结,基于总结内容语义进行匹配。
3、借助不同的模型能力:在text2sql、text2cpyher场景下需要产生代码时,可借助不同模型能力。
视频教程:视频教程:----->ChatGLM2-6B本地安装与部署-视频教程
注意 :chatglm2-6b相比于chatglm-6b在性能上提升了不少。在选择本地部署的时候,我查看到自己显卡只有512M,无法满足部署需要的24G显卡
的要求。(注:查看显卡多大可以安装一个lu大师),因此我选择在某宝上租用了一个24G的GPU。
部署步骤如下:
1、根据视频上面的,先下载懒人安装包:懒人包一键部署
2、将chatglm.zip安装包解压缩之后放在ChatGLM2-6B文件夹下面
3、创建一个叫VisualGLM-6B的文件夹,在此文件夹里面再创建一个叫cache的文件夹
4、配置缓存文件
5、之后点击一键启动,启动项目
最终即可跳转到UI界面:
注:如果要自己部署请确保pytorch是2.0.1
2023年8月3号GLM技术团队发布了基于 ChatGLM2-6B 的新模型 ChatGLM-6B-32k ,目前 langchain-chatglm 项目中已经可以使用,除此之外项目中还增加几款 embedding 模型作为备选,text2vec-base-multilingual,text2vec-base-chinese-sentence 和 text2vec-base-chinese-paraphrase。
此外,项目将于近期发布 0.2.0 版本,采用 fastchat + langchain + fastapi + streamlit 的方式进行了重构,预计最快本周上线。
模型下载地址:
chatglm2-6b-32k:https://huggingface.co/THUDM/chatglm2-6b-32k
text2vec-base-chinese-sentence:https://huggingface.co/shibing624/text2vec-base-chinese-sentence
text2vec-base-chinese-paraphrase:https://huggingface.co/shibing624/text2vec-base-chinese-paraphrase
text2vec-base-multilingual:https://huggingface.co/shibing624/text2vec-base-multilingual
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。