赞
踩
论文名称:ChatLaw: Open-Source Legal Large Language Model
with Integrated External Knowledge Bases
github地址:GitHub - PKU-YuanGroup/ChatLaw: 中文法律大模型https://github.com/PKU-YuanGroup/ChatLaw
过滤掉简短和不连贯的回复,确保只包含高质量和有意义的文本。此外,为了增强数据集,我们利用ChatGPT API进行辅助构建,使我们能够基于现有数据集生成补充数据。
ChatLAW:Ziya-LLaMA-13B[11]的基础上使用低秩自适应(Low-Rank Adaptation, LoRA)[3]对其进行了微调。此外,引入自我暗示角色,进一步缓解模型幻觉问题。训练过程在多个A100 gpu上进行,并借助deepspeed进一步降低了训练成本。
关键词LLM:通过将特定于垂直领域的LLM与知识库相结合来创建ChatLaw产品,根据用户查询从知识库中检索相关信息至关重要。最初尝试了传统的软件开发方法,如MySQL和Elasticsearch进行检索,但结果并不令人满意。因此,尝试使用预训练的BERT模型进行嵌入,其次是Faiss[4]等方法,计算余弦相似度,提取与用户查询相关的前k个法律法规。然而,当用户的问题很模糊时,这种方法通常会产生次优结果。因此,我们的目标是从用户查询中提取关键信息,并利用这些信息的向量嵌入设计算法来提高匹配精度。
Law LLM:我们使用937k个国家案例的数据集训练BERT模型,从用户查询中提取相应的法律条款和司法解释。Law LLM模型构成了ChatLaw产品的重要组成部分。
由于大型模型在理解用户查询方面具有显著优势,我们对LLM进行了微调,以便从用户查询中提取关键字。在获得多个关键词后,我们采用算法1(基于大模型关键字提取的法律检索)检索相关法律规定。
(可见关键词提取做的相对较好)
用向量知识库缓解幻觉问题
构建了法律选择题测试数据集并建立了ELO评分机制
在逻辑推理和演绎等任务中的表现并不理想——通用任务泛化能力有待提高
架构 | ChatLaw=ChatLaw LLM + keyword LLM + laws LLM |
关键词抽取 | keyword LLM利用大模型生成关键词,不仅可以找到文本中的重点内容,还可以总结并释义出一些词。 |
微调方式 | 姜子牙 Lora (Low-Rank Adaptation) |
下一篇阅读《A Survey on Evaluation of Large Language Models》
LLM领域小白,欢迎大家批评指正以及推荐相关论文~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。