当前位置:   article > 正文

信息抽取哪家强?ChatGLM3、Qwen、Baichuan2、ChatGPT_qwen 和 chatglm

qwen 和 chatglm

信息抽取中文开源大模型评测

信息提取(IE)在自然语言处理(NLP)中扮演着至关重要的角色,它通过从非结构化文本中提取结构化信息,从而促进与依赖结构化数据的各种现实世界应用的无缝集成。深入探讨了主流中文开源LLMs在处理IE任务时的表现,特别是零样本条件下,即模型未针对特定任务进行微调。

模型选择:共选择了5个大型语言模型(LLMs)进行实验:ChatGLM3-6B、Qwen-7BChat和Qwen-14B-Chat、Baichuan2-13B-Chat以及ChatGPT2。除了ChatGPT外,所有其他大型语言模型都是开源的。

实验设置:所有的实验都可以在1个A40 GPU上完成。

数据集

NER实验结果

在MSRA和微博数据集上进行的零样本实验的结果。加粗的值代表了在相同数据集上所有大型语言模型(LLMs)和开源大型语言模型中最高的分数。

  • 在所有大型语言模型中,ChatGPT-3.5-Turbo表现最佳,在所有数据集和方法中实现了最高的F1分数。在所有开源大型语言模型中,Qwen-14B-Chat在MSRA数据集上取得了最高的F1分数,而Baichuan-13B-Chat在微博数据集上记录了最高的F1分数。

  • 在所有开源大型语言模型中,具有13B/14B参数的LLM一致性地在相同方法和数据集的准确性上超过了具有6B/7B参数的LLM。除了Baichuan13B-Chat在微博数据集上使用2-Stage方法得到的F1分数比Qwen-7B-Chat低0.55之外,所有具有13B/14B参数的模型在相同方法和数据集上都展示了比具有6B/7B参数的模型更好的F1分数。背后的可能原因是更大的LLM可能包含更多与实体识别相关的知识,从而带来更准确的分类结果。

  • 在模型保持不变的情况下,MSRA数据集上的F1分数高于微博数据集。这种差异可以归因于几个因素。首先,两个数据集的固有难度水平不同。其次,MSRA数据集的来源是报纸媒体,包含书面语言,而微博数据集来源于社交媒体,更加口语化。在这些因素中,模型的内在知识与书面语言更为一致,使其更擅长从书面文本中提取信息。

RE实验结果

零样本关系抽取在DuIE2.0数据集的20000个子集上的实验结果(%)。对于每个大型语言模型(LLM),我们用加粗标记更好的结果,以比较两个框架。

  • 大多数大型语言模型(LLMs)在使用类型约束时表现良好,但没有类型约束时性能显著下降。没有类型约束时,每个LLM需要从50种关系类型中选择一个,而约束可以减少LLMs的大量干扰信息。值得注意的是,在某些实体对上,只保留了唯一正确的关系和NoTA(无上述关系)关系。

  • 在传统的Vanilla框架上的性能优于QA4RE框架。一方面,DuIE2.0数据集的关系抽取(RE)任务对LLMs来说可能并不十分困难,而引入问答(QA)增加了理解的难度。另一方面,在无约束实验中,向提示中添加了许多不合理的选项(例如,Alice是Bob的出版商)。这些信息干扰了LLMs对关系类型的选择。

EE实验结果

零样本事件抽取(EE)实验的结果。加粗的值代表了所有大型语言模型(LLMs)中的最高分数。

考虑到EE任务对模型阅读理解能力的更高要求,只有两阶段分解方法能够产生更清晰的回答。ChatGPT继续在所有LLMs中以最高的F1分数领先,这在很大程度上归功于其在提示中把握复杂输出格式要求的卓越能力。在开源模型中,Baichuan2-13B-Chat展示了最佳性能;然而,其F1分数仍然比ChatGPT低31.22分。

NER、EE、RE的Prompt模板

https://arxiv.org/pdf/2406.02079``Assessing the Performance of Chinese Open Source Large Language Models in Information Extraction Tasks
  • 1

兼看开源IE大模型:YAYI-UIE

雅意信息抽取统一大模型 (YAYI-UIE)在百万级人工构造的高质量信息抽取数据上进行指令微调,统一训练信息抽取任务包括命名实体识别(NER),关系抽取(RE)和事件抽取(EE),实现通用、安全、金融、生物、医疗、商业、个人、车辆、电影、工业、餐厅、科学等场景下结构化抽取。

训练数据,百万级语料中文54%,英文46%;其中数据集包括12个领域包括金融,社会,生物,商业,工业制造,化学,车辆,科学,疾病医疗,个人生活,安全和通用。覆盖数百个场景

指令样例/Sample Prompts

实体抽取任务/NER task

文本:xx``【实体抽取】抽取文本中可能存在的实体,并以json{人物/机构/地点:[实体]}格式输出。``Text:``From the given text, extract all the entities and types. Please format the answer in json {person/organization/location:[entities]}.
  • 1

关系抽取任务/RE tasks

文本:xx``【关系抽取】已知关系列表是[注资,拥有,纠纷,自己,增持,重组,买资,签约,持股,交易]。根据关系列表抽取关系三元组,按照json[{'relation':'', 'head':'', 'tail':''}, ]的格式输出。``Text:``From the given text, extract the possible head entities (subjects) and tail entities (objects) and give the corresponding relation triples.The relations are [country of administrative divisions,place of birth,location contains]. Output the result in json[{'relation':'', 'head':'', 'tail':''}, ].
  • 1

事件抽取任务/EE tasks

文本:xx``已知论元角色列表是[质押方,披露时间,质权方,质押物,质押股票/股份数量,事件时间,质押物所属公司,质押物占总股比,质押物占持股比],请根据论元角色列表从给定的输入中抽取可能的论元,以json{角色:论元,}格式输出。``Text:``Given the text and the role list [seller, place, beneficiary, buyer], identify event arguments and roles, provide your answer in the format of json{role:name}.
  • 1
github:https://github.com/wenge-research/YAYI-UIE``模型:https://huggingface.co/wenge-research/yayi-uie``数据集:https://huggingface.co/datasets/wenge-research/yayi_uie_sft_dat
  • 1

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号