搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
小蓝xlanll
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
SpringBoot热部署2023最新版IDEA详细步骤_idea2023 热部署
2
轻量化卷积神经网络:SqueezeNet、MobileNet、ShuffleNet、Xception_squeezenet1.0 mobilenet v1 shufflenet1 xception ef
3
[送10个成品账号]狙击GPT5?Claude3免费体验方法及初步体验_claude 3 免费
4
AIGC查重高怎么降:七步走向原创内容
5
conda 的一些操作_进入nlp虚拟环境的命令是
6
微调Llama 2 和Mistral
7
yolo-nas无人机高空红外热数据小目标检测(教程+代码)_无人机红外行人检测数据集
8
一篇文章助你了解机器学习
9
MATLAB拟合函数
10
Maven是什么? Maven的概念+作用
当前位置:
article
> 正文
BERT, GPT, ELMo模型对比_bert 模型和 chatglm 模型,并对比这两个模型的不同点
作者:小蓝xlanll | 2024-04-06 00:03:32
赞
踩
bert 模型和 chatglm 模型,并对比这两个模型的不同点
BERT
, GPT, ELMo之间的不同点
关于特征提取器:
ELMo采用两部分双层双向LSTM进行特征提取, 然后再进行特征拼接来融合语义信息.
GPT和BERT采用Transformer进行特征提取.
BERT采用的是Transformer架构中的Encoder模块.
GPT采用的是Transformer架构中的Decoder模块.
很多NLP任务表明Transformer的特征提取能力强于LSTM, 对于ELMo而言, 采用1层静态token embedding + 2层LSTM, 提取特征的能力有限.
单/双向语言模型:
三者之中, 只有GPT采用单向语言模型, 而ELMo和BERT都采用双向语言模型.
ELMo虽然被认为采用了双向语言模型, 但实际上是左右两个单向语言模型分别提取特征, 然后进行特征拼接, 这种融合特征的能力比BERT一体化的融合特征方式弱.
三者之中, 只有ELMo没有采用Transformer. GPT和BERT都源于Transformer架构, GPT的单向语言模型采用了经过修改后的Decoder模块, Decoder采用了look-ahead mask, 只能看到context before上文信息, 未来的信息都被mask掉了. 而BERT的双向语言模型采用了Encoder模块, Encoder只采用了padding mask, 可以同时看到context before上文信息, 以及context after下文信息.
BERT, GPT, ELMo各自的优点和缺点
ELMo:
优点:
从早期的Word2Vec预训练模型的最大缺点出发, 进行改进, 这一缺点就是无法解决多义词的问题.
ELMo根据上下文动态调整word embedding, 可以解决多义词的问题.
缺点:
ELMo使用LSTM提取特征的能力弱于Transformer.
ELMo使用向量拼接的方式融合上下文特征的能力弱于Transformer.
GPT:
优点:
GPT使用了Transformer提取特征, 使得模型能力大幅提升.
缺点:
GPT只使用了单向Decoder, 无法融合未来的信息.
BERT:
优点:
BERT使用了双向Transformer提取特征, 使得模型能力大幅提升.
添加了两个预训练任务, MLM + NSP的多任务方式进行模型预训练.
缺点:
模型过于庞大, 参数量太多, 需要的数据和算力要求过高, 训练好的模型应用场景要求高.
更适合用于语言嵌入表达, 语言理解方面的任务, 不适合用于生成式的任务.
声明:
本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:
https://www.wpsshop.cn/w/小蓝xlanll/article/detail/368644
推荐阅读
article
bert
预
训练
模型
的使用(
pytorch
)...
import numpy as npimport torch from transformers import Bert...
赞
踩
article
bert
-
modeling
代码学习
_
modeling
bert
...
# coding=utf-8# Copyright 2018 The Google AI Language Team A...
赞
踩
article
bert-
create
_pretr
ai
ning_
data
代码学习_#
coding
=utf-8 # ...
#
coding
=utf-8# Copyright 2018 The Google AI Language Team A...
赞
踩
article
bert
-
tokenization
代码学习
_
tokenization
classes
...
# coding=utf-8# Copyright 2018 The Google AI Language Team A...
赞
踩
article
【
Bert
】(六)句子关系判断--源码解析(
bert
基础模型)
_
max
_
position
_
embed...
bert
基础模型
bert
模型后处理损失优化器
_
max
_
position
_
embeddings
max
_
position
_
e...
赞
踩
article
(
5
)一文懂“
NLP
Bert
-
base
” 模型
参数
量计算
...
Bert
的模型由多层双向的Transformer编码器组成,由12层组成,768隐藏单元,12个head,总
参数
量11...
赞
踩
article
模型
实践(二)
bert
中文
语料
分类
...
1.下载
bert
源代码和
中文
预训练
模型
bert
代码
模型
下载Chinese Simplified and Traditio...
赞
踩
article
Bert
源码
(
pytorch
)超详细
的
解读
_
bert
源码
分析...
model.py对transformers
的
bert
源码
的
解读# coding=utf-8from
_
_
future
_
_
...
赞
踩
article
bert
的
输出
格式详解...
输出
是一个元组类型的数据 ,包含四部分,last hidden stateshape是(batch_size, sequ...
赞
踩
article
bert
三种
模型
保存
的方式以及调用方法总结(
ckpt
,单
文件
pb
,tf_
serving
使用的
pb
)...
1、在训练的过程中
保存
的
ckpt
文件
:
保存
时主要有四个
文件
:1)checkpoint:指示当前目录有哪些
模型
文件
以及最新...
赞
踩
article
从统计
语言
模型
到预
训练
语言
模型
---预
训练
语言
模型
(
BERT
,
GPT
,
BART
系列)_最新预
训练
模型
...
基于 Transformer 架构以及 Attention 机制,一系列预
训练
语言
模型
被不断提出。_最新预
训练
模型
最新预...
赞
踩
article
自
监督
学习
--
Bert
、
GPT
、
自
编码器
_gpt
编码器
...
自
监督
学习
--
Bert
、
GPT
、
自
编码器
_gpt
编码器
gpt
编码器
...
赞
踩
article
BERT
模型预训练
流程
简单认识
_
bert
微调
流程
图
...
BERT
流程
图
代码模块代码参考:https://github.com/cmd23333/
BERT
-Tensorflow2...
赞
踩
article
运行
bert
-
crf
,
bert
-
lstm
-
crf
,
bert
-
softmax
,bi
lstm
-
crf
的一...
假期复现代码的时候,在github找到这几个模型,先用原数据
运行
通了,再用自己的数据进行
运行
的。代码可以在github上...
赞
踩
article
迁移
学习
NLP
:
BERT
、
ELMo
等直观图解_迁移
学习
迁移
学习
在
自然语言
处理
中被广泛应用 结构图...
2018年是
自然语言
处理
的转折点,能捕捉潜在意义和关系的方式表达单词和句子的概念性理解正在迅速发展。此外,
NLP
社区已经...
赞
踩
article
AI人工智能进阶-
BERT
/
Transformer
/
LSTM
/RNN原理与代码_
csdn
bert
...
所有的分享都来自于我个人笔记,经过我自己的思考总结实践积累下来的东西,希望能帮助到入门的朋友们。_
csdn
bert
l...
赞
踩
article
【
论文
解析】如何将
Bert
更好地用于
文本
分类
(How to
Fine
-
Tune
BERT
for T...
论文
How to
Fine
-
Tune
BERT
for
Text
Classification?基于
Bert
模型,在6份...
赞
踩
article
Bert
+
BiLSTM
+
attention
+
TextCNN
来实现文本分类_
bert
+
bilstm
+a...
使用多种nlp流行的模型 来实现一个文本分类_
bert
+
bilstm
+
attention
文本分类
bert
+
bilstm
+...
赞
踩
article
【A情感
文本
分类
实战】2024
Pytorch
+
Bert
、
Roberta
+
TextCNN
、BiLst...
roberta
文本
分类
...
赞
踩
article
Pytorch实现中文文本分类任务(Bert,
ERNIE
,
TextCNN
,
TextRNN
,FastT...
Github项目地址:https://github.com/JackHCC/Chinese-Text-Classific...
赞
踩
相关标签
pytorch
深度学习
bert
transformer
人工智能
自然语言处理
word2vec
nlp
中文分类
python
语言模型
BERT
GPT
BART
学习