搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
Li_阴宅
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
python、tensorflow、keras的版本对应关系_tensorflow和keras的版本对应
2
Redis_redis csdn
3
数字证书简介
4
Java程序员学习Go开发Higress的WASM插件
5
Python大数据分析、Python统计分析在医疗中的应用_python在医疗行业的应用
6
高级人工智能——深度学习整理
7
Stable Diffusion安装指南(win+Mac)_苹果电脑能用stable diffusion吗
8
东问西问,终于揭开腾讯面试的真面目!(一、二、三面)_腾讯出行三面
9
百度智能云数字人凭什么领跑中国AI数字人?_百度所有数字人集合
10
Android性能优化分享_android gson有点耗性能
当前位置:
article
> 正文
【nlp】4.3 nlp中常用的预训练模型(BERT及其变体)_中文分类表现出色的bert变体有哪些?
作者:Li_阴宅 | 2024-07-08 00:38:46
赞
踩
中文分类表现出色的bert变体有哪些?
nlp中常用的预训练模型
1 当下NLP中流行的预训练模型¶
1.1 BERT及其变体
1.2 GPT
1.3 GPT-2及其变体
1.4 Transformer-XL
1.5 XLNet及其变体
1.6 XLM
1.7 RoBERTa及其变体
1.8 DistilBERT及其变体
1.9 ALBERT
1.10 T5及其变体
1.11 XLM-RoBERTa及其变体
2 预训练模型说明¶
3 预训练模型的分类
1 当下NLP中流行的预训练模型¶
BERT
GPT
GPT-2
Transformer-XL
XLNet
XLM
RoBERTa
DistilBERT
ALBERT
T5
XLM-RoBERTa
1.1 BERT及其变体
bert-base-uncased: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在小写的英文文本上进行训练而得到.
bert-large-uncased: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共340M参数量, 在小写的英文文本上进行训练而得到.
bert-base-cased: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在不区分大小写的英文文本上进行训练而得到.
bert-large-cased: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共340M参数量, 在不区分大小写的英文文本上进行训练而得到.
bert-base-multilingual-uncased: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在小写的102种语言文本上进行训练而得到.
bert-large-multilingual-uncased: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共340M参数量, 在小写的102种语言文本上进行训练而得到.
bert-base-chinese: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在简体和繁体中文文本上进行训练而得到.
1.2 GPT
声明:
本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:
https://www.wpsshop.cn/w/Li_阴宅/article/detail/797183
推荐阅读
article
使用
pytorch
搭建
textCNN
、
BERT
、
transformer
进行
文本
分类_
textcnn
代...
使用
pytorch
搭建
textCNN
、
BERT
、
transformer
进行
文本
分类_
textcnn
代码举例
pytorch
...
赞
踩
article
BERT
+
TextCNN
实现医疗
意图
识别
项目_
bert
意图
识别
...
BERT
+
TextCNN
实现医疗
意图
识别
项目_
bert
意图
识别
bert
意图
识别
...
赞
踩
article
(
10
-3)
BERT
:
BERT
在文本
分类
任务
中的应用_
bert
模型
做
分类
任务
...
BERT
在自然语言处理(NLP)领域的成功应用广泛,它的预训练
模型
能够学到通用的语言表示,从而在各种NLP
任务
中取得了出...
赞
踩
article
NLP
算法
实战项目:
使用
BERT
进行
文本
多
分类
_
nlp
文本
标题
分类
...
大多数研究人员将他们的研究论文提交给学术会议,因为这是更快地使研究结果可用的途径。寻找和选择合适的会议一直是一项具有挑战...
赞
踩
article
用
通俗易懂
的
方式
讲解
:图解
BERT
架构_
bert
模型
结构
详解...
如果你还没有理解,可以翻阅看一下。今天本文将从
BERT
的本质、
BERT
的原理、
BERT
的应用三个方面,带您一文搞懂Bid...
赞
踩
article
昇思
MindSpore
学习
笔记2-
01
LLM原理和实践
--
基于
MindSpore
实现 BER...
通过识别
BERT
对话
情绪状态的实例,展现在昇思
MindSpore
AI框架中大语言模型的原理和实际使用方法、步骤。昇思M...
赞
踩
article
NLP
基础知识
1【
BERT
】...
NLP
基础知识
1【
BERT
】
BERT
之前的语言编码one-hot的问题word2vec存在的问题elmo存在的问题BER...
赞
踩
article
NLP15
:使用
BiLSTM
、
BiLSTM
-CRF、
BiLSTM
-Attention、Bert-Bi...
公众号:数据挖掘与机器学习笔记1.基于
BiLSTM
的命名实体识别Embedding+
BiLSTM
+
BiLSTM
+Dens...
赞
踩
article
2024
年
最新
NLP
进阶
,
Bert
+
BiLSTM
情感分析实战(1)
,
2024
年
最新
面试
阿里运营一般问...
Python所有方向路线就是把Python常用的技术点做整理
,
形成各个领域的知识点汇总
,
它的用处就在于
,
你可以按照上面的...
赞
踩
article
【使用
BERT
的
问答系统】第 2 章 :用于
自然语言
处理
的
神经网络
_
bert
问答实战...
将人类认知智能(即思考、推理和行动)带入人工系统一直是研究人员
的
热门话题。在这个过程中,他们提出了
神经网络
的
想法,试图模...
赞
踩
article
采用
BERT
-
BiLSTM
-
CRF
模型
的中文位置语义解析_提高
bert
-
bilstm
-crf分词识...
针对利用当前神经网络
模型
进行中文位置语义解析存在多义词解析效果差、泛化能力差等问题,提出一种基于
BERT
-
BiLSTM
-...
赞
踩
article
NER ——
Bert
/AL
Bert
+
CRF
_
bert
—
crf
ner
微调原理...
目录
Bert
/AL
Bert
+
CRF
一、模型简介1、
Bert
:双向预训练 + 微调1.1 背景1.2 模型结构1.3 输入...
赞
踩
article
【
Bert
】(十五)命名
实体
识别--跑通
代码
_
anconda
安装
bert
中文
实体
识别...
1. 环境
安装
1.1 环境配置1、
安装
anaconda环境2、执行如下
代码
配置环境,不需要额外
安装
cuda和cudnn,...
赞
踩
article
bert
生成
文本
句
向量
_
bert
文本
向量
化...
之前
生成
文本
句
向量
的方法是:训练词
向量
模型w2v,将句子中各词的
向量
进行平均,现在想尝试一下用
bert
模型
生成
句
向量
。1...
赞
踩
article
240705_昇思
学习
打卡-
Day17
-基于
MindSpore
实现
BERT
对话
情绪
识别...
BERT
全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations ...
赞
踩
相关标签
pytorch
bert
transformer
神经网络
深度学习
数据分析
人工智能
python
自然语言处理
NLP
算法
分类
学习
笔记