搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
weixin_40725706
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
为“中国汽车价值”而战,中国星旗舰SUV星越L全球上市
2
加串-解串芯片_解串器 调试 触发
3
数据结构第一关---- 复杂度
4
微软 clarity Beta 版本上线测试_微软 clarity 开源私有部署
5
IntelliJ IDEA - 创建文件自动 Add 到 Git 选项配置_ide project settings can be added to git
6
Baidu Comate发布中文名“文心快码”,企业级安全能力全面升级
7
《大数据分析原理与实践》——第1章 绪论 1.1 什么是大数据
8
java IO流进阶 模拟上传头像系统详解_java实现用户头像上传和修改
9
《动手做科研》一步一步地展示如何入门人工智能科研_动手做科研csdn
10
java.sql.SQLException: [Microsoft][ODBC 驱动程序管理器] 未发现数据源名称并且未指定默认驱动程序解决方法_链接服务器,未发现数据源并且未指定默认驱动
当前位置:
article
> 正文
Transformers中不同数据收集器的使用场景_datacollatorwithpadding 补齐策略
作者:weixin_40725706 | 2024-07-16 17:04:18
赞
踩
datacollatorwithpadding 补齐策略
DataCollator:
使用场景:当你的训练数据没有特定的格式或需要自定义数据收集逻辑时,可以使用DataCollator来自定义数据收集过程。
示例:适用于自定义数据收集逻辑的场景,需要根据具体任务进行数据处理和整合。
DataCollatorForLanguageModeling:
使用场景:适用于训练语言模型的场景,其中目标是预测下一个词或遮蔽词。
示例:适用于GPT、BERT等语言模型的预训练任务,通过遮蔽部分输入文本来预测被遮蔽的词。
DataCollatorForPermutationLanguageModeling:
使用场景:适用于排列语言模型(Permutation Language Modeling)的场景,其中需要对输入进行随机排列。
示例:适用于一些需要对输入进行随机排列的任务,例如句子重排序或序列生成。
DataCollatorForSOP:
使用场景:适用于Next Sentence Prediction任务,其中需要判断两个句子是否相邻。
示例:适用于BERT等模型的预训练任务,其中需要预测两个句子是否相邻。
DataCollatorForSeq2Seq:
使用场景:适用于序列到序列(Seq2Seq)任务,例如机器翻译或文本摘要。
示例:适用于Encoder-Decoder模型,其中需要将源序列和目标序列进行整合和处理。
DataCollatorForTokenClassification:
使用场景:适用于标记分类(Token Classification)任务,例如命名实体识别或词性标注。
示例:适用于需要对文本中的标记进行分类的任务,例如识别实体或标注词性。
DataCollatorForWholeWordMask:
使用场景:适用于预训练任务中的整词遮蔽(Whole Word Masking)任务。
示例:适用于BERT等模型的预训练任务,其中需要将整个词作为一个单元进行遮蔽。
DataCollatorWithPadding:
使用场景:适用于需要进行填充(padding)的任务,确保输入序列的长度一致。
示例:适用于需要将输入序列填充为固定长度的任务,例如文本分类或序列标注。
DefaultDataCollator:
使用场景:适用于大多数任务的默认数据收集逻辑,通常用于文本分类等简单任务。
示例:适用于简单的文本分类任务,将输入序列进行对齐并生成批次。
本文内容由网友自发贡献,转载请注明出处:
https://www.wpsshop.cn/w/weixin_40725706/article/detail/835346
推荐阅读
article
ViTGAN
:用视觉
Transformer
训练生成性对抗网络 Training
GANs
with
...
不使用卷积或池化,能否使用视觉
Transformer
来完成图像生成任务?更具体而言:能否使用 ViT 来训练生成对抗...
赞
踩
article
轻松
理解
Transformers
(4) :
Decoder
和
Output
部分
_transfo...
文章首先指出,
Transformers
属于编码器-解码器架构,输入数据通过编码器转换为数学表征,再输入解码器生成最终输出...
赞
踩
article
tokenizers
in
Transformers
:
BPE
、
WordPiece
,SentenceP...
目录1. space、punctuation、rule-based tokenization2. Subword tok...
赞
踩
article
文本生成的几种简单方法_
from
transformers
import
berttokenizer
...
文本生成的几种简单方法_
from
transformers
import
berttokenizer
,
gpt2lmhe...
赞
踩
article
No
module
named
‘
t
ransformers
.
models
.
au
t
o
.
t
okeniza...
本文介绍了如何在使用`pipins
t
allpy
t
orch-
t
ransformers
`安装Transformers库后,遇...
赞
踩
article
Hugging
Face
Transformers
之 AutoConfig 、AutoTokeni...
Hugging
Face
Transformers
之 AutoConfig 、AutoTokenizer、AutoMo...
赞
踩
article
Transformers
安装
与基本
使用
_
transformer
安装
...
Transformers
安装
与基本
使用
_
transformer
安装
transformer
安装
...
赞
踩
article
huggingface
transformers
预
训练
模型
加载
参数设置
_
huggingface
t...
说明:1)proxies:服务器无法直接访问互联网需通过代理访问。2)cache
_
dir:model及dadaset文件...
赞
踩
article
transformers
DataCollatorForWholeWordMask
类...
在构建MLM时,15%的Word piece会被mask,这15%中,80%会直接替换为[Mask],10%将其替换为其...
赞
踩
相关标签
transformer
深度学习
计算机视觉
GAN
人工智能
白海科技
LLM
自然语言处理
神经网络
机器学习
python
nlp
transformers
models
auto
tokenization
语言模型
tensorflow
pytorch
cnn