赞
踩
transformers
库是由 Hugging Face 开发的一个非常流行的 Python 库,用于自然语言处理(NLP)任务。它提供了大量的预训练模型,这些模型可以用于各种 NLP 任务,如文本分类、问答、翻译、摘要生成等。以下是关于 transformers
库的详细介绍:
transformers
库包含了多种预训练的语言模型,如 BERT、GPT、T5、XLNet 等。这些模型在大规模文本数据上进行了预训练,可以直接用于各种下游任务。可以通过 pip 安装 transformers
库:
pip install transformers
以下是一个简单的示例,展示如何使用 transformers
库加载一个预训练的 BERT 模型并进行文本分类:
from transformers import BertTokenizer, BertForSequenceClassification
import torch
# 加载预训练的 BERT 模型和分词器
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased')
# 输入文本
text = "Hello, how are you?"
# 对文本进行分词
inputs = tokenizer(text, return_tensors='pt')
# 使用模型进行预测
outputs = model(**inputs)
logits = outputs.logits
# 获取预测结果
predictions = torch.argmax(logits, dim=-1)
print(predictions)
transformers.models
:包含了各种预训练模型的实现,如 BertModel
、GPT2Model
等。transformers.tokenization_utils
:提供了分词器的基类和各种分词器的实现。transformers.pipelines
:提供了一些预定义的管道,用于简化特定任务的模型使用,如 pipeline('sentiment-analysis')
。from transformers import pipeline
classifier = pipeline('sentiment-analysis')
result = classifier("I love using the transformers library!")
print(result)
from transformers import pipeline
question_answerer = pipeline('question-answering')
context = "Hugging Face is a company based in New York."
question = "Where is Hugging Face based?"
result = question_answerer(question=question, context=context)
print(result)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。