当前位置:   article > 正文

文本分类-《动手学深度学习pytorch》_features = torch.tensor([pad([stoi[word] for word

features = torch.tensor([pad([stoi[word] for word in words]) for words in to

它把一段不定长的文本序列变换为文本的类别。

情感分析:使用文本情感分类来分析文本作者的情绪。有广泛的应用。

应用预训练的词向量和含多个隐藏层的双向循环神经网络与卷积神经网络,来判断一段不定长的文本序列中包含的是正面还是负面的情绪。后续内容将从以下几个方面展开:

  1. 文本情感分类数据集
  2. 使用循环神经网络进行情感分类
  3. 使用卷积神经网络进行情感分类

文本情感分类数据

我们使用斯坦福的IMDb数据集(Stanford’s Large Movie Review Dataset)作为文本情感分类的数据集。

词典和词语的索引创建

  1. def get_vocab_imdb(data):
  2. tokenized_data = get_tokenized_imdb(data)#分词后的文本的列表
  3. counter = collections.Counter([tk for st in tokenized_data for tk in st])
  4. return Vocab.Vocab(counter, min_freq=5) #torchtext.vocab.Vocab 创建词典。

#将数据集的文本从字符串的形式转换为单词下标序列的形式

  1. #将数据集的文本从字符串的形式转换为单词下标序列的形式
  2. def preprocess_imdb(data, vocab):
  3. max_l = 500 # 将每条评论通过截断或者补0,使得长度变成500
  4. def pad(x):
  5. return x[:max_l] if len(x) > max_l else x + [0] * (max_l - len(x))
  6. tokenized_data = get_tokenized_imdb(data)
  7. features = torch.tensor([pad([vocab.stoi[word] for word in words]) for words in tokenized_data])
  8. labels = torch.tensor([score for _, score in data])
  9. return features, labels

创建 PyTorch 格式的数据集,从而创建数据迭代器。利用

  1. train_set = Data.TensorDataset(*preprocess_imdb(train_data, vocab))
  2. test_set = Data.TensorDataset(*preprocess_imdb(test_data, vocab))
  3. # 上面的代码等价于下面的注释代码
  4. # train_features, train_labels = preprocess_imdb(train_data, vocab)
  5. # train_set = Data.TensorDataset(train_features, train_labels)
  6. # train_set[index] = (features[index], labels[index])
  7. batch_size = 64
  8. train_iter = Data.DataLoader(train_set, batch_size, shuffle=True)
  9. test_iter = Data.DataLoader(test_set, batch_size)

使用循环神经网络

  1. #LSTM类
  2. class BiRNN(nn.Module):
  3. def __init__(self, vocab, embed_size, num_hiddens, num_layers):
  4. super(BiRNN, self).__init__()
  5. self.embedding = nn.Embedding(len(vocab), embed_size)
  6. # encoder-decoder framework
  7. # bidirectional设为True即得到双向循环神经网络
  8. self.encoder = nn.LSTM(input_size=embed_size,
  9. hidden_size=num_hiddens,
  10. num_layers=num_layers,
  11. bidirectional=True)
  12. self.decoder = nn.Linear(4*num_hiddens, 2) # 初始时间步和最终时间步的隐藏状态作为全连接层输入
  13. def forward(self, inputs):
  14. # 因为LSTM需要将序列长度(seq_len)作为第一维,所以需要将输入转置
  15. embeddings = self.embedding(inputs.permute(1, 0)) # (seq_len, batch_size, d)
  16. # rnn.LSTM 返回输出、隐藏状态和记忆单元,格式如 outputs, (h, c)
  17. outputs, _ = self.encoder(embeddings) # (seq_len, batch_size, 2*h)
  18. encoding = torch.cat((outputs[0], outputs[-1]), -1) # (batch_size, 4*h)
  19. outs = self.decoder(encoding) # (batch_size, 2)
  20. return outs

使用卷积神经网络进行情感分类

时序最大池化层

TextCNN 中使用的时序最大池化(max-over-time pooling)层实际上对应一维全局最大池化层:假设输入包含多个通道,各通道由不同时间步上的数值组成,各通道的输出即该通道所有时间步中最大的数值。因此,时序最大池化层的输入在各个通道上的时间步数可以不同。

TextCNN 模型

TextCNN 的计算主要分为以下几步。

  1. 定义多个一维卷积核,并使用这些卷积核对输入分别做卷积计算。宽度不同的卷积核可能会捕捉到不同个数的相邻词的相关性。
  2. 对输出的所有通道分别做时序最大池化,再将这些通道的池化输出值连结为向量。
  3. 通过全连接层将连结后的向量变换为有关各类别的输出。这一步可以使用丢弃层应对过拟合。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/1019256
推荐阅读
相关标签
  

闽ICP备14008679号