当前位置:   article > 正文

实战:循环神经网络与文本内容情感分类_基于循环神经网络的文本情感分类

基于循环神经网络的文本情感分类

在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能为力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的,即一个序列当前的输出与前面的输出也有关。

具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再是无连接的,而是有连接的,并且隐藏层的输入不仅包括输入层的输出,还包括上一时刻隐藏层的输出,这种传统的神经网络模型如图8-2所示。

8.2.1  基于循环神经网络的中文情感分类准备工作

在讲解循环神经网络的理论知识之前,最好的学习方式就是通过实例实现并运行对应的项目,本小节将带领读者完成一下循环神经网络的情感分类实战的准备工作。

1. 数据的准备

首先是数据集的准备工作。在本节中,我们需要完成的是中文数据集的情感分类,因此事先准备了一套已完成情感分类的数据集,读者可以参考本书配套代码中dataset目录下的chnSenticrop.txt文件确认一下。此时我们需要完成数据的读取和准备工作,其实现代码如下:

  1. max_length = 80 #设置获取的文本长度为80
  2. labels = [] #用以存放label
  3. context = [] #用以存放汉字文本
  4. vocab = set()
  5. with open("../dataset/cn/ChnSentiCorp.txt", mode="r", encoding="UTF-8") as emotion_file:
  6. for line in emotion_file.readlines():
  7. line = line.strip().split(",")
  8. # labels.append(int(line[0]))
  9. if int(line[0]) == 0:
  10. labels.append(0) #由于在后面直接采用PyTorch自带的crossentroy函数,因此这里直接输入0,否则输入[1,0]
  11. else:
  12. labels.append(1)
  13. text = "".join(line[1:])
  14. context.append(text)
  15. for char in text: vocab.add(char) #建立vocab和vocab编号
  16. voacb_list = list(sorted(vocab))
  17. # print(len(voacb_list))
  18. token_list = []
  19. #下面是对context内容根据vocab进行token处理
  20. for text in context:
  21. token = [voacb_list.index(char) for char in text]
  22. token = token[:max_length] + [0] * (max_length - len(token))
  23. token_list.append(token)

2. 模型的建立

接下来可以根据需求建立模型。在这里我们实现了一个带有单向GRU和一个双向GRU的循环神经网络,代码如下:

  1. class RNNModel(torch.nn.Module):
  2. def __init__(self,vocab_size = 128):
  3. super().__init__()
  4. self.embedding_table = torch.nn.Embedding(vocab_size,embedding_dim=312)
  5. self.gru = torch.nn.GRU(312,256) # 注意这里输出有两个:out与hidden,out是序列在模型运行后全部隐藏层的状态,而hidden是最后一个隐藏层的状态
  6. self.batch_norm = torch.nn.LayerNorm(256,256)
  7. self.gru2 = torch.nn.GRU(256,128,bidirectional=True) # 注意这里输出有两个:out与hidden,out是序列在模型运行后全部隐藏层的状态,而hidden是最后一个隐藏层的状态
  8. def forward(self,token):
  9. token_inputs = token
  10. embedding = self.embedding_table(token_inputs)
  11. gru_out,_ = self.gru(embedding)
  12. embedding = self.batch_norm(gru_out)
  13. out,hidden = self.gru2(embedding)
  14. return out

这里要注意的是,对于GRU进行神经网络训练,无论是单向还是双向GUR,其结果输出都是两个隐藏层状态,即out与hidden。这里的out是序列在模型运行后全部隐藏层的状态,而hidden是此序列最后一个隐藏层的状态。

在这里我们使用的是2层GRU,有读者会注意到,在我们对第二个GRU进行定义时,使用了一个额外的参数bidirectional,这个参数用来定义循环神经网络是单向计算还是双向计算的,其具体形式如图8-3所示。

从图8-3中可以很明显地看到,左右两个连续的模块并联构成了不同方向的循环神经网络单向计算层,而这两个方向同时作用后生成了最终的隐藏层。

8.2.2  基于循环神经网络的中文情感分类

上一小节完成了循环神经网络的数据准备以及模型的建立,下面我们可以对中文数据集进行情感分类,完整的代码如下:

  1. import numpy as np
  2. max_length = 80 #设置获取的文本长度为80
  3. labels = [] #用以存放label
  4. context = [] #用以存放汉字文本
  5. vocab = set()
  6. with open("../dataset/cn/ChnSentiCorp.txt", mode="r", encoding="UTF-8") as emotion_file:
  7. for line in emotion_file.readlines():
  8. line = line.strip().split(",")
  9. # labels.append(int(line[0]))
  10. if int(line[0]) == 0:
  11. labels.append(0) #由于在后面直接采用PyTorch自带的crossentroy函数,因此这里直接输入0,否则输入[1,0]
  12. else:
  13. labels.append(1)
  14. text = "".join(line[1:])
  15. context.append(text)
  16. for char in text: vocab.add(char) #建立vocab和vocab编号
  17. voacb_list = list(sorted(vocab))
  18. # print(len(voacb_list))
  19. token_list = []
  20. #下面的内容是对context根据vocab进行token处理
  21. for text in context:
  22. token = [voacb_list.index(char) for char in text]
  23. token = token[:max_length] + [0] * (max_length - len(token))
  24. token_list.append(token)
  25. seed = 17
  26. np.random.seed(seed);np.random.shuffle(token_list)
  27. np.random.seed(seed);np.random.shuffle(labels)
  28. dev_list = np.array(token_list[:170])
  29. dev_labels = np.array(labels[:170])
  30. token_list = np.array(token_list[170:])
  31. labels = np.array(labels[170:])
  32. import torch
  33. class RNNModel(torch.nn.Module):
  34. def __init__(self,vocab_size = 128):
  35. super().__init__()
  36. self.embedding_table = torch.nn.Embedding(vocab_size,embedding_dim=312)
  37. self.gru = torch.nn.GRU(312,256) # 注意这里输出有两个:out与hidden,out是序列在模型运行后全部隐藏层的状态,而hidden是最后一个隐藏层的状态
  38. self.batch_norm = torch.nn.LayerNorm(256,256)
  39. self.gru2 = torch.nn.GRU(256,128,bidirectional=True) # 注意这里输出有两个:out与hidden,out是序列在模型运行后全部隐藏层的状态,而hidden是最后一个隐藏层的状态
  40. def forward(self,token):
  41. token_inputs = token
  42. embedding = self.embedding_table(token_inputs)
  43. gru_out,_ = self.gru(embedding)
  44. embedding = self.batch_norm(gru_out)
  45. out,hidden = self.gru2(embedding)
  46. return out
  47. #这里使用顺序模型的方式建立了训练模型
  48. def get_model(vocab_size = len(voacb_list),max_length = max_length):
  49. model = torch.nn.Sequential(
  50. RNNModel(vocab_size),
  51. torch.nn.Flatten(),
  52. torch.nn.Linear(2 * max_length * 128,2)
  53. )
  54. return model
  55. device = "cuda"
  56. model = get_model().to(device)
  57. model = torch.compile(model)
  58. optimizer = torch.optim.Adam(model.parameters(), lr=2e-4)
  59. loss_func = torch.nn.CrossEntropyLoss()
  60. batch_size = 128
  61. train_length = len(labels)
  62. for epoch in (range(21)):
  63. train_num = train_length // batch_size
  64. train_loss, train_correct = 0, 0
  65. for i in (range(train_num)):
  66. start = i * batch_size
  67. end = (i + 1) * batch_size
  68. batch_input_ids = torch.tensor(token_list[start:end]).to(device)
  69. batch_labels = torch.tensor(labels[start:end]).to(device)
  70. pred = model(batch_input_ids)
  71. loss = loss_func(pred, batch_labels.type(torch.uint8))
  72. optimizer.zero_grad()
  73. loss.backward()
  74. optimizer.step()
  75. train_loss += loss.item()
  76. train_correct += ((torch.argmax(pred, dim=-1) == (batch_labels)).type(torch.float).sum().item() / len(batch_labels))
  77. train_loss /= train_num
  78. train_correct /= train_num
  79. print("train_loss:", train_loss, "train_correct:", train_correct)
  80. test_pred = model(torch.tensor(dev_list).to(device))
  81. correct = (torch.argmax(test_pred, dim=-1) == (torch.tensor(dev_labels).to(device))).type(torch.float).sum().item() / len(test_pred)
  82. print("test_acc:",correct)
  83. print("-------------------")

在上面代码中,我们顺序建立循环神经网络模型,在使用GUR对数据进行计算后,又使用Flatten对序列embedding进行平整化处理;而最后的Linear是分类器,作用是对结果进行分类。具体结果请读者自行测试查看。

本文节选自《PyTorch语音识别实战》,获出版社和作者授权发布。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/一键难忘520/article/detail/782591
推荐阅读
  

闽ICP备14008679号