当前位置:   article > 正文

机器学习(有监督)——条件随机场CRF_机器学习 crf

机器学习 crf

目录

一、定义与原理

二、公式解读

三、代码实现过程


一、定义与原理

条件随机场:给定随机变量X条件下,随机变量Y的马尔可夫随机场。通常是链式的,具有成对马尔可夫性。

马尔可夫性:通俗来说就是当前的序列节点A只和与之相连的节点B、C等有关,与其他的节点D、E等无关。以链式无向序列为例,链式序列拥有马尔可夫性是成对马尔可夫性性:序列Y[y1,y2,....yn],节点y2与节点y4是相互独立的,而节点y2与节点y1有关系,也与节点y3有关系。

条件随机场的应用:通常进行分类任务时分类器用的是交叉熵损失,而序列标注的任务用的是条件随机场。区别如下图所示:

交叉熵:可以看见前一个类别结果Y1与后一个类别结果Y2是没有关系的,所以每个类别之间是相互独立的

 条件随机场:下一个类别Y2受到上一个类别Y1的影响,类别之间是不独立的。以命名实体为例:类别[B,I,O],B表示名字的第一个字,I表示名字后面的字,O表示不是名字的字。则序列X[他,叫,王,小,明,。],对应的标签Y[O,O,B,I,I,O]。不可能出现[O,I,B]这样的标签顺序。

二、公式解读

公式:

P(y|x)=\frac{1}{Z(x)}exp(\sum_{i,k}\lambda _{k}t_{k}(y_{i},y_{i+1},x,i)+\sum_{i,l}\mu _{l}s_{l}(y_{i},x,i))

Z(x)=\sum_{y}^{}exp(\sum_{i,k}\lambda _{k}t_{k}(y_{i},y_{i+1},x,i)+\sum_{i,l}\mu _{l}s_{l}(y_{i},x,i))

 P(y|x)为目标标签序列的概率;

Z(x)为归一化因子,是所有标签序列得分之和;

\lambda _{k}为转移权重;

\mu _{l}为状态权重;

t_{k}(y_{i},y_{i+1},x,i)s_{l}(y_{i},x,i)为特征函数,通常取0或1;

i为token,即序列的某个时刻,kl为特征函数的条件,不同的条件有不同的权重;

\sum_{i,k}\lambda _{k}t_{k}(y_{i},y_{i+1},x,i)\sum_{i,l}\mu _{l}s_{l}(y_{i},x,i)表示对应条件的特征函数与对应的权重相乘再求和。例如标签为1到3,那么与权重\lambda _{1,3}相乘的特征函数t_{1,3}(y_{i},y_{i+1},x,i)值为1,其他的t_{k}(y_{i},y_{i+1},x,i)值为0。

图解:从图上看其实就是寻找最优路径的过程

条件随机场举例:标签类别label(1,2,3),输入序列X(x1,x2,x3),标签序列Y(1,3,2),转移矩阵T[[t11,t12,t13],[t21,t22,t23],[t31,t32,t33]],状态矩阵实际上就是输入序列的数值[x1,x2,x3],求目标序列概率P(y|x)

解:

1、计算标签序列1-3的转移得分和状态得分

      由标签1转移到标签3,符合该条件的转移权重\lambda _{k}为t13,状态权重\mu _{l}为x1。对应条件的特征函数肯定是取1,其他情况下为0,所以不考虑其他情况的\lambda _{k}\mu _{l}。计算得:t13+x1

2、同理计算标签序列3-2的转移得分和状态得分

      汇总得到目标路径1-3-2的得分为:exp(t13+x1+t32+x2)

3、计算归一化因子Z(x)

      实际上就是所有路径得分之和:1-1-1、1-1-2、1-1-3、......、3-3-2、3-3-3。

4、计算P(y|x)

      目标路径1-3-2的概率P(y|x)=exp(t13+x1+t32+x2)/Z(x)

三、代码实现过程

注意事项:

1、条件随机场模型的公式是希望概率P(y|x)最大,当以P(y|x)为损失值loss时,希望loss最小,因此需要对公式进行修改,将分子分母转为log相减,再取反。这样可以使loss尽量接近与0;

2、转移权重\lambda _{k}是模型需要学习的权重矩阵,通过初始化并不停的迭代使目标概率P(y|x)最大;

3、状态权重\mu _{l}也就是输入得分序列X是条件随机场前面接的模型提取到,通常接LSTM、RNN、BERT等特征提取模型;

4、预测时,需要用维特比算法解码得到类别结果;

代码实现:只实现CRF,没有搭建训练模型。训练过程参考:NLP学习笔记——命名实体识别

  1. import torch.nn as nn
  2. import torch
  3. from torch import FloatTensor, Tensor, BoolTensor
  4. from config import Config
  5. class CRF(nn.Module):
  6. def __init__(self, num_labels: int):
  7. super(CRF, self).__init__()
  8. self.config = Config()
  9. self.num_labels = num_labels
  10. # 使用均匀分布初始化一个转移矩阵
  11. self.transfer_matrix = nn.Parameter(torch.empty(self.num_labels, self.num_labels))
  12. nn.init.uniform_(self.transfer_matrix, -0.1, 0.1)
  13. # 使用均匀分布初始化一个开始矩阵
  14. self.start_matrix = nn.Parameter(torch.empty(self.num_labels))
  15. nn.init.uniform_(self.start_matrix, -0.1, 0.1)
  16. # 使用均匀分布初始化一个结束矩阵
  17. self.end_matrix = nn.Parameter(torch.empty(self.num_labels))
  18. nn.init.uniform_(self.end_matrix, -0.1, 0.1)
  19. def forward(self, x: FloatTensor, y: Tensor, mask: BoolTensor
  20. ) -> Tensor:
  21. """
  22. 分子除以分母改为相减,希望的概率越大,获取的loss值会负方向趋近于0
  23. :param x: 特征序列(通常是经过RNN等模型提取到的特征张量)
  24. :param y: 标签序列
  25. :param mask: 填充符掩码(特征序列里含有填充符<pad>,对应的标签也有)
  26. :return: 损失值(负数)
  27. 公式: 概率 = 标签路径上的边和节点得分之和/所有边和节点得分之和
  28. 希望概率最大,因此公式转log使概率从负方向趋近于0。再取反便是loss(正数)
  29. """
  30. molecule = self.formula_molecule(x, y, mask).to(self.config.device)
  31. denominator = self.formula_denominator(x, mask).to(self.config.device)
  32. loss = molecule - denominator
  33. return loss
  34. def formula_molecule(self, x: FloatTensor, y: Tensor, mask: BoolTensor
  35. ) -> Tensor:
  36. """
  37. 计算公式的分子部分
  38. :param x: 特征序列(通常是经过RNN等模型提取到的特征张量)
  39. :param y: 标签序列
  40. :param mask: 填充符掩码(特征序列里含有填充符<pad>,对应的标签也有)
  41. :return: 分子得分
  42. """
  43. batch_size, len_seq, _ = x.size()
  44. batch_idx = torch.arange(batch_size) # tensor([ 0, 1, ...., batch_size])
  45. first_y = y[:, 0] # 每个序列的第一个类别标签
  46. last_y = y[:, -1] # 每个序列的最后的类别标签
  47. # 由开始到第一个标签的转移得分
  48. score = self.start_matrix[first_y]
  49. # 中间的得分
  50. for i in range(len_seq-1):
  51. now_y = y[:, i] # 当前标签的值y1
  52. next_y = y[:, i + 1] # 下一个标签的值y2
  53. now_mask = mask[:, i] # 排除掩码部分
  54. next_mask = mask[:, i + 1]
  55. transfer = self.transfer_matrix[now_y, next_y] # 当前时刻y1——>y2的转移权重
  56. now_x = x[batch_idx, i, now_y] # 当前标签的值x1
  57. score += now_x * now_mask + transfer * next_mask
  58. # 最后的得分
  59. score += self.end_matrix[last_y] # 加上最后结束的转移得分
  60. return score
  61. def formula_denominator(self, x: FloatTensor, mask: BoolTensor):
  62. """
  63. 计算所有边(转移权重)和节点(类别)的总得分作为分母,与有效序列长度有关,越长越大
  64. :param x: 特征序列(通常是经过RNN等模型提取到的特征张量)
  65. :param mask: 填充符掩码(特征序列里含有填充符<pad>,对应的标签也有)
  66. :return: 分别得分
  67. """
  68. batch_size, len_seq, _ = x.size()
  69. # 设置张量形状
  70. mask = mask.unsqueeze(-1).expand(batch_size, len_seq, self.num_labels)
  71. start_matrix = self.start_matrix.unsqueeze(0).expand(batch_size, self.num_labels)
  72. end_matrix = self.end_matrix.unsqueeze(0).expand(batch_size, self.num_labels)
  73. # 第一个token
  74. x_0 = x[:, 0]
  75. score = start_matrix + x_0
  76. # 中间的token
  77. for i in range(1, len_seq):
  78. this_x = x[:, i].unsqueeze(1)
  79. this_mask = mask[:, i]
  80. this_score = score.unsqueeze(-1) + self.transfer_matrix + this_x # 当前的结果
  81. this_score = torch.logsumexp(this_score, dim=1) # label1-->(label1/label2....)维度求和
  82. score = torch.where(this_mask, this_score, score) # 该位置是True就更新为当前结果
  83. # 最后的token
  84. score = score + end_matrix
  85. score = torch.logsumexp(score, dim=1) # len_seq维度求和
  86. return score
  87. def viterbi_decode(self, x: FloatTensor, mask: BoolTensor):
  88. """
  89. 预测时,利用维特比算法进行解码,获取到预测的标签序列
  90. :param x: 特征序列(通常是经过RNN等模型提取到的特征张量)
  91. :param mask: 填充符掩码(特征序列里含有填充符<pad>,对应的标签也有)
  92. :return: 标签结果[tensor(标签值), tensor(标签值)]
  93. """
  94. batch_size, len_seq, _ = x.size()
  95. # 用维特比算法筛选最大的得分路径
  96. # 将维度都拓展成(batch_size, num_labels, num_labels)
  97. start_matrix = self.start_matrix.unsqueeze(0).expand(batch_size, self.num_labels)
  98. x_0 = x[:, 0] # 序列第一个标签
  99. score = [start_matrix + x_0] # 记录维特比计算的得分
  100. path = [] # 记录维特比路径最大的id
  101. for i in range(1, len_seq):
  102. # 获取当前时刻的标签
  103. x_i = x[:, i].unsqueeze(1)
  104. # 对应路径的得分求和
  105. this_score = score[i-1].unsqueeze(-1) + self.transfer_matrix + x_i
  106. # 获取上个时刻标签分别到当前时刻标签得分的最大值和标签id(当前同一标签里的路径对比,不同的不比)
  107. # 例如有标签:1、2。获取上个时刻1与2里到当前时刻1(或2)得分的最大值和id,
  108. # 所以结果形状为(batch_size,num_labels)
  109. last_score, last_path = this_score.max(1)
  110. score.append(last_score) # 将更新后的得分添加到列表,用于下一个时刻的相加对比
  111. path.append(last_path)
  112. # 对筛选出来的得分路径进行解码
  113. effective_length = mask.sum(dim=1).squeeze(0) # 获取有效序列的长度(去除掩码部分)
  114. new_path = []
  115. _, max_index = score[-1].max(1) # 从最后一个筛选结果里进一步获取最好的结果
  116. # 将结果添加进去(从后面解码,结果是倒序的)
  117. new_path.append(max_index.tolist())
  118. for i in range(len(path)):
  119. rear_path = path[-1-i] # 倒数第i个序列的标签集
  120. batch_id = torch.arange(batch_size)
  121. max_index = rear_path[batch_id, max_index] # 根据结果索引max_index查找上一个最好的标签索引
  122. new_path.append(max_index.tolist())
  123. new_path = torch.tensor(new_path).T
  124. new_path = torch.flip(new_path, [1]).tolist() # 因为结果是倒序的,所以将每一行元素再进行倒序
  125. new_path = [new_path[i][:effective_length[i]] for i in range(batch_size)] # 只取有效序列部分
  126. return new_path
  127. if __name__ == '__main__':
  128. labels = ['a', 'b', 'c']
  129. X = torch.FloatTensor([[[0.1, 0.2, 0.8], [0.3, 0.8, 0.3], [0.5, 0.6, 0.3]],
  130. [[0.3, 0.2, 0.5], [0.3, 0.2, 0.8], [0.9, 0.1, 0.6]],
  131. [[0.7, 0.8, 0.8], [0.9, 0.1, 0.8], [0.2, 0.3, 0.6]]])
  132. Y = torch.LongTensor([[0, 1, 1],
  133. [2, 0, 1],
  134. [0, 2, 1]])
  135. Mask = torch.LongTensor([[1, 1, 1],
  136. [1, 1, 0],
  137. [1, 1, 1]])
  138. crf = CRF(len(labels))
  139. Loss = crf.forward(X, Y, Mask.byte())
  140. label = crf.viterbi_decode(X, Mask.byte())
  141. print(Loss)
  142. print(label)

维特比算法:是一种动态规划方法,通俗理解就是在前面时刻找到的最佳路径一定包含在后面时刻找到的最佳路径之中(这个最佳路径不是一个,而是多批路径之中,每一批的最佳路径,最后结合全局从多批里选最佳的一批),具体过程看例子:

如上图所示:

1、根据指向的节点对路径分批:从input1到input2共有九条路径,根据指向input2的标签label1、label2、label3分批,每一批都是黑红蓝共三条。

2、在每一批里选出最佳路径:这样就知道分别指向label1、label2、label3的路径里哪条最好,因为不知道最后选择的标签状态是什么,所以用递推方式分别先选出当前三个标签状态的最优路径。2、从最后3个标签状态选择最佳的标签:根据以上理论推完input3后,只剩下三条指向结束的路径,也就是要从三个标签选最优的标签,定下最优标签后往回查找便能找的最佳路径。

例如:1、input1->input2中:label1的三条路径里最优路径是label2——>label1;

                                               label2的最优路径是label——>label2;

                                               label3的最优路径是label3——>label3;

           2、input2->input3中:label1的最优路径是label3——>label1;

                                               label2的最优路径是label3——>label2;

                                               label3的最优路径是label1——>label3;

           3、input3->结束中:三个标签里最优的标签是label2,往回找input2->input3的最优标签是label3,同理input1->input2是label3,所以最优标签状态就是label3、label3、label2)。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/592389
推荐阅读
相关标签
  

闽ICP备14008679号