当前位置:   article > 正文

命名实体识别实践(bert+微调)_命名识别识别bert微调

命名识别识别bert微调
任务场景

bert刷新了各大记录,在这里就不多介绍了,是一个非常好的预训练模型,我们只需要根据后续任务进行微调,本文采用bert+微调的方式实现了一版NER。

    def biuildModel(self):

        input_ids = layers.Input(shape=(self.max_seq_len,))
        input_mask = layers.Input(shape=(self.max_seq_len,))
        input_type_ids = layers.Input(shape=(self.max_seq_len,))

        embeding = b_embeding_layer(max_seq_len=self.max_seq_len)([input_ids,input_mask,input_type_ids])

        lstm_encode = layers.Bidirectional(layers.LSTM(units=unit_len, return_sequences=True))(embeding)
        dense1 = layers.TimeDistributed(layers.Dense(dense_len, activation="tanh"))(lstm_encode)
        dense1 = layers.Dropout(0.05)(dense1)
       
        crf = CRF(self.class_num, sparse_target=False)

        crf_res = crf(dense1)
        model = Model(inputs=[input_ids, input_mask, input_type_ids], outputs=[crf_res])
        adam = Adam(lr=0.001)
        model.compile(optimizer=adam, loss=crf.loss_function, metrics=[crf.accuracy])
        print(model.summary())

        return model

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

由于是个相对新一点的模型,在这里放一下模型的结构:
在这里插入图片描述

结果:

效果确实比原来提升不少,哈哈。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/367431
推荐阅读
相关标签
  

闽ICP备14008679号