当前位置:   article > 正文

lstm模型_双向LSTM+Attention文本分类模型(附pytorch代码)

lstm 导入带有attention的h5模型

518c43700b162fd8d46752ded37688cb.png

深度学习里的Attention模型其实模拟的是人脑的注意力模型。举个例子来说,当我们阅读一段话时,虽然我们可以看到整句话,但是在我们深入仔细地观察时,其实眼睛聚焦的就只有很少的几个词,也就是说这个时候人脑对整句话的关注并不是均衡的,是有一定的权重区分的。这就是深度学习里的Attention Model的核心思想。具体的可以去阅读Attention模型的论文。

使用Attention模型进行文本分类,可以借助传统的LSTM。双向LSTM+Attention模型如下图:

a72c2b2fdacc7a4f25b2cfbca657f3c3.png

我将具体的代码放在了我的github,欢迎大家下载:

u784799i/biLSTM_attn​github.com
11c8aa35ebd147e850d38e07c1cbb962.png

代码中的训练和测试数据一共有6000多条ÿ

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/527733
推荐阅读
相关标签
  

闽ICP备14008679号