赞
踩
通过对matlab2018b的帮助学习,对着帮助进行代码练习和学习,得到几点体会:
一单双向LSTM
bilstmLayer(numHiddenUnits,‘OutputMode’,‘last’)%双向LSTM
lstmLayer(numHiddenUnits) %单向LSTM
回归问题用双向的LSTM效果更差,而分类问题用双向要好一点。
二’OutputMode’是’last’还是’sequence’
无论是回归还是分类问题,最后全连接层后面是一个值,用last,后面是一系列值,用sequence
三因为都是单CPU或者GPU跑,感觉速度差异性并不大。
四多层LSTM比单层并没有很显著的提高识别和预测精度,尤其是预测方面。
五对于drop out处理,放在哪个层后都行,LSTM 全连接层后都行,都是为了防过拟合。
六Lstm出来直接softmax 和加个全连接层Dense之后再softmax都行,后者更好一丢丢。
七 可以增加验证集部分,比如取百分之30,这样也能防止过拟合。
ps:matlab ctrl+delete 是删除整行内容;ctrl+r是注释;ctrl+t是取消注释
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。