赞
踩
在训练循环神经网络RNN中,往往使用BPTT(Backpropagation Through Time)更新参数。关于BPTT的详细原理可以参考https://www.cntofu.com/book/85/dl/rnn/bptt.md
然而使用BPTT,对于单个参数的更新可能会带来很大的开销。例如对长度为1000的输入序列进行反向传播,其代价相当于1000层的神经网络进行前向后向传播。有两个方法对付这种庞大的开销问题:
TBPTT需要考虑两个参数:
参考Williams and Peng, An Efficient Gradient-Based Algorithm for On-Line Training of Recurrent Network Trajectories, 1990 确定k1,k2的取值(TBPTT(k1,k2))
这里,n代表序列的总长度。
参考资料:
https://machinelearningmastery.com/gentle-introduction-backpropagation-time/
https://www.cnblogs.com/shiyublog/p/10542682.html#_label2
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。