赞
踩
目录
本文是作者自学深度学习的第9篇章(学习资料为李沐老师的深度学习课程),主要对GRU模型中的一些基本概念,如更新门、重置门以及GRU的网络架构进行了整理和归纳。
在GRU模型中引入了更新门和重置门两个控制单元,其中,重置门允许我们控制“可能还想记住”的过去状态的数量; 更新门将允许我们控制新状态中有多少个是旧状态的副本。
值得注意的是,重置门使用了sigmoid作为激活函数将输出映射到 [0,1] 实现 “软” 控制。具体而言,GRU使用下式来计算两个门:
其中, 的大小和隐藏层单元大小一样,因此后续我们可以将其与隐藏层单元按元素相乘。
为了实现重置门的控制效果,我们定义了 “候选隐状态” 这一概念,具体而言:
其中, 表示按元素相乘,可见, 控制了候选隐状态被之前隐状态的影响程度,当中的元素为0时,表示将隐状态“重置”。
为了实现更新门的控制效果,我们使用下式对隐状态进行更新:
可见若 元素为1,表示当前隐状态为前1隐状态的副本, 元素为0, 表示当前原状态更新为候选隐藏状态。
GRU网络的典型架构如下:
其计算步骤为:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。