当前位置:   article > 正文

lstm中look_back的大小选择_使用PyTorch手写代码从头构建LSTM,更深度的理解其工作原理

lstm怎么选择betch的大小

这是一个造轮子的过程,但是从头构建LSTM能够使我们对体系结构进行更加了解,并将我们的研究带入下一个层次。

LSTM单元是递归神经网络深度学习研究领域中最有趣的结构之一:它不仅使模型能够从长序列中学习,而且还为长、短期记忆创建了一个数值抽象,可以在需要时相互替换。

2b3d7f9ef9973079cbecac8eaa859b4d.png

在这篇文章中,我们不仅将介绍LSTM单元的体系结构,还将通过PyTorch手工实现它。

最后但最不重要的是,我们将展示如何对我们的实现做一些小的调整,以实现一些新的想法,这些想法确实出现在LSTM研究领域,如peephole。

LSTM体系结构

LSTM被称为门结构:一些数学运算的组合,这些运算使信息流动或从计算图的那里保留下来。因此,它能够"决定"其长期和短期记忆,并输出对序列数据的可靠预测:

4db7f75c32f805ba603f076516801918.png

LSTM单元中的预测序列。注意,它不仅会传递预测值,而且还会传递一个c,c是长期记忆的代表

遗忘门

遗忘门(forget gate)是输入信息与候选者一起操作的门,作为长期记忆。请注意,在输入、隐藏状态和偏差的第一个线性组合上,应用一个sigmoid函数:

7d43fc1d2832e4d0b5a6673032f3288d.png

sigmoid将遗忘门的输出"缩放"到0-1之间,然后,通过将其与候选者相乘,我们可以将其设置为0,表示长期记忆中的"遗忘",或者将其设置为更大的数字,表示我们从长期记忆中记住的"多少"。

新型长时记忆的输入门及其解决方案

输入门是将包含在输入和隐藏状态中的信息组合起来,然后与候选和部分候选c''u t一起操作的地方:

9e9bbf123ff7412623929463df644529.png

在这些操作中,决定了多少新信息将被引入到内存中,如何改变——这就是为什么我们使用tanh函数(从-1到1)。我们将短期记忆和长期记忆中的部分候选组合起来,并将其设置为候选。

单元的输出门和隐藏状态(输出)

之后,我们可以收集ot作为LSTM单元的输出门,然后将其乘以候选单元(长期存储器)的tanh,后者已经用正确的操作进行了更新。网络输出为ht。

09c65d25fb5a541a2a0a484027d5010f.png

LSTM单元方程

3edfc6ff25ca09c653c846af88dc1482.png

PyTorch上实现

import mathimport torchimport torch.nn as nn

我们现在将通过继承nn.Module,然后还将引用其参数和权重初始化,如下所示(请注意,其形状由网络的输入大小和输出大小决定):

class NaiveCustomLSTM(nn.Module):    def __init__(self, input_sz: int, hidden_sz: int):        super().__init__()        self.input_size = input_sz        self.hidden_size = hidden_sz                #i_t        self.U_i = nn.Parameter(torch.Tensor(input_sz, hidden_sz))        self.V_i = nn.Parameter(torch.Tensor(hidden_sz, hidden_sz))        self.b_i = nn.Parameter(torch.Tensor(hidden_sz))                #f_t        self.U_f = nn.Parameter(torch.Tensor(input_sz, hidden_sz))        self.V_f = nn.Parameter(torch.Tensor(hidden_sz, hidden_sz))        self.b_f = nn.Parameter(torch.Tensor(hidden_sz))                #c_t        self.U_c = nn.Parameter(torch.Tensor(input_sz, hidden_sz))        self.V_c = nn.Parameter(torch.Tensor(hidden_sz, hidden_sz))        self.b_c = nn.Parameter(torch.Tensor(hidden_sz))                #o_t        self.U_o = nn.Parameter(torch.Tensor(input_sz, hidden_sz))        self.V_o = nn.Parameter(torch.Tensor(hidden_sz, hidden_sz))        self.b_o = nn.Parameter(torch.Tensor(hidden_sz))                self.init_weights()

要了解每个操作的形状,请看:

矩阵的输入形状是(批量大小、序列长度、特征长度),因此将序列的每个元素相乘的权重矩阵必须具有该形状(特征长度、输出长度)。

序列上每个元素的隐藏状态(也称为输出)都具有形状(批大小、输出大小),这将在序列处理结束时产生输出形状(批大小、序列长度、输出大小)。-因此,将其相乘的权重矩阵必须具有与单元格的参数hiddensz相对应的形状(outputsize,output_size)。

这里是权重初始化,我们将其用作PyTorch默认值中的权重初始化nn.Module:

def init_weights(self):        stdv = 1.0 / math.sqrt(self.hidden_size)        for weight in self.parameters():            weight.data.uniform_(-stdv, stdv)

前馈操作

前馈操作接收initstates参数,该参数是上面方程的(ht,ct)参数的元组,如果不引入,则设置为零。然后,我们对每个保留(ht,c_t)的序列元素执行LSTM方程的前馈,并将其作为序列下一个元素的状态引入。

最后,我们返回预测和最后一个状态元组。让我们看看它是如何发生的:

def forward(self,x,init_states=None):                """        assumes x.shape represents (batch_size, sequence_size, input_size)        """        bs, seq_sz, _ = x.size()        hidden_seq = []                if init_states is None:            h_t, c_t = (                torch.zeros(bs, self.hidden_size).to(x.device),                torch.zeros(bs, self.hidden_size).to(x.device),            )        else:            h_t, c_t = init_states                    for t in range(seq_sz):            x_t = x[:, t, :]                        i_t = torch.sigmoid(x_t @ self.U_i + h_t @ self.V_i + self.b_i)            f_t = torch.sigmoid(x_t @ self.U_f + h_t @ self.V_f + self.b_f)            g_t = torch.tanh(x_t @ self.U_c + h_t @ self.V_c + self.b_c)            o_t = torch.sigmoid(x_t @ self.U_o + h_t @ self.V_o + self.b_o)            c_t = f_t * c_t + i_t * g_t            h_t = o_t * torch.tanh(c_t)                        hidden_seq.append(h_t.unsqueeze(0))                #reshape hidden_seq p/ retornar        hidden_seq = torch.cat(hidden_seq, dim=0)        hidden_seq = hidden_seq.transpose(0, 1).contiguous()        return hidden_seq, (h_t, c_t)

优化版本

这个LSTM在运算上是正确的,但在计算时间上没有进行优化:我们分别执行8个矩阵乘法,这比矢量化的方式慢得多。我们现在将演示如何通过将其减少到2个矩阵乘法来完成,这将使它更快。

为此,我们设置了两个矩阵U和V,它们的权重包含在4个矩阵乘法上。然后,我们对已经通过线性组合+偏置操作的矩阵执行选通操作。

通过矢量化操作,LSTM单元的方程式为:

ebf2e9783be352cd58b318214c8706a6.png
class CustomLSTM(nn.Module):    def __init__(self, input_sz, hidden_sz):        super().__init__()        self.input_sz = input_sz        self.hidden_size = hidden_sz        self.W = nn.Parameter(torch.Tensor(input_sz, hidden_sz * 4))        self.U = nn.Parameter(torch.Tensor(hidden_sz, hidden_sz * 4))        self.bias = nn.Parameter(torch.Tensor(hidden_sz * 4))        self.init_weights()                    def init_weights(self):        stdv = 1.0 / math.sqrt(self.hidden_size)        for weight in self.parameters():            weight.data.uniform_(-stdv, stdv)             def forward(self, x,                 init_states=None):        """Assumes x is of shape (batch, sequence, feature)"""        bs, seq_sz, _ = x.size()        hidden_seq = []        if init_states is None:            h_t, c_t = (torch.zeros(bs, self.hidden_size).to(x.device),                         torch.zeros(bs, self.hidden_size).to(x.device))        else:            h_t, c_t = init_states                 HS = self.hidden_size        for t in range(seq_sz):            x_t = x[:, t, :]            # batch the computations into a single matrix multiplication            gates = x_t @ self.W + h_t @ self.U + self.bias            i_t, f_t, g_t, o_t = (                torch.sigmoid(gates[:, :HS]), # input                torch.sigmoid(gates[:, HS:HS*2]), # forget                torch.tanh(gates[:, HS*2:HS*3]),                torch.sigmoid(gates[:, HS*3:]), # output            )            c_t = f_t * c_t + i_t * g_t            h_t = o_t * torch.tanh(c_t)            hidden_seq.append(h_t.unsqueeze(0))        hidden_seq = torch.cat(hidden_seq, dim=0)        # reshape from shape (sequence, batch, feature) to (batch, sequence, feature)        hidden_seq = hidden_seq.transpose(0, 1).contiguous()        return hidden_seq, (h_t, c_t)

最后但并非最不重要的是,我们可以展示如何优化,以使用LSTM peephole connections。

LSTM peephole

LSTM peephole对其前馈操作进行了细微调整,从而将其更改为优化的情况:

fdb000ce017c0f87c8b5281bfd54edbf.png

如果LSTM实现得很好并经过优化,我们可以添加peephole选项,并对其进行一些小的调整:

class CustomLSTM(nn.Module):    def __init__(self, input_sz, hidden_sz, peephole=False):        super().__init__()        self.input_sz = input_sz        self.hidden_size = hidden_sz        self.peephole = peephole        self.W = nn.Parameter(torch.Tensor(input_sz, hidden_sz * 4))        self.U = nn.Parameter(torch.Tensor(hidden_sz, hidden_sz * 4))        self.bias = nn.Parameter(torch.Tensor(hidden_sz * 4))        self.init_weights()                    def init_weights(self):        stdv = 1.0 / math.sqrt(self.hidden_size)        for weight in self.parameters():            weight.data.uniform_(-stdv, stdv)             def forward(self, x,                 init_states=None):        """Assumes x is of shape (batch, sequence, feature)"""        bs, seq_sz, _ = x.size()        hidden_seq = []        if init_states is None:            h_t, c_t = (torch.zeros(bs, self.hidden_size).to(x.device),                         torch.zeros(bs, self.hidden_size).to(x.device))        else:            h_t, c_t = init_states                 HS = self.hidden_size        for t in range(seq_sz):            x_t = x[:, t, :]            # batch the computations into a single matrix multiplication                        if self.peephole:                gates = x_t @ U + c_t @ V + bias            else:                gates = x_t @ U + h_t @ V + bias                g_t = torch.tanh(gates[:, HS*2:HS*3])                        i_t, f_t, o_t = (                torch.sigmoid(gates[:, :HS]), # input                torch.sigmoid(gates[:, HS:HS*2]), # forget                torch.sigmoid(gates[:, HS*3:]), # output            )                        if self.peephole:                c_t = f_t * c_t + i_t * torch.sigmoid(x_t @ U + bias)[:, HS*2:HS*3]                h_t = torch.tanh(o_t * c_t)            else:                c_t = f_t * c_t + i_t * g_t                h_t = o_t * torch.tanh(c_t)                            hidden_seq.append(h_t.unsqueeze(0))                    hidden_seq = torch.cat(hidden_seq, dim=0)        # reshape from shape (sequence, batch, feature) to (batch, sequence, feature)        hidden_seq = hidden_seq.transpose(0, 1).contiguous()                return hidden_seq, (h_t, c_t)

我们的LSTM就这样结束了。如果有兴趣大家可以将他与torch LSTM内置层进行比较。

代码github地址:piEsposito/pytorch-lstm-by-hand

作者:Piero Esposito

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/631912
推荐阅读
相关标签
  

闽ICP备14008679号