torch.nn - PyTorch中文文档 (pytorch-cn.readthedocs.io)
LSTM — PyTorch 2.3 documentation
LSTM层:长短时记忆网络层,它的主要作用是对输入序列进行处理,对序列中的每个元素进行编码并保存它们的状态,以便后续的处理。
LSTM 是一种特殊的 RNN,它通过引入门控机制来解决传统 RNN 的长期依赖问题。
我们假设:h为LSTM单元的隐藏层输出,c为LSTM内存单元的值,x为输入数据。

LSTM 的结构包含以下几个关键组件:
1、输入门(input gate):决定当前时间步的输入信息对细胞状态的影响程度。
2、遗忘门(forgetgate):决定上一个时间步的细胞状态对当前时间步的影响程度。
3、细胞状态(cell state):用于在不同时间步之间传递和存储信息。
4、输出门(output gate):决定细胞状态对当前时间步的输出影响程度。
5、隐藏状态(hiddenstate):当前时间步的输出,也是下一个时间步的输入。
对输入序列的每个元素,LSTM的每层都会执行以下计算:

h_t是时刻t的隐状态,
c_t是时刻t的细胞状态,
x_t是上一层的在时刻t的隐状态或者是第一层在时刻t的输入。
i_t, f_t, g_t, o_t分别代表 输入门,遗忘门,细胞和输出门。
torch.nn.LSTM(input_size, hidden_size, num_layers=1, bias=True, batch_first=False, dropout=0.0, bidirectional=False, proj_size=0, device=None, dtype=None)
x的特征数量。tanh还是relu。默认是tanh。Tensor的shape应该是[batch_size, time_step, feature],输出也是这样。默认是 False,就是这样形式,(seq(num_step), batch, input_dim),也就是将序列长度放在第一位,batch 放在第二位dropout层。tensor。batch中每个元素的初始化隐状态的Tensor。其中num_layers就是LSTM的层数。如果bidirectional=True,num_directions=2,否则就是1,表示只有一个方向。c_0 是shape=(num_layers*num_directions,batch_size,hidden_size)的张量, 保存着batch中每个元素的初始化细胞状态的Tensor。h_0,c_0如果不提供,那么默认是0。
Tensor。Tensor,保存着LSTM最后一个时间步的隐状态。Tensor,保存着LSTM最后一个时间步的细胞状态。LSTM模型参数:LSTM — PyTorch 2.3 documentation
MATLAB神经网络---lstmLayer(LSTM 长短期记忆神经网络)-CSDN博客