GRU(Gated Recurrent Unit)也称门控循环单元结构, 它也是传统RNN的变体, 同LSTM一样能够有效捕捉长序列之间的语义关联, 缓解梯度消失或爆炸现象. 同时它的结构和计算要比LSTM更简单, 它的核心结构可以分为两个部分去解析:
有了前面RNN和LSTM模型的理解,对于GRU的结构认知理解就简单多了。 当Zt=1,表示完全使用本次隐藏层信息 当Zt=0,表示完全使用上一个隐藏层信息
结构解释图:
京公网安备 11010502049817号