欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 社会 > 论文解读(21)- RNN,LSTM,GRU

论文解读(21)- RNN,LSTM,GRU

2025/1/3 2:48:16 来源:https://blog.csdn.net/weixin_63767221/article/details/143680475  浏览:    关键词:论文解读(21)- RNN,LSTM,GRU

这次是来好好系统回顾一下这些经典的模型算法

参考:
人人都能看懂的LSTM - 知乎
史上最详细循环神经网络讲解(RNN/LSTM/GRU) - 知乎
LSTM从入门到精通(形象的图解,详细的代码和注释,完美的数学推导过程)_lstm模型-CSDN博客

1. RNN

循环神经网络(Recurrent Neural Network,RNN)是一种用于处理序列数据的神经网络。
(比如,理解单词在句子中的上下文)

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 相当于存在了一个会变化的状态
    在这里插入图片描述

主要缺点:
1)长期依赖问题导致的梯度消失:如果我们的句子很长,他在第1000个记忆细胞还能记住并很好的利用第1个细胞的记忆状态吗?答案显然是否定的
2)梯度爆炸:
推导公式:
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • L是损失
    (真的很详细,建议回头手推一次)

2. LSTM

  • 长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。
  • 就是在长序列上有更好的表现
    在这里插入图片描述

LSTM有了Memory Cell和Forget Gate:
在这里插入图片描述

三个门:

  1. Input Gate:中文是输入门,在每一时刻从输入层输入的信息会首先经过输入门,输入门的开关会决定这一时刻是否会有信息输入到Memory Cell。
  2. Output Gate:中文是输出门,每一时刻是否有信息从Memory Cell输出取决于这一道门。
  3. Forget Gate:中文是遗忘门,每一时刻Memory Cell里的值都会经历一个是否被遗忘的过程,就是由该门控制的,如果打卡,那么将会把Memory Cell里的值清除,也就是遗忘掉。

3. GRU

推荐视频:
【重温经典】GRU循环神经网络 —— LSTM的轻量级版本,大白话讲解_哔哩哔哩_bilibili

在这里插入图片描述

具有了记忆和遗忘的功能

优点:参数量少

在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com