博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
LSTM神经网络走读
阅读量:6536 次
发布时间:2019-06-24

本文共 930 字,大约阅读时间需要 3 分钟。

 
0设计概述
RNN梯度爆炸和消失比较严重,RNN隐层只有一个状态h记录短期记忆,增加一个长期记忆状态c似乎就可以解决问题。
按时间维度展开
 
如何控制长期状态c,设计:增加三个开关,控制是否记录前一时刻的长期状态,是否把当前输入记录为长期状态单元 ,是否把当长期状态输出。
 
1前向计算
输入:前一个时刻的状态单元Ct-1,前一时刻的输出Ht-1,当前时刻的输入Xt;
输出:当前时刻的状态单元Ct,当前时刻的最终输出Ht。
1.1遗忘门:上一时刻的状态单元有多少保留到当前时刻
 
 
1.2输入门:当前时刻输入x有多少保留到状态单元 
 
 
1.3当前输入的状态单元 :
 
1.4计算当前时刻状态单元 :
遗忘门*前一时刻状态单元 +输入门*当前输入状态
 
-------------------------------------------------------------------------------------------------------
1.5
输出门:控制当前时刻状态单元 对当前输出有多少影响
 
1.6 最终输出:由状态单元和输出门共同决定
 
 
2训练
原理与bp同,每个神经元多了五个参数f,i,c,o,h:
 
LSTM需要学习的参数总共有八组:输入门,遗忘门,输出门和状态单元的权重矩阵W和偏置b
像bp一样,借助netj,不过这里是三个门的netj:
梯度为
其中netj为
2.1沿时间维度:
计算t-1时刻的梯度(第一项是t时刻的梯度),主要计算第二项:
由LSTM公式:
 
由全导数公式:
 
可拆开项,求得
 
带入求得:
 
 
带入求得由t时刻传递任意k时刻的误差:
 
2.2沿上一层:
l层与l-1层的梯度关系:
全导数公式:
 
具体过程是分开每项计算:
计算W:
  计算偏置b
 
 
 
 
3GRU (Gated Recurrent Unit)
相对于LSTM,有两个改动:
     1把遗忘门,输入门和输出门改为两个门:更新门z和重置门r;
     2将单元状态和输出改为一个状态:h
 
 
备注:
激活函数tanh和sigmoid的导函数都是原函数的函数:
 
 
 
参考:相关网络博客及文献

 

转载于:https://www.cnblogs.com/rongyux/p/6716105.html

你可能感兴趣的文章
《Python游戏编程快速上手》一1.3 如何使用本书
查看>>
《Visual Studio程序员箴言》----1.2 滚动与导航
查看>>
Processing编程学习指南2.7 Processing参考文档
查看>>
架构师速成-架构目标之伸缩性\安全性
查看>>
linux下ExtMail邮件使用及管理平台
查看>>
linux中iptables设置自建dns服务器的端口
查看>>
Master-work模式
查看>>
RT-Thread--时间管理
查看>>
BUPT 63T 高才生 找最佳基站
查看>>
linux 学习(二)防火墙
查看>>
android - SpannableString或SpannableStringBuilder以及string.xml文件中的整型和string型代替...
查看>>
三端稳压器各个参数解释
查看>>
算法(Algorithms)第4版 练习 1.3.14
查看>>
内部类
查看>>
高速数论变换(NTT)
查看>>
Springmvc的跳转方式
查看>>
加密原理介绍,代码实现DES、AES、RSA、Base64、MD5
查看>>
LINUX中常用操作命令
查看>>
python 获取进程pid号
查看>>
洛谷.4180.[模板]次小生成树Tree(Kruskal LCA 倍增)
查看>>