RNN背后的数学原理是什么

发布时间:2021-12-03 15:41:37 作者:柒染
来源:亿速云 阅读:209

RNN背后的数学原理是什么,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

RNN背后的数学原理是什么  
 

0引言

现在,关于机器学习、深度学习和人工神经网络的讨论越来越多了。但程序员往往只想把这些魔幻的框架用起来,大多并不想知道背后到底是如何运作的。但是如果我们能够掌握这些背后的原理,对于使用起来岂不更好。今天我们就来讨论下循环神经网络及其背后的基本数学原理,这些原理使得循环神经网络能够做到其他神经网络做不到的事情。
RNN背后的数学原理是什么  
〄 RNN (循环神经网络)。  

这篇文章的目的是对循环神经网络的功能、结构提供一个直观的认识。

一个神经网络通常取自变量(或一组自变量)和因变量,然后它学习之间的映射(我们称之为训练),一旦训练完成,当给定一个新的自变量,就能预测相应的因变量。

但如果数据的顺序很重要呢?想象一下,如果所有自变量的顺序都很重要呢?

让我来直观地解释一下吧。

RNN背后的数学原理是什么  

只要假设每个蚂蚁是一个独立变量,如果一个蚂蚁朝着不同的方向前进,对其他蚂蚁来说都没关系,对吧?但是,如果蚂蚁的顺序很重要怎么办?

RNN背后的数学原理是什么  

此时,如果一只蚂蚁错过或者离开了群体,它将会影响到后面的蚂蚁。

那么,在机器学习空间中,哪些数据的顺序是重要的呢?

那么 RNN 是如何解决整体顺序很重要的数据呢?我们用自然文本数据为例来解释 RNN。

假设我正在对一部电影的用户评论进行情感分析。

这部电影好(This movie is good) — 正面的,再到这部电影差(This movie is bad) — 负面的。

我们可以通过使用简单的词汇袋模型对它们进行分类,我们可以预测(正面的或负面的),但是等等。

如果影评是这部电影不好(This movie is not good),怎么办?

BOW 模型可能会说这是一个积极的信号,但实际上并非如此。而 RNN 理解它,并预测它是消极的信息。

 

1RNN 如何做到的呢?

 

1各类 RNN 模型

1、一对多

RNN 接受一个输入,比如一张图像,并生成一个单词序列。

RNN背后的数学原理是什么  

2、多对一

RNN 接受一个单词序列作为输入,并生成一个输出。

RNN背后的数学原理是什么  

3、多对多

RNN背后的数学原理是什么  

接下来,我们正专注于第二种模式多对一。RNN 的输入被视为时间步长。

示例: 输入(X) = [" this ", " movie ", " is ", " good "]

this 的时间戳是 x(0),movie 的是 x(1),is 的是 x(2),good 的是 x(3)。

 

2网络架构及数学公式

下面让我们深入到 RNN 的数学世界。

首先,让我们了解 RNN 单元格包含什么!我希望并且假设大家知道前馈神经网络,FFNN 的概括,

RNN背后的数学原理是什么

〄 隐藏层只有单一神经元的前馈神经网络示例。
RNN背后的数学原理是什么  
〄 具有单一隐藏层的前馈神经网络。

在前馈神经网络中,我们有 X(输入)、H(隐藏)和 Y(输出)。我们可以有任意多的隐藏层,但是每个隐藏层的权值 W 和每个神经元对应的输入权值是不同的。

上面,我们有权值 Wy10 和 Wy11,分别对应于两个不同的层相对于输出 Y 的权值,而 Wh00、Wh01 等代表了不同神经元相对于输入的不同权值。

由于存在时间步长,神经网络单元包含一组前馈神经网络。该神经网络具有顺序输入、顺序输出、多时间步长和多隐藏层的特点。

与 FFNN 不同的是,这里我们不仅从输入值计算隐藏层值,还从之前的时间步长值计算隐藏层值。对于时间步长,隐藏层的权值(W)是相同的。下面展示的是 RNN 以及它涉及的数学公式的完整图片。

RNN背后的数学原理是什么  

在图片中,我们正在计算隐藏层的时间步长 t 的值:

RNN背后的数学原理是什么  
〄 不同的激活函数。

上面我们只计算了 Ht,类似地,我们可以计算所有其他的时间步长。

步骤:

需要注意的是:

一旦前馈输入完成,我们就需要计算误差并使用反向传播法来反向传播误差,我们使用交叉熵作为代价函数。

 

2BPTT(时间反向传播)

如果你知道正常的神经网络是如何工作的,剩下的就很简单了,如果不清楚,可以参考本号前面关于人工神经网络的文章。

我们需要计算下面各项,

因为 W 对于所有的时间步长都是一样的,我们需要返回到前面,来进行更新。

RNN背后的数学原理是什么

〄 RNN 中的 BPTT。

记住 RNN 的反向传播和人工神经网络的反向传播是一样的,但是这里的当前时间步长是基于之前的时间步长计算的,所以我们必须从头到尾遍历来回。

如果我们运用链式法则,就像这样

RNN背后的数学原理是什么  
〄 反向传播链式法则。

在所有时间步长上的 W 都相同,因此按链式法则展开项越来越多。

在 Richard Sochers 的循环神经网络讲座幻灯片[1]中,可以看到一种类似但不同的计算公式的方法。

      

所以这里,与我们的相同。

可以用任何优化算法来更新,比如梯度下降法。

 

2回到实例

现在我们回过头来谈谈我们的情感分析问题,这里有一个 RNN,

RNN背后的数学原理是什么  

我们给每个单词提供一个词向量或者一个热编码向量作为输入,并进行前馈和 BPTT,一旦训练完成,我们就可以给出新的文本来进行预测。它会学到一些东西,比如不+积极的词 = 消极的

RNN 的问题 → 消失/爆炸梯度问题

由于 W 对于所有的时间步长都是一样的,在反向传播过程中,当我们回去调整权重时,信号会变得要么太弱要么太强,从而导致要么消失要么爆炸的问题。

关于RNN背后的数学原理是什么问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。

推荐阅读:
  1. EM算法的数学原理
  2. RSA算法及其数学原理 证明

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

rnn

上一篇:ADO.NET连接池有什么用

下一篇:ADO.NET事务处理方法有哪些

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》