🇨🇳
阿臻的学习笔记
  • 🤖AI
    • 📑README
    • 🕒Scheduling
      • 一种JSSP的DRL环境
    • 📜Paper
      • 神经协同过滤
      • 非侵入信号深度学习
      • 肾透析移植机器学习
      • 心理学随机森林
      • P300数据学习
    • ⚒️Pytorch
      • 1.1数据基础
      • 1.2自动梯度
      • 1.3神经网络
      • 1.4模型实现
      • 2数据操作
    • 🛠️Ray+Gym
    • 📃Graph Neural
      • 图神经网络基础
      • Contrastive Multi-View Representation Learning on Graphs
    • 📽️Deep Learning
      • 《第一章》
      • 《第二章》
      • 《第三章》
      • 《第四章》
      • 台湾陈蕴侬视频2020
    • 🔨MXNet
      • 《第一章》《第二章》
      • 《第三章》
      • 《第四章》
      • 《第五章》
      • 《第六章》
      • 《第七章》
      • 《第八章》
      • 《第九章》
      • 《第十章》
  • 👨‍🏭Study
    • 📔Algorithm
      • Leetcode
        • 第一天(乱刷)
        • 第二天(栈)
        • 第三天(栈)
        • 第四天(堆)(贪心)
        • 第五天(贪心)
        • 第六天(贪心)
        • 第七天(排序)
        • 第八天(排序)
        • 第九天(排序)
        • 第十天(位运算)
        • 第十一天(位运算)
        • 第十二天(位运算)
        • 第十三天(位运算)
        • 第十四天(树)
        • 第十五天(树)
        • 第十六天(树)
        • 第十七天(树)
        • 第十八天(树)
        • 第十九天(树)
        • 第二十天(树)
        • 第二十一天(树)
        • 第二十二天(并查集)
        • 第二十三天(并查集)
        • 第二十四天(DFS)(图)
        • 第二十五天(图)(设计)
        • 第二十六天(拓扑)
        • 第二十七天(字典树)
        • 第二十八天(字典树)
        • 第二十九天(树状数组)(二叉搜索树)
        • 第三十天(递归)
        • 第三十一天(脑筋急转弯)
        • 第三十二天(脑筋急转弯)
        • 第三十三天(记忆化)
        • 第三十四天(队列)
        • 第三十五天(队列)
        • 第三十六天(极小化极大)
        • 第三十七天(几何)
        • 第三十八天(蓄水池抽样)
        • 第三十九天(数组)
        • 第四十天(数组)
        • 第四十一天(数组)
        • 第四十二天(数组)
        • 第四十三天(数组)
        • 第四十四天(数组)
        • 第四十五天(数组)
        • 第四十六天(数组)
      • Sort
        • 最小堆
        • 归并排序(merge_sort)
    • 📓Knowledge
      • python补码
    • 🔧Other
      • pythonic语法
      • Ubuntu备忘
由 GitBook 提供支持
在本页

这有帮助吗?

导出为 PDF
  1. AI
  2. MXNet

《第六章》

6.1语言模型

语言模型(language model)是自然语言处理的重要技术。自然语言处理中最常见的数据是文本数据。我们可以把一段自然语言文本看作一段离散的时间序列。

P(w2∣w1)P(w_2 \mid w_1)P(w2​∣w1​)

可以计算为w1,w2两词相邻的频率与w1词频的比值,因为该比值即P(w1,w2)与P(w1)之比

P(w3∣w1,w2)同理可以计算为w1、w2和w3这3个词相邻的频率与w1和w2这2个词相邻的频率的比值。

基于n−1阶马尔可夫链,我们可以将语言模型改写为:

P(w1,w2,…,wT)≈∏t=1TP(wt∣wt−(n−1),…,wt−1).P(w_1, w_2, \ldots, w_T) \approx \prod_{t=1}^T P(w_t \mid w_{t-(n-1)}, \ldots, w_{t-1}) .P(w1​,w2​,…,wT​)≈t=1∏T​P(wt​∣wt−(n−1)​,…,wt−1​).

以上也叫n元语法(n-grams),当n分别为1、2和3时,我们将其分别称作一元语法(unigram)、二元语法(bigram)和三元语法(trigram),长度为4的序列w1,w2,w3,w4在一元语法、二元语法和三元语法中的概率分别为:

P(w1,w2,w3,w4)=P(w1)P(w2)P(w3)P(w4),P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w2)P(w4∣w3),P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w2,w3).\begin{split}\begin{aligned} P(w_1, w_2, w_3, w_4) &= P(w_1) P(w_2) P(w_3) P(w_4) ,\\ P(w_1, w_2, w_3, w_4) &= P(w_1) P(w_2 \mid w_1) P(w_3 \mid w_2) P(w_4 \mid w_3) ,\\ P(w_1, w_2, w_3, w_4) &= P(w_1) P(w_2 \mid w_1) P(w_3 \mid w_1, w_2) P(w_4 \mid w_2, w_3) . \end{aligned}\end{split}P(w1​,w2​,w3​,w4​)P(w1​,w2​,w3​,w4​)P(w1​,w2​,w3​,w4​)​=P(w1​)P(w2​)P(w3​)P(w4​),=P(w1​)P(w2​∣w1​)P(w3​∣w2​)P(w4​∣w3​),=P(w1​)P(w2​∣w1​)P(w3​∣w1​,w2​)P(w4​∣w2​,w3​).​​

练习

  • 假设训练数据集中有10万个词,四元语法需要存储多少词频和多词相邻频率?

    答:

    P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w1,w2,w3).\begin{split}\begin{aligned} P(w_1, w_2, w_3, w_4) &= P(w_1) P(w_2 \mid w_1) P(w_3 \mid w_1, w_2) P(w_4 \mid w_1,w_2, w_3) . \end{aligned}\end{split}P(w1​,w2​,w3​,w4​)​=P(w1​)P(w2​∣w1​)P(w3​∣w1​,w2​)P(w4​∣w1​,w2​,w3​).​​

    10万个词一共需要存储 p(w1)…p(w100000) 共10万个词频;

    一共需要存储

    p(w1,w2)…p(w99999,w100000) 共10万-1个 二词相邻频率 p(w1,w2,w3)…p(w99998,w99999,w100000) 共10万-2个 三词相邻频率 p(w1,w2,w3,w4)…p(w99997,w99998,w99999,w100000) 共10万-3个 四词相邻频率

  • 你还能想到哪些语言模型的应用?

    答:论文翻译,推荐系统。

6.2循环神经网络

含隐藏状态(受Ht-1影响)的循环神经网络:

时间步t的隐藏变量Ht=ϕ(XtWxh+Ht−1Whh+bh).输出Ot=HtWhq+bq.时间步t的隐藏变量\boldsymbol{H}_t = \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh} + \boldsymbol{b}_h).\\ 输出\boldsymbol{O}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_q.时间步t的隐藏变量Ht​=ϕ(Xt​Wxh​+Ht−1​Whh​+bh​).输出Ot​=Ht​Whq​+bq​.

练习

  • 如果使用循环神经网络来预测一段文本序列的下一个词,输出个数应该设为多少?

    答:输入等于输出

  • 为什么循环神经网络可以表达某时间步的词基于文本序列中所有过去的词的条件概率?

    答:因为时间步t的隐藏变量H_t,一直传递给了下一个预测。

6.3语言模型数据集及处理

随机采样:

my_seq = list(range(30))
for X, Y in data_iter_random(my_seq, batch_size=2, num_steps=6):
    print('X: ', X, '\nY:', Y, '\n')
——————————————————————输出————————————————————————
X:
[[ 0.  1.  2.  3.  4.  5.]
 [18. 19. 20. 21. 22. 23.]]
<NDArray 2x6 @cpu(0)>
Y:
[[ 1.  2.  3.  4.  5.  6.]
 [19. 20. 21. 22. 23. 24.]]
<NDArray 2x6 @cpu(0)>

X:
[[ 6.  7.  8.  9. 10. 11.]
 [12. 13. 14. 15. 16. 17.]]
<NDArray 2x6 @cpu(0)>
Y:
[[ 7.  8.  9. 10. 11. 12.]
 [13. 14. 15. 16. 17. 18.]]
<NDArray 2x6 @cpu(0)>

相邻采样:

for X, Y in data_iter_consecutive(my_seq, batch_size=2, num_steps=6):
    print('X: ', X, '\nY:', Y, '\n')
——————————————————————输出————————————————————————
X:
[[ 0.  1.  2.  3.  4.  5.]
 [15. 16. 17. 18. 19. 20.]]
<NDArray 2x6 @cpu(0)>
Y:
[[ 1.  2.  3.  4.  5.  6.]
 [16. 17. 18. 19. 20. 21.]]
<NDArray 2x6 @cpu(0)>

X:
[[ 6.  7.  8.  9. 10. 11.]
 [21. 22. 23. 24. 25. 26.]]
<NDArray 2x6 @cpu(0)>
Y:
[[ 7.  8.  9. 10. 11. 12.]
 [22. 23. 24. 25. 26. 27.]]
<NDArray 2x6 @cpu(0)>

练习

  • 你还能想到哪些采样小批量时序数据的方法?

    答:倒序,按断句。

  • 如果我们希望一个序列样本是一个完整的句子,这会给小批量采样带来什么样的问题?

    答:会导致每次的批量大小不固定。

6.4循环神经网络完整实现

应用:可以用基于字符级循环神经网络的语言模型来生成文本序列,例如创作歌词。

one-hot向量:就是标签向量,只有0和1代表有没有。

超参数:num_hiddens

激活函数:当元素在实数域上均匀分布时,tanh函数值的均值为0。实际应用中比sigmoid好一点。

预测函数:基于前缀prefix(含有数个字符的字符串)来预测接下来的num_chars个字符。

裁剪梯度(clip gradient):假设我们把所有模型参数梯度的元素拼接成一个向量 g,并设裁剪的阈值是θ。裁剪后的梯度的L2范数不超过θ。当训练循环神经网络时,为了应对梯度爆炸,可以裁剪梯度。

min⁡(θ∥g∥,1)g\min\left(\frac{\theta}{\|\boldsymbol{g}\|}, 1\right)\boldsymbol{g}min(∥g∥θ​,1)g

困惑度(perplexity):来评价语言模型的好坏。困惑越低,越像是正常句子。任何一个有效模型的困惑度必须小于类别个数。困惑度是对交叉熵损失函数做指数运算后得到的值。

循环神经网络的模型训练函数的不同之处:

  1. 使用困惑度评价模型。

  2. 在迭代模型参数前裁剪梯度。

  3. 对时序数据采用不同采样方法将导致隐藏状态初始化的不同。

练习

  • 调调超参数,观察并分析对运行时间、困惑度以及创作歌词的结果造成的影响。

    答:num_hiddens提高到512,有助于更快收敛。batch_size降低,耗时但有助于收敛。lr改变为e大小使得学习不收敛。

  • 不裁剪梯度,运行本节中的代码,结果会怎样?

    答:OverflowError: math range errorclipping_theta

  • 将pred_period变量设为1,观察未充分训练的模型(困惑度高)是如何创作歌词的。你获得了什么启发?

    答:困惑度高的模型都是使用重复的,经常出现的词来作为结果。

  • 将相邻采样改为不从计算图分离隐藏状态,运行时间有没有变化?

    答:没有。

  • 将本节中使用的激活函数替换成ReLU,重复本节的实验。

    答:感觉效果更好,困惑度的下降的更为合理。

    ——————————————————————————————随机取样——————————————————————————
    epoch 50, perplexity 72.627812, time 0.31 sec
     - 分开 我不要再想你 哼哼哈觉截棍 哼哼哈兮截棍 哼哼哈兮截棍 哼哼哈兮截棍 哼哼哈兮截棍 哼哼哈兮截棍 
     - 不分开 我想想你的溪边河知都的 我想要再想你 哼哼哈觉截棍 哼哼哈兮截棍 哼哼哈兮截棍 哼哼哈兮截棍 哼哼
    epoch 100, perplexity 12.504797, time 0.31 sec
     - 分开 一直在双截棍 哼哼哈兮 快使用双截棍 哼者哈兮 快使用双截棍 哼哼哈兮 快使用双截棍 哼哼哈兮 快
     - 不分开不 我不能让呵牵 如果我遇见你是一场悲剧 我想以让生小就定一个人 干什么让我习糗处可躲就耳我想要你说
    epoch 150, perplexity 3.392714, time 0.31 sec
     - 分开 有杰伦 一步两步三步四步望著天 看星星 一颗两颗三颗四步望著天 看星星 一颗两颗三颗四颗望著天 看
     - 不分开吗 我后你很 在颗心悬在半动 我默悔够远照看 就像是童话故事 就么忙跟武当山 你说林苦武一堡 你说在
    epoch 200, perplexity 1.976689, time 0.31 sec
     - 分开 一直令它心仪的母斑鸠 牛仔红蕃 在小镇 背在背决斗 一只灰狼 问候村日  一场日痛 你的完空 在小
     - 不分开吗 我叫你爸 你打我妈 这样对吗干嘛这样 何必让酒牵鼻子走 瞎 说么一口 你爱完我 说你说 干数怎么
    epoch 250, perplexity 1.595479, time 0.31 sec
     - 分开 有杰伦经三 谁慢苦习 让我爱上你 那场悲剧 是你完美演出的一场戏 宁愿心碎哭泣 再狠狠忘记 你爱过
     - 不分开扫把的胖女巫 用拉丁文念咒语啦啦呜 她养的黑猫笑起来像哭 啦啦啦呜 刻在心动 染底夜空 过去种种 象

6.5循环神经网络简洁实现

简洁实现版,速度更快。

  1. 定义模型。继承Block类实现神经网络。

  2. 训练模型。定义预测函数。使用模型训练预测函数中的参数。

练习

  • 与上一节的实现进行比较。看看Gluon的实现是不是运行速度更快?如果你觉得差别明显,试着找找原因。

    答:从0.3s到0.05s,可能原因:1.前向计算使用了全连接层而不是向量运算。2.使用了d2l的梯度计算。3.参数的获取方式不同。

6.6通过时间反向传播

时间步数为3的循环神经网络模型计算中的依赖关系。

方框代表变量(无阴影)或参数(有阴影),圆圈代表运算符。

x输入,w权重,h时间步,o输出,L损失函数,y实际结果。

∂L∂ht=∑i=tT(Whh⊤)T−iWqh⊤∂L∂oT+t−i.\frac{\partial L}{\partial \boldsymbol{h}_t} = \sum_{i=t}^T {\left(\boldsymbol{W}_{hh}^\top\right)}^{T-i} \boldsymbol{W}_{qh}^\top \frac{\partial L}{\partial \boldsymbol{o}_{T+t-i}}.∂ht​∂L​=i=t∑T​(Whh⊤​)T−iWqh⊤​∂oT+t−i​∂L​.

上式中的指数项可见,当时间步数T较大或者时间步t较小时,目标函数有关隐藏状态的梯度较容易出现衰减和爆炸。所以才需要用以下方式梯度裁剪。

min⁡(θ∥g∥,1)g\min\left(\frac{\theta}{\|\boldsymbol{g}\|}, 1\right)\boldsymbol{g}min(∥g∥θ​,1)g

练习

  • 除了梯度裁剪,你还能想到别的什么方法应对循环神经网络中的梯度爆炸?

    答:1. 使用 ReLU、LReLU、ELU、maxout 等激活函数。sigmoid函数的梯度随着x的增大或减小和消失,而ReLU不会。2.使用批量归一化。通过规范化操作将输出信号xx规范化到均值为0,方差为1保证网络的稳定性.

6.7GRU门控循环单元

门控循环神经网络(gated recurrent neural network)是为了更好地捕捉时间序列中时间步距离较大的依赖关系。通过可以学习的门来控制信息的流动。

Rt=σ(XtWxr+Ht−1Whr+br),Zt=σ(XtWxz+Ht−1Whz+bz),H~t=tanh(XtWxh+(Rt⊙Ht−1)Whh+bh),Ht=Zt⊙Ht−1+(1−Zt)⊙H~t.\begin{split}\begin{aligned} \boldsymbol{R}_t = \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xr} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hr} + \boldsymbol{b}_r),\\ \boldsymbol{Z}_t = \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xz} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hz} + \boldsymbol{b}_z), \end{aligned}\end{split}\\ \tilde{\boldsymbol{H}}_t = \text{tanh}(\boldsymbol{X}_t \boldsymbol{W}_{xh} + \left(\boldsymbol{R}_t \odot \boldsymbol{H}_{t-1}\right) \boldsymbol{W}_{hh} + \boldsymbol{b}_h),\\ \boldsymbol{H}_t = \boldsymbol{Z}_t \odot \boldsymbol{H}_{t-1} + (1 - \boldsymbol{Z}_t) \odot \tilde{\boldsymbol{H}}_t.Rt​=σ(Xt​Wxr​+Ht−1​Whr​+br​),Zt​=σ(Xt​Wxz​+Ht−1​Whz​+bz​),​​H~t​=tanh(Xt​Wxh​+(Rt​⊙Ht−1​)Whh​+bh​),Ht​=Zt​⊙Ht−1​+(1−Zt​)⊙H~t​.

⊙按元素乘法,σ是sigmoid函数,R是重置门,Z是更新门。

重置门Rt和更新门Zt中每个元素的值域都是[0,1]

H~t∈Rn×h其所有元素的值域为[−1,1]\tilde{\boldsymbol{H}}_t \in \mathbb{R}^{n \times h}其所有元素的值域为[−1,1]H~t​∈Rn×h其所有元素的值域为[−1,1]

重置门(reset gate):重置门控制了上一时间步的隐藏状态如何流入当前时间步的候选隐藏状态。重置门可以用来丢弃与预测无关的历史信息。有助于捕捉时间序列里短期的依赖关系

更新门(update gate):更新门可以控制隐藏状态应该如何被包含当前时间步信息的候选隐藏状态所更新。这个设计可以应对循环神经网络中的梯度衰减问题。有助于捕捉时间序列里长期的依赖关系。

练习

  • 假设时间步t′<t。如果只希望用时间步t′的输入来预测时间步t的输出,每个时间步的重置门和更新门的理想的值是多少?

    答:重置门Rt=0;更新门Zt=1;能够使得为H_tilda无法生效。

  • 调节超参数,观察并分析对运行时间、困惑度以及创作歌词的结果造成的影响。

    答:num_steps从32改为40,困惑度提高,结果更差,运行时间略微降低。

    改为16,困惑度降低,结果更好,运行时间接近翻倍。

    batch_size提高和num_steps降低效果类似。

    学习率改为1e3的话,前面不收敛,后面才收敛。1e的话收敛特别慢。

    num_hiddens翻倍,时间也接近翻倍,但效果基本不变。

  • 在相同条件下,比较门控循环单元和不带门控的循环神经网络的运行时间。

    答:门控的慢一点。完整实现的0.7s和0.3s;简洁实现的0.07s和0.05s.

6.8LSTM长短期记忆

长短期记忆(long short-term memory,LSTM)引入了3个门,即输入门(input gate)、遗忘门(forget gate)和输出门(output gate)这3个门元素的值域均为[0,1]。

It=σ(XtWxi+Ht−1Whi+bi),Ft=σ(XtWxf+Ht−1Whf+bf),Ot=σ(XtWxo+Ht−1Who+bo),C~t=tanh(XtWxc+Ht−1Whc+bc),Ct=Ft⊙Ct−1+It⊙C~t.Ht=Ot⊙tanh(Ct).\begin{split}\begin{aligned} \boldsymbol{I}_t &= \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xi} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hi} + \boldsymbol{b}_i),\\ \boldsymbol{F}_t &= \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xf} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hf} + \boldsymbol{b}_f),\\ \boldsymbol{O}_t &= \sigma(\boldsymbol{X}_t \boldsymbol{W}_{xo} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{ho} + \boldsymbol{b}_o), \end{aligned}\end{split}\\ \tilde{\boldsymbol{C}}_t = \text{tanh}(\boldsymbol{X}_t \boldsymbol{W}_{xc} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hc} + \boldsymbol{b}_c),\\ \boldsymbol{C}_t = \boldsymbol{F}_t \odot \boldsymbol{C}_{t-1} + \boldsymbol{I}_t \odot \tilde{\boldsymbol{C}}_t.\\ \boldsymbol{H}_t = \boldsymbol{O}_t \odot \text{tanh}(\boldsymbol{C}_t).It​Ft​Ot​​=σ(Xt​Wxi​+Ht−1​Whi​+bi​),=σ(Xt​Wxf​+Ht−1​Whf​+bf​),=σ(Xt​Wxo​+Ht−1​Who​+bo​),​​C~t​=tanh(Xt​Wxc​+Ht−1​Whc​+bc​),Ct​=Ft​⊙Ct−1​+It​⊙C~t​.Ht​=Ot​⊙tanh(Ct​).

输入门(input gate):It,来选择取多少C_tilda,也就是正常的循环神经网络的单元。

遗忘门(forget gate):Ft,来选择取多少Ct-1,也就是上一个的记忆细胞。

输出门(output gate):Ot,来选择取多少Ct的激活后的值。

时间步Ht:对下一个循环神经网络单元的影响。

练习

  • 调节超参数,观察并分析对运行时间、困惑度以及创作歌词的结果造成的影响。

    答:感觉跟6.7类似。

  • 在相同条件下,比较长短期记忆、门控循环单元和不带门控的循环神经网络的运行时间。

    答:长短期记忆 >(略大于)门控循环单元 > 不带门控的循环神经网络。从计算量很容易可以看出。

  • 既然候选记忆细胞已通过使用tanh函数确保值域在-1到1之间,为什么隐藏状态还需要再次使用tanh函数来确保输出值域在-1到1之间?

    答:因为候选记忆细胞只使用了t-1时间步和输入X。下一个公式使用了输入门和遗忘门来生成记忆细胞,所以范围可能又超过了-1到1之间。

6.9深度循环神经网络

第1层Ht(1)=ϕ(XtWxh(1)+Ht−1(1)Whh(1)+bh(1)),第l层Ht(l)=ϕ(Ht(l−1)Wxh(l)+Ht−1(l)Whh(l)+bh(l)),输出Ot=Ht(L)Whq+bq,第1层\boldsymbol{H}_t^{(1)} = \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh}^{(1)} + \boldsymbol{H}_{t-1}^{(1)} \boldsymbol{W}_{hh}^{(1)} + \boldsymbol{b}_h^{(1)}),\\ 第l层\boldsymbol{H}_t^{(l)} = \phi(\boldsymbol{H}_t^{(l-1)} \boldsymbol{W}_{xh}^{(l)} + \boldsymbol{H}_{t-1}^{(l)} \boldsymbol{W}_{hh}^{(l)} + \boldsymbol{b}_h^{(l)}),\\ 输出\boldsymbol{O}_t = \boldsymbol{H}_t^{(L)} \boldsymbol{W}_{hq} + \boldsymbol{b}_q,第1层Ht(1)​=ϕ(Xt​Wxh(1)​+Ht−1(1)​Whh(1)​+bh(1)​),第l层Ht(l)​=ϕ(Ht(l−1)​Wxh(l)​+Ht−1(l)​Whh(l)​+bh(l)​),输出Ot​=Ht(L)​Whq​+bq​,

隐藏层个数L和隐藏单元个数h都是超参数

将隐藏状态的计算换成门控循环单元或者长短期记忆的计算,我们可以得到深度门控循环神经网络。

练习

  • 答:修改代码如下。运行结果时间更久了,迷惑度一开始略高于一个隐藏层的。

    # 定义参数形状
    def get_params():
        def _one(shape):
            return nd.random.normal(scale=0.01, shape=shape, ctx=ctx)
        # 隐藏层参数
        W_xh_1 = _one((num_inputs, num_hiddens))
        W_hh_1 = _one((num_hiddens, num_hiddens))
        b_h_1 = nd.zeros(num_hiddens, ctx=ctx)
        # 注意这里的shape和前面不同
        W_xh_2 = _one((num_hiddens, num_hiddens))
        W_hh_2 = _one((num_hiddens, num_hiddens))
        b_h_2 = nd.zeros(num_hiddens, ctx=ctx)
        # 输出层参数
        W_hq = _one((num_hiddens, num_outputs))
        b_q = nd.zeros(num_outputs, ctx=ctx)
        # 附上梯度
        params = [W_xh_1, W_hh_1, b_h_1, W_xh_2, W_hh_2, b_h_2, W_hq, b_q]
        for param in params:
            param.attach_grad()
        return params
    # 返回初始化的隐藏状态
    def init_rnn_state(batch_size, num_hiddens, ctx):
        return (nd.zeros(shape=(batch_size, num_hiddens), ctx=ctx), 
                nd.zeros(shape=(batch_size, num_hiddens), ctx=ctx))
    # 循环神经网络模型,tanh激活函数
    def rnn(inputs, state, params):
        # inputs和outputs皆为num_steps个形状为(batch_size, vocab_size)的矩阵
        W_xh_1, W_hh_1, b_h_1, W_xh_2, W_hh_2, b_h_2, W_hq, b_q = params
        H_1,H_2 = state
        outputs = []
        for X in inputs:
            H_1 = nd.relu(nd.dot(X, W_xh_1) + nd.dot(H_1, W_hh_1) + b_h_1)
            H_2 = nd.relu(nd.dot(H_1, W_xh_2) + nd.dot(H_2, W_hh_2) + b_h_2)
            Y = nd.dot(H_2, W_hq) + b_q
            outputs.append(Y)
        return outputs, (H_1,H_2)

6.10双向循环神经网络

公式:

时间步正向隐藏状态H→t=ϕ(XtWxh(f)+H→t−1Whh(f)+bh(f)),时间步反向隐藏状态H←t=ϕ(XtWxh(b)+H←t+1Whh(b)+bh(b)),输出状态Ot=HtWhq+bq,\begin{split}\begin{aligned} 时间步正向隐藏状态\overrightarrow{\boldsymbol{H}}_t &= \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh}^{(f)} + \overrightarrow{\boldsymbol{H}}_{t-1} \boldsymbol{W}_{hh}^{(f)} + \boldsymbol{b}_h^{(f)}),\\ 时间步反向隐藏状态\overleftarrow{\boldsymbol{H}}_t &= \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh}^{(b)} + \overleftarrow{\boldsymbol{H}}_{t+1} \boldsymbol{W}_{hh}^{(b)} + \boldsymbol{b}_h^{(b)}), \end{aligned}\end{split}\\ 输出状态\boldsymbol{O}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_q,时间步正向隐藏状态Ht​时间步反向隐藏状态Ht​​=ϕ(Xt​Wxh(f)​+Ht−1​Whh(f)​+bh(f)​),=ϕ(Xt​Wxh(b)​+Ht+1​Whh(b)​+bh(b)​),​​输出状态Ot​=Ht​Whq​+bq​,

模型参数形状:

前向frontward:Wxh(f)∈Rd×h,Whh(f)∈Rh×h,bh(f)∈R1×h后向backward:Wxh(b)∈Rd×h,Wxh(b)∈Rh×hbh(b)∈R1×h前向frontward:\boldsymbol{W}_{xh}^{(f)} \in \mathbb{R}^{d \times h}, \boldsymbol{W}_{hh}^{(f)} \in \mathbb{R}^{h \times h}, \boldsymbol{b}_h^{(f)} \in \mathbb{R}^{1 \times h} \\后向backward:\boldsymbol{W}_{xh}^{(b)} \in \mathbb{R}^{d \times h}, \boldsymbol{W}_{xh}^{(b)} \in \mathbb{R}^{h \times h} \boldsymbol{b}_h^{(b)} \in \mathbb{R}^{1 \times h}前向frontward:Wxh(f)​∈Rd×h,Whh(f)​∈Rh×h,bh(f)​∈R1×h后向backward:Wxh(b)​∈Rd×h,Wxh(b)​∈Rh×hbh(b)​∈R1×h

然后我们连结两个方向的隐藏状态H_t,再计算输出层。

Ht∈Rn×2h\boldsymbol{H}_t \in \mathbb{R}^{n \times 2h}Ht​∈Rn×2h

练习

  • 如果不同方向上使用不同的隐藏单元个数,Ht的形状会发生怎样的改变?

    Ht∈Rn×(h1+h2)\boldsymbol{H}_t \in \mathbb{R}^{n \times (h_1+h_2)}Ht​∈Rn×(h1​+h2​)
  • 参考图6.11和图6.12,设计含多个隐藏层的双向循环神经网络。

上一页《第五章》下一页《第七章》

最后更新于3年前

这有帮助吗?

含隐藏状态的循环神经网络
时间步数为3的循环神经网络模型计算中的依赖关系。方框代表变量(无阴影)或参数(有阴影),圆圈代表运算符
门控循环单元中隐藏状态的计算。这里的\ :math:\odot\ 是按元素乘法
长短期记忆中隐藏状态的计算。这里的\ :math:\odot\ 是按元素乘法
深度循环神经网络的架构

将一节中的模型改为含有2个隐藏层的循环神经网络。观察并分析实验现象。

双向循环神经网络的架构

🤖
🔨
“循环神经网络的从零开始实现”