|
循环神经网络(RNN:Recurrent Neural Network)是反馈型神经网络,隐层内有反馈,从而在时间上形成了很深的层次。RNN可以有效学习相隔一段时间不同数据之间的关联模式或者结构模式,因此成为处理序列数据的利器。基本的RNN模型能够学习的时间跨度还不够深,因此,又出现了长短期记忆(LSTM:Long Short Term Memory)网络模型。LSTM对基本RNN的神经元进行了改进,加入了输入门、遗忘门和输出门三种结构,可以有效学习更深时间跨度上的模式。GRU(Gated Recurrent Unit)则是LSTM的一种变体,对LSTM进行适当简化,把三个门结构合并为更新门和重置门两个结构。GRU既能保持LSTM的学习效果,又简化了结构,加速了运算过程。 基本的RNN按照从过去到现在的方向单向学习,而双向RNN能在从过去到现在和从未来到现在正反两个方向上同时学习,所以,双向RNN学习序列模式的能力更强。 【出处】鲍军鹏,张选平.人工智能导论(第2版),机械工业出版社,2021年1月.
|