AD
首页 > 头条 > 正文

比RNN快136倍!上交大提出SRNN,现在RNN也能做并行计算了 -科技频道-金鱼财经网

[2021-02-27 12:08:38] 来源: 编辑:wangjia 点击量:
评论 点击收藏
导读: 新智元报道来源:上海交通大学作者:Zeping Yu,Gongshen Liu 【新智元导读】上海交通大学最新提出切片循环神经网络(SRNN),其速度是标准RNN的136倍,并且还能更快!对六个大型
比RNN快136倍!上交大提出SRNN,现在RNN也能做并行计算了 新智元报道来源:上海交通大学作者:Zeping Yu,Gongshen Liu

【新智元导读】上海交通大学最新提出切片循环神经网络(SRNN),其速度是标准RNN的136倍,并且还能更快!对六个大型情绪分析数据集的实验表明,SRNN的性能均优于标准RNN。

论文和开源代码地址:

http://arxiv.org/pdf/1807.02291.pdf

http://github.com/zepingyu0512/srnn
在许多NLP任务中,循环神经网络(RNN)取得了巨大的成功。但是,这种循环的结构使它们难以并行化,因此,训练RNN需要大量的时间。 在许多NLP任务中,循环神经网络(RNN)取得了巨大的成功。但是,这种循环的结构使它们难以并行化,因此,训练RNN需要大量的时间。

上海交通大学的Zeping Yu 和Gongshen Liu,在论文“Sliced Recurrent Neural Networks”中,提出了全新架构“切片循环神经网络”(SRNN)。SRNN可以通过将序列分割成多个子序列来实现并行化。SRNN能通过多个层获得高级信息,而不需要额外的参数。

研究人员证明了当使用线性激活函数时,标准RNN是SRNN的一个特例。在不改变循环单元的情况下,SRNN的速度是标准RNN的136倍,并且当训练更长的序列时可能会更快。对六个大型情绪分析数据集的实验表明,SRNN的性能优于标准RNN。

提高RNN训练速度的多种方法

循环神经网络(RNN)已经被广泛用于许多NLP任务,包括机器翻译、问题回答、图像说明和文本分类。RNN能够获得输入序列的顺序信息。最受欢迎的两个循环单元是长短期记忆(LSTM)和门控循环单元(GRU),两者都可以将先前的记忆存储在状态,并使用门控机制来确定应该在何种程度将先前的记忆应与当前的输入结合。但是,由于其循环的结构,RNN不能并行计算。因此,训练RNN需要花费大量时间,这限制了学术研究和工业应用。

为了解决这个问题,一些学者尝试在NLP领域使用卷积神经网络(CNN)来代替RNN。但是,CNN无法获得序列的顺序信息,而顺序信息在NLP任务中非常重要。

一些学者试图通过改进循环单元来提高RNN的速度,并取得了良好的效果。通过将CNN与RNN相结合,准循环神经网络(QRNN)的速度提高了16倍。2017年Tao Lei等人提出了简单循环单元SRU(simple recurrent unit),比LSTM快5-10倍。类似地, strongly-typed循环神经网络(T-RNN)和最小门控单元(MGU)也是可以改进循环单元的方法。

虽然RNN在这些研究中实现了更快的速度,并且循环单元得到了改善,但整个序列中的循环结构是保持不变的。我们仍然需要等待上一步的输出,因此RNN的瓶颈仍然存在。在本文中,我们提出切片循环神经网络(SRNN),它在不改变循环单元的情况下,能够比标准RNN快得多。我们证明了当使用线性激活函数时,标准RNN是SRNN的一个特例,SRNN能够获得序列的高级信息。

为了将我们的模型与标准RNN进行比较,我们选择GRU作为循环单元。其他的循环单元也可以用于我们的结构,因为我们改进了整个序列中的整体RNN结构,而不仅仅是改变循环单元。我们在6个大型数据集上完成了实验,证明SRNN在所有数据集上的性能优于标准RNN。

我们开源了实现代码:

http://github.com/zepingyu0512/srnn

切片循环神经网络SRNN的结构

我们构建了一个新的RNN结构,称为切片循环神经网络(SRNN),如图2所示。在图2中,循环单位也称为A。


图2:SRNN结构。它是通过将输入序列分割成几个长度相等的最小子序列来构造的。循环单元可以在每层子序列上同时工作,信息可以通过多层传递。 图2:SRNN结构。它是通过将输入序列分割成几个长度相等的最小子序列来构造的。循环单元可以在每层子序列上同时工作,信息可以通过多层传递。

输入序列X的长度为T,输入序列为:

其中x是每个步骤的输入,它可能具有多个维度,例如单词嵌入。然后将X分割成长度相等的n个子序列,每个子序列的长度n为:

其中n为切片数,序列X可表示为:

其中每个子序列是:


比RNN快136倍!上交大提出SRNN,现在RNN也能做并行计算了 表1:数据集信息。Max words表示最大序列长度,Average words表示每个数据集中句子的平均长度。

结果和分析

每个数据集的结果如表2所示。我们选择不同的n和k值,得到不同的SRNN。例如,SRNN(16,1)表示n = 16且k = 1,当T为512时,可以得到长度为32的最小子序列;当T为256时,可以得到长度为16的最小子序列。我们将4个SRNN与标准RNN进行了比较。每个数据集中,粗体字表示性能最高的模型和速度最快的模型。


比RNN快136倍!上交大提出SRNN,现在RNN也能做并行计算了 表2:每个数据集上模型验证和测试的准确度和训练时间。我们构建了四种不同的SRNN结构。DCCNN是dilated casual卷积神经网络。

结果表明,在几乎没有额外参数的条件下,SRNN在所有数据集上的性能和速度都优于标准RNN。不同的SRNN在不同的数据集上都实现了最佳性能:

SRNN(16,1)在Yelp 2013,Yelp 2015,Amazon_F和Amazon_P上都获得最高的准确度;

SRNN(8,2)在Yelp 2014上的性能最佳;

SRNN(4,3)在Yelp_P上表现最好。

K大于1时,SRNN在Yelp数据集上比标准RNN快了将近15倍,可见速度的优势取决于k,n和T。

SRNN(4,3)在Yelp 2015上速度最快, 而SRNN(8,2)在其余数据集最快(DCCNN除外)。

我们注意到,Yelp数据集上的SRNN(2,8)和Amazon数据集上的SRNN(2,7)没有达到最佳性能,但也没有在准确性方面减弱太多。这意味着SRNN能够通过多个层传输信息,因此,当我们训练非常长的序列时,SRNN可以获得显着的效果。当n为2时,SRNN具有与DCCNN相同的层数,并且SRNN的精度比DCCNN高得多。因此,这表明SRNN中的循环结构优于dilated casual卷积神经网络结构。

我们使用NVIDIA GTX 1080 GPU在5120个文档上训练模型,因为如果使用更多的数据,训练标准RNN需要花费太多时间。训练时间如表3所示。

从表3中得到惊人的结果:

序列长度越长,SRNN实现的速度优势就越大。当序列长度为32768时,SRNN仅需52s,而标准RNN需要花费近2小时。SRNN的速度是标准RNN的136倍!并且如果使用更长的序列,速度优势可能更大。因此,SRNN可以在长序列任务上实现更快的速度,例如语音识别、字符级文本分类和语言建模。


表3:不同序列长度的训练时间和速度优势。对于每个序列长度,我们选择不同的SRNN结构。 SRNN的优势和重要意义 表3:不同序列长度的训练时间和速度优势。对于每个序列长度,我们选择不同的SRNN结构。 SRNN的优势和重要意义

在这一部分,我们将讨论SRNN的优势和重要意义。随着RNN在许多NLP任务中取得成功,许多学者提出了不同的结构来提高RNN的速度。通过改善循环单元,很多研究都能加快RNN的速度。但是,RNN的传统连接结构几乎没有被质疑过,而这种结构里每个步骤都与它的前一步骤相关联。正是这种连接结构限制了RNN的速度。SRNN改进了传统的连接方法。我们构建了一种切片结构(sliced structure)来实现RNN的并行化。在六个大规模情感分析数据集的实验结果表明,SRNN比标准RNN具有更好的性能。原因如下:

(1)当使用标准RNN连接结构时,具门控结构的循环单元(例如GRU和LSTM)是有用的,但是当序列很长时,它们就无法存储所有的重要信息。SRNN可以将长序列分成许多短的子序列,并用短序列来获取重要信息。SRNN能够通过从第0层到顶层的多层结构传输重要信息。

(2)SRNN能够从序列中获取高级信息,而不仅仅是单词级信息。我们在512个单词的文本中使用SRNN(8,2)时,第0层可以从单词嵌入中获得句子级信息,第1层可以从句子级信息中获得段落级信息,第2层可以生成段落级信息的最终文档级表示。而标准RNN只能获得词汇级信息。虽然不可能每个文档有8个段落,每个段落有8个句子,每个句子有8个单词,但是总体的顺序信息和结构信息是统一的。以段落信息为例,人们总是在文章的开头或结尾表达自己的观点,并在文章中间举例说明。与标准RNN相比,SRNN更容易在顶层获得这些信息。

(3)在处理序列方面,SRNN类似于人脑的机制。例如,我们作为人类在得到一篇文章,并被要求回答一些问题时,我们通常不需要深入阅读整篇文章。我们会试图找到提及具体信息的段落,然后在段落中找到可以回答问题的句子和单词。SRNN可以通过多个层轻松做到这一点。

除了提高准确性之外,SRNN的最大优势是可以并行计算,实现更快的速度。我们在不同序列长度的实验表明SRNN的运行速度比标准RNN快得多。而且,在更长的序列上,SRNN可能更快。随着互联网的发展,每天都有数以亿计的数据产生,SRNN可以作为处理这些数据的新方法。

结论和未来工作

在这篇论文中,我们提出切片循环神经网络(SRNN),这是RNN的整体结构改进。 SRNN可以达到比标准RNN快得多的速度,并在六个大规模情感数据集上实现更好的性能。

SRNN在文本分类方面取得了成功。在未来的工作中,我们希望将其推广到其他NLP应用,例如问答、文本摘要和机器翻译。在序列到序列模型中,SRNN可以用作编码器,并且可以通过使用反向SRNN结构来改进解码器。此外,我们希望在一些长序列任务中使用SRNN,例如语言模型、音乐生成和音频生成。我们想探索更多SRNN的变体,例如,可以添加双向结构和注意力机制。

  本文首发于微信公众号:新智元。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。

查看更多:

为您推荐