CSpace  > 中国科学院计算技术研究所期刊论文  > 中文
基于简单循环单元的深层神经网络机器翻译模型
张文; 冯洋; 刘群
2018
发表期刊中文信息学报
ISSN1003-0077
卷号32.0期号:010页码:36
摘要基于注意力机制的神经网络机器翻译模型已经成为目前主流的翻译模型,在许多翻译方向上均超过了统计机器翻译模型,尤其是在训练语料规模比较大的情况下,优势更加明显。该模型使用编码器—解码器框架,将翻译任务建模成序列到序列的问题。然而,在基于门控循环单元(gated recurrent unit,GRU)的编码器—解码器模型中,随着模型层数的增加,梯度消失的问题使模型难以收敛并且严重退化,进而使翻译性能下降。该文使用了一种简单循环单元(simple recurrent unit,SRU)代替GRU单元,通过堆叠网络层数加深编码器和解码器的结构,提高了神经网络机器翻译模型的性能。我们在德语—英语和维语—汉语翻译任务上进行了实验,实验结果表明,在神经网络机器翻译模型中使用SRU单元,可以有效地解决梯度消失带来的模型难以训练的问题;通过加深模型能够显著地提升系统的翻译性能,同时保证训练速度基本不变。此外,我们还与基于残差连接(residual connections)的神经网络机器翻译模型进行了实验对比,实验结果表明,我们的模型有显著性优势。
关键词门控循环单元 梯度消失 残差连接 简单循环单元
语种英语
文献类型期刊论文
条目标识符http://119.78.100.204/handle/2XEOYT63/26153
专题中国科学院计算技术研究所期刊论文_中文
作者单位中国科学院计算技术研究所
第一作者单位中国科学院计算技术研究所
推荐引用方式
GB/T 7714
张文,冯洋,刘群. 基于简单循环单元的深层神经网络机器翻译模型[J]. 中文信息学报,2018,32.0(010):36.
APA 张文,冯洋,&刘群.(2018).基于简单循环单元的深层神经网络机器翻译模型.中文信息学报,32.0(010),36.
MLA 张文,et al."基于简单循环单元的深层神经网络机器翻译模型".中文信息学报 32.0.010(2018):36.
条目包含的文件
条目无相关文件。
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[张文]的文章
[冯洋]的文章
[刘群]的文章
百度学术
百度学术中相似的文章
[张文]的文章
[冯洋]的文章
[刘群]的文章
必应学术
必应学术中相似的文章
[张文]的文章
[冯洋]的文章
[刘群]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。