Institute of Computing Technology, Chinese Academy IR
QingLong:一种基于常变量异步拷贝的神经网络编程模型 | |
杜伟健1; 陈云霁1![]() | |
2020 | |
发表期刊 | 计算机学报
![]() |
ISSN | 0254-4164 |
卷号 | 43.0期号:004页码:587 |
摘要 | 近年来,人工神经网络的研究取得了巨大成就,在图像识别、自然语言处理等领域均有突破性的成果,同时产生了众多商业应用,方便了我们的生活,比如语音助手、辅助驾驶等.由于神经网络算法属于计算密集型和访存密集型的负载,传统CPU处理器已不能满足其大规模商业化应用的需求,因此学术界和产业界试图在GPU、FPGA和ASIC上寻求突破.其中,神经网络加速器作为一种ASIC,它提供了高性能、低功耗的硬件解决方案,相关研究也越来越多.神经网络加速器作为一种协处理器,在其计算前后需要将数据在主机与设备之间进行搬运.特别是对吞吐量要求较高的神经网络前向推理任务,需要将网络模型参数、硬件指令等常量数据和输入、输出等变量数据,分别从主机内存拷入设备内存.如果常量数据在每一份输入数据计算前都拷贝一次,就存在常量数据重复拷贝的问题,浪费了时间与存储资源.如何在神经网络开发工具软件中实现拷贝多次变量数据但只拷贝一次常量数据,如何保证指令在每次计算中都正确寻址常量和变量,如何简化用户编程,提供用户友好的接口,就成为一系列值得研究的问题.在本文中,我们提出了一种基于常变量异步拷贝的神经网络开发工具软件及其编程模型QingLong来解决上述问题.QingLong编程模型包含三个阶段:定义网络、编译网络和计算.在定义网络阶段,用户可以为神经网络的数据节点绑定常量数据;在编译网络阶段,通过REOFF数据包装法将常量数据封装为数据包;在计算网络阶段,用户拷贝一次数据包后即可多次拷入输入数据并计算输出结果.该编程模型具有编译、计算分离,常变量异步拷贝,计算和数据拷贝可切分为三级流水线等优势.实验表明,在连续计算100份输入样本时,QingLong比DLPlib有平均17.48倍的性能提升,且输入样本越多,性能提升的倍数越大. |
关键词 | 神经网络 编程模型 常量和变量 异步拷贝 软件开发工具 |
语种 | 英语 |
文献类型 | 期刊论文 |
条目标识符 | http://119.78.100.204/handle/2XEOYT63/37734 |
专题 | 中国科学院计算技术研究所期刊论文_中文 |
作者单位 | 1.中国科学院计算技术研究所 2.中国科学院 3.上海寒武纪信息科技有限公司 4.中科寒武纪科技股份有限公司 5.张江实验室脑与智能科技研究院 6.上海脑科学与类脑研究中心 |
第一作者单位 | 中国科学院计算技术研究所 |
推荐引用方式 GB/T 7714 | 杜伟健,陈云霁,支天,等. QingLong:一种基于常变量异步拷贝的神经网络编程模型[J]. 计算机学报,2020,43.0(004):587. |
APA | 杜伟健,陈云霁,支天,吴林阳,陈小兵,&庄毅敏.(2020).QingLong:一种基于常变量异步拷贝的神经网络编程模型.计算机学报,43.0(004),587. |
MLA | 杜伟健,et al."QingLong:一种基于常变量异步拷贝的神经网络编程模型".计算机学报 43.0.004(2020):587. |
条目包含的文件 | 条目无相关文件。 |
个性服务 |
推荐该条目 |
保存到收藏夹 |
查看访问统计 |
导出为Endnote文件 |
谷歌学术 |
谷歌学术中相似的文章 |
[杜伟健]的文章 |
[陈云霁]的文章 |
[支天]的文章 |
百度学术 |
百度学术中相似的文章 |
[杜伟健]的文章 |
[陈云霁]的文章 |
[支天]的文章 |
必应学术 |
必应学术中相似的文章 |
[杜伟健]的文章 |
[陈云霁]的文章 |
[支天]的文章 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论