CSpace  > 中国科学院计算技术研究所期刊论文  > 中文
面向高能效加速器的二值化神经网络设计和训练方法
李佳骏; 许浩博; 王郁杰; 肖航; 王颖; 韩银和; 李晓维
2023
发表期刊计算机辅助设计与图形学学报
ISSN1003-9775
卷号35期号:6页码:961
摘要针对二值化神经网络加速器计算溢出和乘法器依赖的问题,提出一套二值化神经网络设计及其训练方法.首先设计能够模拟溢出的矩阵乘法,保证模型部署后不丢失准确率;然后优化卷积层和激活函数,缓解溢出总量;再设计移位批标准化层,使二值化神经网络摆脱对乘法运算的依赖,并有效地降低访存;最后针对改进的模型提出基于溢出启发的协同训练框架,确保模型训练能够收敛.实验结果表明,与10个主流的关键词激活方法相比,在准确率无明显损失的情况下,所提方法使片上计算规模减少超过49.1%,并为加速器带来至少21.0%的速度提升.
关键词binarized neural networks deep learning model training neural network accelerators 二值化神经网络 深度学习 模型训练 神经网络加速器
语种英语
文献类型期刊论文
条目标识符http://119.78.100.204/handle/2XEOYT63/38118
专题中国科学院计算技术研究所期刊论文_中文
作者单位中国科学院计算技术研究所
第一作者单位中国科学院计算技术研究所
推荐引用方式
GB/T 7714
李佳骏,许浩博,王郁杰,等. 面向高能效加速器的二值化神经网络设计和训练方法[J]. 计算机辅助设计与图形学学报,2023,35(6):961.
APA 李佳骏.,许浩博.,王郁杰.,肖航.,王颖.,...&李晓维.(2023).面向高能效加速器的二值化神经网络设计和训练方法.计算机辅助设计与图形学学报,35(6),961.
MLA 李佳骏,et al."面向高能效加速器的二值化神经网络设计和训练方法".计算机辅助设计与图形学学报 35.6(2023):961.
条目包含的文件
条目无相关文件。
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[李佳骏]的文章
[许浩博]的文章
[王郁杰]的文章
百度学术
百度学术中相似的文章
[李佳骏]的文章
[许浩博]的文章
[王郁杰]的文章
必应学术
必应学术中相似的文章
[李佳骏]的文章
[许浩博]的文章
[王郁杰]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。