Institute of Computing Technology, Chinese Academy IR
CPU和DRAM加速任务划分方法:大数据处理中Hash Joins的加速实例 | |
吴林阳; 罗蓉; 郭雪婷; 郭崎 | |
2018 | |
发表期刊 | 计算机研究与发展 |
ISSN | 1000-1239 |
卷号 | 55.0期号:002页码:289 |
摘要 | 硬件加速器能够有效地提高当前计算机系统的能效.然而,传统的硬件加速器(如GPU,FPGA和定制的加速器)和内存是相互分离的,加速器和内存之间的数据移动难以避免,这使得如何降低加速器和内存之间数据移动的开销成为极具挑战性的问题.随着靠近数据的处理技术(near-data processing)和3D堆叠DRAM的出现,我们能够将硬件加速器集成到3D堆叠DRAM中,使得数据移动的开销大大降低.然而,由于3D堆叠DRAM对面积、功耗和散热具有严格的限制,所以不可能将一个功能复杂的硬件加速器完整地集成到DRAM中.因此,在设计内存端的硬件加速器时,应该考虑将加速任务在CPU和加速器之间合理地进行划分.以加速大数据系统中的一个关键操作hash joins为例子,阐述了CPU和内存端加速任务划分的设计思想.以减少数据移动为出发点,设计了一个包含内存端定制加速器和处理器端SIMD加速单元的混合加速系统,并对应用进行分析,将加速任务划分到不同的加速器.其中,内存端的加速器用于加速数据移动受限的执行阶段,而处理器端SIMD加速单元则用于加速数据移动开销较低成本的执行阶段.实验结果表明:与英特尔的Haswell处理器和Xeon Phi相比,设计的混合加速系统的能效分别提升了47.52倍和19.81倍.此外,提出的以数据移动为驱动的方法很容易扩展于指导其他应用的加速设计. |
关键词 | 3D堆叠内存 加速器 大数据 hash joins radix joins算法的优化版本 hash分区加速器 |
语种 | 英语 |
文献类型 | 期刊论文 |
条目标识符 | http://119.78.100.204/handle/2XEOYT63/28685 |
专题 | 中国科学院计算技术研究所期刊论文_中文 |
作者单位 | 中国科学院计算技术研究所 |
第一作者单位 | 中国科学院计算技术研究所 |
推荐引用方式 GB/T 7714 | 吴林阳,罗蓉,郭雪婷,等. CPU和DRAM加速任务划分方法:大数据处理中Hash Joins的加速实例[J]. 计算机研究与发展,2018,55.0(002):289. |
APA | 吴林阳,罗蓉,郭雪婷,&郭崎.(2018).CPU和DRAM加速任务划分方法:大数据处理中Hash Joins的加速实例.计算机研究与发展,55.0(002),289. |
MLA | 吴林阳,et al."CPU和DRAM加速任务划分方法:大数据处理中Hash Joins的加速实例".计算机研究与发展 55.0.002(2018):289. |
条目包含的文件 | 条目无相关文件。 |
个性服务 |
推荐该条目 |
保存到收藏夹 |
查看访问统计 |
导出为Endnote文件 |
谷歌学术 |
谷歌学术中相似的文章 |
[吴林阳]的文章 |
[罗蓉]的文章 |
[郭雪婷]的文章 |
百度学术 |
百度学术中相似的文章 |
[吴林阳]的文章 |
[罗蓉]的文章 |
[郭雪婷]的文章 |
必应学术 |
必应学术中相似的文章 |
[吴林阳]的文章 |
[罗蓉]的文章 |
[郭雪婷]的文章 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论