学位专题

目录>
<

融合CNN推理加速器的高性能NIC的设计与实现

张凡
国防科学技术大学
引用
随着大数据时代的到来,深度学习技术已经成为人工智能的一大热点,在图像识别、语音识别、自然语言处理方面展现出了巨大的优势,并且在持续发展变化中。其中卷积神经网络(CNNs)是深度学习网络中很重要的一个分支,也发挥着越来越重要的作用。在深度学习技术蓬勃发展的形势下,网络的规模和数据量也越来越大,需要提出一些新的架构来快速高效的处理大规模数据。  通用的深度学习加速技术有CPU加速技术、GPU集群加速技术、FPGA加速技术、ASIC加速技术以及内存计算加速技术等。对比深度学习应用的各种加速技术,本文提出了使用FPGA加速技术进行CNN算法的加速和实现。  基于之前的研究,本文提出了一种集成CNN推理加速器的高性能网络接口芯片。主机通过PCIE接口发送任务到FPGA加速器,加速器之间通过低延迟链路将任务进行分发和处理,最后将计算结果发回主机。  在已有的实验环境下,本文实现了FPGA加速平台的搭建,软硬件通信模块的设计与处理,并实现集成了CNN推理加速模块。  通过实验测试,我们验证了原型系统功能的正确性,证明了其良好的可扩展性。

加速器;深度学习;卷积神经网络;高性能NIC

国防科学技术大学

硕士

计算机科学与技术

徐炜遐;董德尊

2018

中文

TP183;TP391.41

2020-04-26(万方平台首次上网日期,不代表论文的发表时间)

相关文献
评论
相关作者
相关机构
打开万方数据APP,体验更流畅