导入英特尔深度学习加速技术,百度飞桨 INT8方案显著提升深度学习推理速度

本资料无预览

如感兴趣请 1 金币购买后下载

立即下载

资料简介:

百度深度学习平台飞桨基于第二代英特尔至强可扩展处理器的高性能算力以及英特尔深度学习加速( VNNI 指令集)的技术,可在不影响预测准确度的情况下,使多个深度学习模型在使用 INT8 时的推理速度显著提升,大大提升了用户深度学习应用的工作效能。

2021-09-27
页数4
浏览326
下载0

已下载用户的评价

您还未下载该资料,不能发表评价;
查看我的 待评价资源
本资料还没有评价。

贡献者

intelcloudintel中国,英特尔中国公司
X社区推广