百度飞桨与海光DCU系列人工智能加速卡完成互证

百度飞桨与海光DCU系列人工智能加速卡完成互证

发布时间:2021-10-14 作者:未知
  今天给大家分享的是百度飞桨助力国产AI加速卡人工智能应用创新与海光人工智能加速卡DCU系列完成互证的相关信息,下面我们一起来看具体详情!
  近期,百度飞桨深度学习框架与海光人工智能加速卡DCU系列进行了安装部署测试、基本功能测试和稳定性兼容性测试,联合测试结果显示百度飞桨深度学习框架在海光DCU系列以及海光3000、5000、7000系列CPU环境上均能顺利安装,可以可靠、稳定、高性能地运行,满足用户的关键性应用需求。
 
百度飞桨与海光DCU系列人工智能加速卡完成互证
 
  飞桨与海光DCU生态兼容性认证证书
 
  其中,DCU(Deep Computing Unit深度计算器)是海光(HYGON)推出的一款专门用于AI人工智能和深度学习的加速卡。目前飞桨框架ROCm版基于海光CPU(X86)和DCU支持以下模型的单机单卡/单机多卡的训练与推理。
  飞桨框架ROCm版安装说明及测试环境说明:
  本次适配及测试工作是由飞桨团队和海光团队基于海光7000系列CPU以及海光DCU-Z100深度计算处理器芯片,在CentOS7.6操作系统下进行了相关性测试。目前飞桨框架ROCm版支持基于海光CPU和DCU的Python的训练和原生预测,当前支持的飞桨框架ROCm版本为4.0.1,飞桨框架版本为2.1.0,提供两种安装方式:
  通过预编译的wheel包安装
  通过源代码编译安装
 
百度飞桨与海光DCU系列人工智能加速卡完成互证
 
  表1:软件环境

百度飞桨与海光DCU系列人工智能加速卡完成互证
  表2:硬件环境
 
  飞桨框架ROCm版支持模型:
  当前在海光DCU芯片上进行过80+模型的官方验证,验证包括有图像分类(PaddleClas)、目标检测(PaddleDetection)、图像分割(PaddleSeg)、文字识别(PaddleOCR)、生成对抗网络(PaddleGAN)、自然语言处理(PaddleNLP)、推荐(PaddleRec)、语音(Parakeet)类别的模型。下表是支持的部分目标检测类模型的情况,完整支持信息请见:
  飞桨官网>文档>使用教程>硬件支持>海光DCU芯片运行飞桨>飞桨框架ROCm版支持模型。
  (文档链接:
  https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/09_hardware_support/rocm_docs/paddle_rocm_cn.html)
  飞桨框架ROCm版训练及预测:
  训练:使用海光CPU/DCU进行训练与使用Intel CPU/Nvidia GPU训练相同,当前飞桨框架ROCm版本完全兼容飞桨框架CUDA版本的API,直接使用原有的GPU训练命令和参数即可。
  预测:使用海光CPU/DCU进行预测与使用Intel CPU/Nvidia GPU预测相同,支持飞桨原生推理库(Paddle Inference),适用于高性能服务器端、云端推理。当前飞桨框架ROCm版本完全兼容飞桨框架CUDA版本的C++/Python API,直接使用原有的GPU预测命令和参数即可。
  完整训练及预测示例可参考官网海光DCU芯片运行飞桨文档。
 
百度飞桨与海光DCU系列人工智能加速卡完成互证
 
  海光信息技术股份有限公司(以下简称“海光公司”)自主研发的人工智能加速卡DCU系列可以全面覆盖支持深度学习训练场景,轻松应对复杂神经网络训练,适合为人工智能计算提供强大的算力。产品已经大量应用在电信、金融、教育、科研、人工智能等重要领域。
 
百度飞桨与海光DCU系列人工智能加速卡完成互证
 
  北京百度网讯科技有限公司(以下简称“百度公司”)自主研发的深度学习平台飞桨,以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件、丰富的工具组件于一体,是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台。
  本次百度飞桨深度学习框架与海光人工智能加速卡DCU系列完成互认证,将进一步提升双方在国产软、硬件领域的产品竞争力,不断完善产品性能的同时,为客户提升AI平台支撑能力,助力客户实现数字化、智能化升级转型。
  更多百度飞桨相关内容,百度云服务中心持续分享中!

7x24小时服务热线:400-996-8756

公司地址:河南省郑州市姚砦路133号金成时代广场6号楼13层

I CP备案号:豫B2-20110005-1

公安备案号: 41010502003271

法律顾问:河南天坤律师事务所-段志刚律师