作为广受青睐的 AI 加速开发平台,Vitis AI 已发布全新版本,并于 6 月 15 日正式推出。
我们一直期待 AI 在不同的工作负载和器件平台上发挥更重要的作用。由于从数据中心到云端都对 Vitis AI 有着巨大的市场需求,因此 AMD-赛灵思着力丰富与强化 Vitis AI 的功能,旨在提供更快的 AI 加速。本文将对 Vitis AI 2.5 的新功能及优化进行概述。
AI 模型库增加更多优化模型
最受欢迎的 BERT-NLP 模型、Vision Transformer、端到端 OCR 模型以及实时 SLAM SuperPoint 与 HFNet模型,都已包含在 Vitis AI 2.5 的模型列表。随着AMD对赛灵思的收购, AMD获得了卓越的软硬件功能,如今,Vitis AI 2.5 在 AMD EPYC 服务器处理器上支持 AMD 深度神经网络 ZenDNN 库中的 38 种基本模型和优化模型。可以想象,更多的 AMD CPU 用户将通过 Vitis AI 解决方案体验更快的 AI 加速方案。
![](http://xilinx.eetrend.com/files/2022-06/wen_zhang_/100561310-257968-1.png)
面向数据中心的高效 AI 开发流程
在Vitis AI 2.0中,我们首次增加了“全图形优化器 (WeGO)”这一功能,并在开发者群体中获得了积极的反馈。通过将Vitis AI 堆栈与主流AI框架的集成,WeGO 提供了在云端深度学习处理器单元 (DPU) 上部署 AI 模型的一套便捷的方案。
在Vitis AI 2.5 中,WeGO 支持了 Pytorch 和 Tensorflow 2 等更多种框架。Vitis AI 2.5 版还新增了图像分类、目标检测和分割等 19 个示例,诣在帮助用户在数据中心平台上更顺利地部署 AI 模型。
![](http://xilinx.eetrend.com/files/2022-06/wen_zhang_/100561310-257969-2.png)
更加优化的深度学习处理器单元和软件工具
AMD-赛灵思平台上卓越的 AI 加速性能离不开一系列强大的加速引擎和易于使用的软件工具。目前我们向主要的FPGA、自适应 SoC、Versal ACAP 以及 Alveo™ 数据中心加速器卡提供可扩展的 DPU。
随着 Vitis AI 2.5 的发布,Versal DPU IP 可支持 Versal AI Core 系列器件上的多个计算单元模式(Multiple compute unit),增加了由新的算术逻辑单元 (ALU) 实现的 Pool 引擎和 Depthwise 卷积引擎,支持大内核尺寸 MaxPool、AveragePool、AveragePool 和 16 位常数权重等新功能。
除此以外,DPU IP 现在还支持更多的网络层组合,如 Depthwise 卷积结合LeakyRelu等模式。
数据中心端 DPU 新增支持更大内核尺寸的 Depthwise 卷积、更大内核尺寸的Pooling、和基于 AI 引擎(AI Engine)的Pooling等。
了解更多
本文仅简要讲解了 Vitis AI 2.5 的主要功能。有关 Vitis AI 2.5的完整介绍,请访问 Vitis AI 2.5 更新。
https://china.xilinx.com/products/design-tools/vitis/vitis-ai-whats-new....
进一步了解 AI 模型库、量化器、优化器、编译器、DPU IP、WeGO 以及整个应用加速 (WAA),请访问 Vitis AI 页面。
https://china.xilinx.com/products/design-tools/vitis/vitis-ai.html
即刻访问 Vitis AI GitHub 页面,可获得试用所需的最新工具和镜像!
https://github.com/Xilinx/Vitis-AI