助力 AI 和 HPC 计算的未来发展
AI 和高性能计算 (HPC) 不断给各行各业带来重大改变,为自动化和更好的决策提供有力支持,也开启了推出新产品和新服务的可能性。几乎在每一个领域、每一个行业,都有新的机遇涌现,带来了提高生产力、改善业务成果、迈向更光明的未来的期许。
但对计算的无尽需求促使人们需要更强大的硬件。为了交付生成式 AI 和机器学习需要的算力水平,满足数以百万计用户的需求,更多的企业在构建庞大的系统,而此举引发了对于效率和空间的顾虑——客户要如何配置需要大量组件、大量系统和可观能耗的解决方案?
对于力求在业务中利用 AI 和 HPC 的客户,AMD Instinct 加速器可以应对这方面的诉求,提供卓越的性能,而不会造成服务器尺寸或能耗大幅度增加,让架构革新和产品创新得以实现。AMD 非常高兴地宣布,AMD Instinct MI300X 加速器正式发布 – 这款 GPU 产品能提供客户所需的算力,能够满足要求极其严苛的 AI 和 HPC 工作负载的需求——无论其面向哪个行业。
为 AI 和 HPC 加速,迈进“百亿亿级计算”时代
AMD Instinct 加速器基于 AMD CDNA 架构,为现代企业重新定义了计算。此产品从设计之初便考虑到了“百亿亿级计算”时代的需要,相较于上一代基于 GCN 的产品(例如 AMD Radeon Instinct 产品),能带来巨大的性能提升。1 如今,使用新一代的 AMD Instinct 产品,这种性能飞跃将进一步得到加强。
AMD Instinct MI300 系列加速器的设计采用第 3 代 AMD CDNA 架构,于今年早些时候公布,当时发布了 AMD Instinct MI300A APU 加速器(创新的 AI 和 HPC 工作负载专用 APU)。作为一款能实现突破性密度和效率的强大加速器,AMD Instinct MI300A 加速器将 CPU、GPU 和高带宽显存 (HBM3) 整合到一个 APU 上,可灵活应对多种得益于加速硬件的尖端工作负载,并提供卓越性能。
随着 AI 潜在应用领域和需求的不断增长,AMD Instinct MI300X GPU 加速器将与市面上现有的 AMD 产品强势联合,提供客户追求的出色性能水平。AMD Instinct MI300X 加速器仅关注提供原生 GPU 算力,而非 CPU 核心数,可将多达 8 个 GPU 整合到一个节点上。结果如何?优异的显存带宽加持下,拥有惊人性能和 HBM3 显存容量,加速成熟的 HPC 工作负载和近期生成式 AI 计算需求的爆炸式增长,助力这些领域达到新高度。2
AMD Instinct MI300X 加速器提供 192GB 的 HBM3 显存,峰值显存带宽可达到 5.3 TB/秒。2
大规模高效计算
随着 AI 工作负载的扩展,为其提供支持的硬件必须跟上这样的步调。企业纷纷为满足需求而扩大规模,这让空间成为首要考虑事项,也是客户必须克服的瓶颈问题。
考虑到这方面的诉求,AMD Instinct MI300X 加速器提供了采用 UBB 业界标准 OCP 平台设计的普适性解决方案,支持客户将 8 个 GPU 整合为一个性能主导型节点,并且具有全互联式点对点环形设计,单一平台内的 HBM3 显存总计可达到 1.5 TB——提供足以应对各类 AI 或 HPC 工作负载部署的性能密集型解决方案。
AMD ROCm:拥有广阔 AI 应用前景的开放软件平台
AMD ROCm 是一款面向 GPU 计算的开放软件平台,能让客户摆脱供应商束缚,不受制于单一供应商的有限选择。借助开放、可移植的软件平台,客户可以获得架构灵活性,以及更充分地利用其硬件的自由度。
AMD 精心打造 AMD MI300X 加速器等创新产品,积极帮助客户在 AI 领域中开辟新的可能性并取得进展。AMD Instinct 加速器拥有开放的生态系统,专为服务器用户而打造、阵容日渐壮大的强大产品,以及通过专用和高适应性的架构量身定制的解决方案,欢迎进一步了解。即刻解锁 AI 和高性能计算领域的全新可能性。