据Digitimes陈玉娟台北报道,AMD CEO苏姿丰在参加Innovation Day与供应链及客户会面并讨论AMD未来战略及市场展望时透露,AMD在服务器市占饭馆,已从零成长到目前超过25%份额,另外,AMD也将在第4季推出MI300系列应战。
苏姿丰表示,超微仰赖且与台积电合作关係紧密,运用了台积电最佳技术来发展超微产品,尤其MI 300系列是全球设计与生产複杂度最高的晶片,如果没有台积电就没办法推出,未来会与台积电持续紧密合作。
报道称AMD 2019年在台积电助攻下,服务器等各平台效能、良率与面市时程均较过去大幅改善,加上英特尔(Intel)因制程延迟,缺货问题仍未解决,供应链纷转向超微拉货。
AMD服务器平台主打高性价比,市场接受度不断增强,市佔由零到目前近2成,且持续拉升中,NB、DT平台版图也不断扩张,成功打破英特尔几乎独大的地位,市场认为除了超微的技术与策略强化外,另一关键是7奈米以下先进制程的合作伙伴选择了台积电。
今年6月,在AMD "数据中心和人工智能技术首发式上,AMD发布了性能震撼的服务器和人工智能加速器新品,号将重塑未来计算推动下一代数据中心创新。在加州旧金山举行的数据中心和人工智能技术首发式上AMD分享了有关其Instinct MI300A处理器的更多细节,该处理器的特点是在同一封装上使用HBM的3D堆叠CPU和GPU核心,以及一个新的仅有GPU的MI300X模型,该模型将8个加速器放在一个平台上,拥有1.5TB HBM3内存。
在今年CES发布的Instinct MI300A是一个数据中心APU,它混合了总共13个芯片,其中许多是3D堆叠的,以创建一个单一的芯片包,其中有24个Zen 4 CPU核心,融合了CDNA 3图形引擎和八个堆叠的HBM3内存,总计128GB。该芯片有1460亿个晶体管,使其成为AMD已投入生产的最大芯片。九个计算芯片,混合了5纳米的CPU和GPU,在四个6纳米衬底芯片上进行3D堆叠。
AMD还发布了一款Instinct MI300A的衍生版本--纯GPU的MI300X。它为大型语言模型(LLM)进行了优化,它搭配192GB HBM3内存。该芯片能够运行高达800亿个参数的大模型应用,AMD称这是单一GPU的记录。该芯片在八个通道上提供5.2TB/s的内存带宽和896GB/s的Infinity Fabric带宽。MI300X比Nvidia H100提供2.4倍的HBM密度,比H100提供1.6倍的HBM带宽,这意味着AMD可以比Nvidia的芯片运行更大的模型。
据AMD介绍,通过并行方式,将多颗MI300X级联可以支持更多参数运行!目前虽然NVIDIA在AI GPU领域几乎拿下9成份额但是AMD已经发出了冲锋的号角,将在这个领域和NVIDIA正面硬刚,不过,NVIDIA凭借其CUDA生态可以高筑护城河,但是AMD也已经在生态发力,AMD总裁Victor peng在当天的发布上展示了用于数据中心加速器的ROCm™软件生态系统,强调了与行业领先者的合作,打造一个开放的AI 生态,这位赛灵思前CEO在赛灵思被AMD收购后担任了AMD总裁,负责AMD自适应和嵌入式产品,这次他介绍了AMD在AI方面的产品和生态布局。他还展示了用于数据中心加速器的ROCm™软件生态系统,强调了与行业领先者的合作,建立一个开放的AI生态。