即将举办Instinct MI300加速器发布会的处理器大厂AMD,在MI300系列AI加速卡将有望成为英伟达、Google在TPU于LLM(大语言模型)推理中的唯一竞争对手的情况下,为了达成这一目标,AMD一直在大力投资他们自己的RoCM软件、PyTorch生态系统和OpenAI的Triton。
据semianalysis报道,微软、Meta、甲骨文、Google、Supermicro/Qunta-direct、亚马逊等公司已经向 AMD 下了不同数量的MI300系列订单。值得注意的是,在不久前的财报会议上,AMD执行长苏姿丰表示,就AMD在人工智能路线执行和云计算客户承诺购买方面获得快速进展,预计随着全年营收的增加,数据中心GPU的营收在2023年第四季度将达到约4亿美元,2024年将超过20亿美元。这一增长将使MI300系列成为AMD历史上营收最快增长至10亿美元的产品。
报导指出,因为AMD MI300系列的复杂供应链,当它在台积电开始生产晶圆的那一刻起,AMD大约还需要7个月的时间才能拥有整合了8个MI300X GPU的AMD Instinct平台的服务器主板。而目前AMD在LLM训练和推理方面的份额低于0.1%,所以AMD在数据中心的市占率将继续稳步成长,这种情况将持续到2024年年中Turin和Turin-Dense平台的推出。
另外,AMD自2024年从MI300系列获得10亿美元收入的前提,是基于可以确保稳定的供应链,以及主要客户订购的数量。其中,在供应方面,人工智能加速器模型以内存制造商、CoWoS数量、封装产量等计算了HBM数量,用于使用CoWoS生产的每种AI加速器。
需要注意的是,台积电N5/N6制程晶圆生产、SoIC晶圆生产、CoWoS晶圆生产、GPU封装/测试和AMD Instinct平台主板生产方面仍存在瓶颈,特别是由于HBM和CoWoS的供应限制。因此,订单是很早之前下的,以确保在数个月之后达到所需要的交付数量。
另一面,微软、Meta、甲骨文、Google、Supermicro/Qunta-direct和亚马逊是AMD MI300系列订单的主要客户,但也有一些订单来自供应链的其他部分。将这些因素结合在一起,预计AMD在2024年三季度之前将一直受到供应限制,之后在第四季度达到满足的情况。
文章来源:科技新报