破解 AI 推理瓶颈:AMD 收购 MK1,瞄准企业级算力短板

作者:电子创新网编辑部

在 AI 大模型时代,训练算力固然重要,但 真正掣肘产业落地的往往是推理环节。企业每天处理海量请求,低延迟、高吞吐、成本可控的推理系统,才是 AI 商业化落地的关键。然而,当前市场上存在三大痛点:

  1. 算力利用效率低:大多数 GPU 虽然在训练阶段表现强劲,但在推理阶段,低吞吐和冗余计算导致能耗高、成本昂贵。

  2. 软硬件生态割裂:推理软件与底层硬件兼容性差,企业部署复杂,迁移成本高,尤其是非 NVIDIA 平台的企业。

  3. 端到端解决方案缺失:从训练到推理的闭环不完整,企业需要多套工具链协同工作,难以快速上线大模型服务。

一. MK1 的 Flywheel:直击行业痛点

AMD 在 2025 年 11 月收购的 AI 初创公司 MK1,正是为了直击这些痛点。其核心产品 Flywheel 技术,专为推理而生,能够每天处理超过 1 万亿 token,通过以下方式解决痛点:

  • 低延迟高吞吐:通过动态 token 调度和流水线处理,充分利用 AMD Instinct GPU 的高带宽内存,实现实时推理。

  • 软硬件协同优化:Flywheel 可深度绑定 ROCm SDK 和 Instinct MI300X 平台,减少冗余计算,提高每 token 的能效比。

  • 企业级部署友好:兼容多框架(PyTorch、JAX 等),支持多租户和流式推理,为金融、医疗、客服等行业提供可追溯、可管理的 AI 服务。

这一设计不仅提升推理效率,更有效降低企业部署成本,直接回应了行业对 高性能、低成本、易部署推理平台 的刚性需求。

二. AMD 的战略考量:软硬件协同的非 NVIDIA 路径

收购 MK1,并非孤立事件,而是 AMD 端到端 AI 战略的重要落子

  • 在硬件端,Instinct MI300X 与高带宽内存(HBM3)为推理提供基础算力保障;

  • 在软件端,ROCm 6 与开放式 AI SDK 形成开发闭环;

  • Flywheel 的加入,实现训练到推理的 全链条优化,真正做到软硬件协同。

可以说,AMD 的目标是建立一个 企业可用、生态开放、非 NVIDIA 的 AI 推理解决方案,为市场提供更多选择,打破单一生态垄断。

三. 产业视野:推理是下一个竞争制高点

随着大模型落地规模化,推理环节的效率直接影响企业成本、用户体验和产品迭代速度。AMD 通过整合 MK1 技术,正在形成一个 高性能、低功耗、可扩展的推理平台,具备以下产业意义:

  1. 推动推理生态多元化:不再只有 NVIDIA 独占市场,企业有了更多可选方案;

  2. 降低部署门槛:Flywheel 与 ROCm 的结合,减少迁移成本,提升企业部署效率;

  3. 驱动行业创新:金融、医疗、客服等行业可在本地部署高效推理服务,加速 AI 商业化落地。

可以预见,未来 AI 推理将成为硬件厂商的新竞争制高点,而 AMD 正在用软硬件一体化战略抢占这一赛道。

四. 结语:从训练算力到推理智能化,产业变革已来

过去两年,AI 行业热衷于“谁的训练算力更强”,但真正推动产业落地的,是高效可控的推理能力。AMD 收购 MK1,不只是一次技术整合,更是一场面向企业级应用的 产业级布局:它回应了行业痛点,补齐了非 NVIDIA 推理生态的短板,也为 AI 商业化提供了可复制的模板。

推理,将成为下一轮 AI 竞争的核心,而 AMD 正在引领这场变革。

* 本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利