跳转到主要内容
FPGA 开发圈
Toggle navigation
新闻
视频
技术文章
博客
下载中心
活动
登录
注册
热点专题
AI推理FPGA技术专题
随着大模型应用加速落地,AI计算正从以训练为核心,快速转向规模化推理阶段。相比GPU与ASIC,FPGA凭借可重构架构、低延迟处理能力以及出色的能效比,正在成为数据中心与边缘计算场景中AI推理的重要技术路径。本专题将系统梳理FPGA在AI推理领域的关键技术进展,包括可重构计算架构、低精度算子优化、推理编译工具链以及软硬协同设计方法,并结合产业实践,分析FPGA在大模型推理、实时视觉处理和高吞吐数据流计算中的应用潜力与挑战。
精彩推荐
GPU推理利⽤率不⾜10%?FPGA如何破解⼤模型推理困局
今天我们用技术视角深度解读:为什么FPGA能做到这些?GPU在LLM推理上遇到了哪些系统性问题?
大模型推理延迟太高?试试基于 FPGA 的 Llama 3.1 8B 推理方案
Achronix 正式推出基于 FPGA 架构的 VectorPath 815 AI 推理设备,专为低延迟场景优化 Llama 3.1 8B 模型推理。
别只盯着H100了:这家西雅图初创公司想用FPGA把AI推理成本打下来50倍
在硅谷,几乎每周都有新的AI芯片故事上演。但今天这家刚结束隐身期的公司,讲的故事有点“反直觉”。
端侧推理:FPGA正崛起为“非GPU”阵营的中坚力量
随着AI应用的迅猛发展,端侧推理正受到前所未有的关注。与数据中心对极致吞吐的追求不同,端侧推理更聚焦于低延迟、低功耗与高可靠性
FINN:FPGA AI 推理新范式 —— 定制化、高性能、量化神经网络编译器框架
FINN 是一个由 Xilinx(现 AMD Research)集成通信与 AI 实验室开源的机器学习框架,它提供了一个端到端的方案,用于探索和实现 量化神经网络(QNN)在 FPGA 上的高效推理加速器
破解 AI 推理瓶颈:AMD 收购 MK1,瞄准企业级算力短板
在 AI 大模型时代,训练算力固然重要,但 真正掣肘产业落地的往往是推理环节。企业每天处理海量请求,低延迟、高吞吐、成本可控的推理系统,才是 AI 商业化落地的关键。