作者:电子创新网编辑部
在过去二十多年里,FPGA 一直处在一个略显尴尬的位置:它比 ASIC 灵活,却不够高效;比 GPU 可定制,却更难开发。因此,FPGA 长期被贴上两个标签:“工程师的工具”,以及“原型验证的平台”。
然而,随着 AI 进入 EDA、编译器和系统设计工具链,这个格局正在发生变化。过去那些高度依赖专家经验的环节——从 RTL 编写到系统级优化——开始出现新的自动化路径。
这并不意味着 FPGA 设计会变简单,但一个更重要的变化正在发生:FPGA 的设计方式,正在从“硬件工程”逐渐转向“软件编译”。而这背后,是 AI 正在悄悄重写可编程逻辑的设计规则。
在芯片世界里,FPGA 的价值一直来自一个简单事实:现实世界变化太快,而 ASIC 的生命周期太长。
在一些典型行业里,需求几乎是持续变化的:
5G / 6G 通信协议持续演进
自动驾驶算法不断更新
AI 推理模型每年都在变化
医疗设备和生命科学算法迭代迅速
在这种环境下,FPGA 提供了一种独特能力:硬件级可重构计算。
FPGA 本质上是一块“未定义”的计算织构(fabric)。工程师可以把任何逻辑编译进去——数据路径、加速器、接口协议,甚至完整的计算架构。
正因为如此,在很多系统架构中,FPGA 更像是一个 “可编程硬件缓冲层”:
ASIC 负责效率
CPU/GPU 负责通用计算
FPGA 负责适应变化
这种架构在数据中心、通信基站、自动驾驶以及高端仪器设备中已经非常普遍。
但问题同样明显:FPGA 的开发门槛一直很高。
从技术上讲,设计一颗 FPGA 并不是不可逾越的难题。真正复杂的是:如何把软件工作负载转化为 FPGA 上的硬件结构。
这一过程通常涉及:
RTL 描述(Verilog / VHDL)
综合(synthesis)
布局布线(place & route)
时序收敛(timing closure)
功耗与面积优化
每一步都需要大量工程经验。因此,FPGA 行业长期存在一个事实:芯片公司之间最大的差距,不在硅片,而在工具链。
无论是 AMD 旗下的 Xilinx,还是 Intel 剥离后的 Altera,其核心竞争力很大程度上来自:
编译器
设计工具
软件生态
因为最终决定 FPGA 易用性的,并不是逻辑单元数量,而是:开发者是否能把算法顺利“编译”进去。
而正是在这一点上,AI 开始发挥作用。
一.AI 正在进入 FPGA 编译器
近年来,AI 在 EDA 领域的应用开始加速。
最早的应用主要集中在 布局布线优化,例如:
时序预测
拥塞分析
功耗优化
但现在,AI 的作用开始前移。
一些新的工具尝试通过机器学习完成以下工作:
从高层代码推断硬件结构
自动生成 RTL
自动优化流水线
自动完成时序收敛
换句话说,AI 不只是帮助优化设计,而是开始参与 设计生成本身。
一些初创公司甚至提出了一个更激进的方向:AI 编译器。
在这种模式下,开发者只需要提供:
高层代码
算法描述
或自然语言需求
系统就能自动生成适合 FPGA 的硬件实现。
尽管这一目标仍然处在早期阶段,但其意义非常明确:FPGA 正在从“硬件设计问题”,变成“编译问题”。
二. 软件工程师正在进入 FPGA 世界
过去很长时间里,FPGA 开发几乎完全属于硬件工程师。
原因很简单:
开发语言是 Verilog 和 VHDL。
但随着 高层综合(HLS) 技术的发展,情况开始变化。
现在,越来越多工具允许工程师使用:
C
C++
Python
来描述算法,然后编译到 FPGA。
这使得 FPGA 逐渐接近软件开发模式。
未来一个理想的开发流程可能是这样的:
工程师写一段程序,然后决定:
编译到 CPU
编译到 GPU
编译到 FPGA
在这种模式下,FPGA 不再是一种特殊硬件,而成为 计算资源的一种类型。
三.AI 时代,FPGA 的价值反而更加突出
一个看似矛盾的现象正在出现:
AI 模型越复杂,可编程硬件反而越重要。
原因有三个。
1. 模型变化速度太快
AI 模型生命周期非常短。几年前主流模型还是 CNN,今天则几乎全部转向 Transformer。未来仍然可能发生变化。对于很多系统来说,使用固定 ASIC 的风险越来越高。而 FPGA 提供了一种缓冲机制:模型变了,重新编译即可。
2. 数据路径越来越复杂
AI 系统不仅是矩阵乘法。在实际系统中,还包含大量数据处理:
预处理
数据压缩
网络协议
内存调度
这些任务往往更适合 FPGA。
3. 边缘计算需要确定性延迟
在自动驾驶、工业控制、通信设备等场景中:延迟必须是确定性的。GPU 很难提供这种特性,而 FPGA 天然具备优势。
四. 另一场变化:模拟与数字设计开始融合
AI 带来的影响不仅体现在数字设计。在很多系统中,DSP 和模拟电路之间的边界正在模糊。
例如在视觉、雷达或音频系统中:
工程师需要决定:
使用更高精度 ADC
还是使用低精度 ADC + DSP 算法补偿
机器学习可以通过分析模拟仿真数据,自动优化 DSP 算法。
这种 混合信号协同设计 正在成为新的研究热点。
五. 软件优先时代:Memory Compiler 的重要性上升
AI 时代还有一个明显趋势:芯片设计开始软件优先。
过去,芯片架构通常由硬件工程师主导。但现在,很多架构设计首先考虑的是:
AI 算法
数据结构
数据访问模式
随后才是硬件实现。这使得 Memory Compiler 变得越来越重要。
因为 AI 工作负载通常具有:
大规模数据访问
并行读写
稀疏数据结构
新的内存编译器需要支持更灵活的架构配置。
六. FPGA 的未来:平台型硬件
随着 AI 和软件工具不断进化,FPGA 的角色也在变化。它正在从一种 加速器,转变为 平台硬件。
在未来系统中,计算架构可能会呈现这样的分层:
CPU:控制与通用计算
GPU:大规模并行计算
ASIC:极致效率任务
FPGA:可重构数据路径
系统架构师首先要做的事情,是把整个系统拆分成不同工作负载,然后选择最适合的计算单元。在这个过程中,FPGA 的价值不再只是性能,而是:降低技术路线的不确定性。
结语
在很长时间里,FPGA 被认为是一种“工程师友好、开发者不友好”的硬件。但随着 AI、EDA 和编译器技术的进步,这一局面正在改变。
未来 FPGA 的关键不再只是逻辑资源规模,而是:开发效率。
如果 AI 能够真正把 FPGA 设计从 RTL 层抽象出来,那么可编程逻辑可能会迎来一个新的时代。
届时,硬件和软件之间那条清晰的边界,也许真的会消失。而 FPGA,可能会成为这场变革的核心节点。
* 本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利