本文转载自: OpenFPGA微信公众号
目前商用领域的成像系统还是以嵌入式ASIC为主(成品时间快,性价比高),对于一些军工、医学等特殊领域还是以FPGA为主,在特殊领域里延迟是最先考虑的问题(成本不是主要问题),所以今天介绍一下使用FPGA实现低延迟的成像系统,这里说明一下,整个系统调试比较麻烦(和sensor有关),很大可能调试不出图像,所以大家只需要知道有这个架构即可,有需求可以自己调试。
低延迟架构
我们这次使用的是AMD-Xilinx FPGA,大部分的图像处理都有IP可以使用,在官方文档中有相关的架构,具体如下:
上面的架构是比较通用的架构,官方也有例程可以参考,但是上面架构多了一个VDMA,这就导致视频传输的时候有1到几帧的延迟,这对于低延迟、高分辨率的情形肯定是不能容忍的。所以官方对于特殊情况建议使用下面的架构:
去掉了VDMA,但是对于时钟系统要去更高,对于视频输入输出在不同时钟域情况下是使用不了的,所以整体要求比较高。但是砍掉了VDMA和DDR,所以整体成本会低很多。关于没有VDMA情况下的各个IP的设置及测试可以看下面的文章《不使用VDMA情况下使用AXI4总线实现视频输入输出(低延迟首选)》。
FPGA系统架构设计
我们还是参考上面的架构来设计我们的系统。
当我们与图像sensor对接时,我们通常会以不同的格式接收图像,例如 MIPI 、并行接口,在我们接收视频之前,我们需要先配置sensor按照我们的需求运行。通常,sensor需要通过 I2C 或 SPI 进行配置。
这次演示的平台:
sensor 的接口非常简单,可以分为视频接口和配置接口(IIC)。
该解决方案的架构如下:软核处理器(MicroBlaze)通过 I2C 配置sensor。虽然图像处理路径将在 FPGA 中实现,但由于这是一种低成本应用,该解决方案不会使用 DDR 存储器中实现外部帧缓冲区,而是图像处理流水线将完全在 FPGA 中实现。
Sensor中由于我们配置的是RAW数据,所以还需要使用Sensor Demosaic和Gamma(基本成像IP)IP。
该设计还将使用软核处理器来控制视频时序和图像处理路径的其他相关配置任务。
Vivado 工程构建
搭建MicroBlaze 系统
这一部分比较简单,可以看看之前的文章《【Vivado那些事儿】MicroBlaze最小系统搭建及程序固化》
添加其他IP
整个系统需要的IP主要如下:
添加完后就可以连线了,完整的框图应如下所示。完整的工程在文章最后给出。
在 AXI Stream 中,使用 TUser 指示帧的开始,使用 TLast 指示行的结束。
IP的关键设置
Video to AXIS
Sensor Demosaic
AXI IIC 设置
其他IP可以查看文章最后的工程查看。
资源使用率
在Arty S7-50 的总利用率如下所示。
SDK 中编写软件
生成 Vivado 硬件后,下一步就是编写应用软件,用于配置sensor和视频处理IP核。
因此,软件中将执行以下操作:
初始化相机后,我们将能够在 ILA 上看到视频流。
调试过程中测量的FPGA和sensor之间的 I2C 通信信号。
使用 AXI UART 调试软件:
一旦相机初始化,我们可以使用 ILA 采集信号:
上图显示了 1280 像素的线宽。
AXI Stream 是一种单向总线,用于将数据从主机传输到从机,作为数据流,它不包含地址通道。为了通过 AXI 流控制流和传递视频时序信息,我们使用了以下信号:
由于我们没有 使用VDMA,所以 AXIS 流上的视频输出是一个连续块,并且 TValid 在活动像素周期内不会断言和取消断言。
我们可以通过使用图像处理链的像素时钟来确保 Tvalid 是连续的。
软件部分还是参考最后的工程吧,除了sensor需要单独编写,其他都是由SDK自带的例程修改而来。
参考
https://www.hackster.io/adam-taylor/creating-an-fpga-based-low-cost-imag...
https://mp.weixin.qq.com/s/O8RvBc5BjnF-rTZHUHbEnA
总结
虽然上面的架构和最后的设计比较简单,但是调试起来还是很难得,只不过我写的比较简单,一旦出不来视频,重点按照最开始官方架构检查PCLK。
该工程主要参考架构和架构中时钟域的处理,注意pCLK(像素时钟)和ACLK的走向。
示例工程
https://github.com/ATaylorCEngFIET/Hackster/tree/master/s7_tdm114