使用Caffe模型+DPU进行实时人脸检测:Vitis-AI 3.0的非官方支持流程

作者:Shaoyi Chen,AMD工程师;来源:AMD开发者社区

近年来,深度学习框架的快速发展使得人工智能应用领域取得了巨大的进步。其中,Caffe框架以其简单易用、高效快速的特点受到了广泛关注和应用。然而,随着Vitis-AI 2.0的推出,Caffe框架的支持也宣告结束,这引起了许多开发者的关注和讨论。

Caffe框架的简介

首先,让我们简要介绍一下Caffe框架。Caffe是由伯克利视觉与学习中心(Berkeley Vision and Learning Center)开发的一个深度学习框架,以其速度快、配置简单、易于扩展等特点而广受欢迎。其采用了C++语言编写,支持命令行界面和Python接口,使得用户可以轻松地定义、训练和部署各种深度学习模型。

Vitis-AI 2.0之后对Caffe的支持终止

然而,随着Xilinx推出Vitis-AI 2.0,Caffe框架的支持也随之终止。这一决定引起了广泛的讨论和反响。一些开发者表示担忧,担心他们之前基于Caffe框架开发的项目将受到影响,而另一些人则认为这是迈向更先进、更高效的深度学习框架的必然选择。

Model Zoo中的训练好的模型

尽管Caffe框架的支持终止了,但在其官方的Model Zoo中仍然存在大量经过训练的模型,涵盖了各种各样的应用场景,如图像分类、目标检测、语义分割等。这些预训练的模型可以为开发者提供便利,节省大量的训练时间和资源,使得他们能够更快地搭建和部署深度学习模型。

Vitis-AI 3.0对Caffe模型的非官方支持

尽管在Vitis-AI 3.0中官方已经不再支持Caffe框架,但开发者仍然可以继续使用这些Caffe模型。虽然这并不是官方支持的流程,但通过一些额外的工作,开发者仍然可以成功地在Vitis-AI 3.0中调用和部署这些模型。

通过人脸检测实验展示如何调用Caffe模型

为了更具体地展示如何在Vitis-AI 3.0中调用Caffe模型,我们将进行一个简单的人脸检测实验。首先,我们需要选择一个合适的Caffe模型,如densebox320人脸检测模型。然后,我们需要将该模型转换成Vitis-AI 3.0支持的格式,并对其进行部署和调用。最后,我们可以通过USB摄像头输入一张人脸图像,观察模型的输出结果,验证其在人脸检测任务上的性能和准确性。

在代码中我们创建DPU runner,从摄像头读取图像并用DPU进行推理计算,然后进行后处理,并通过X11转发画面。

def detect():

    resolution = 4

    threshold = 0.9

    nms_threshold = 0.3   

 

    g = xir.Graph.deserialize("../densebox320/densebox320.xmodel")

    subgraphs = get_child_subgraph_dpu(g)

    assert len(subgraphs) == 1  # only one DPU kernel   

    dpu_runner = vart.Runner.create_runner(subgraphs[0], "run")

 

    camera = cv2.VideoCapture(0)

    width = 640

    height = 360

    camera.set(cv2.CAP_PROP_FRAME_WIDTH,width)

    camera.set(cv2.CAP_PROP_FRAME_HEIGHT,height)

 

    while True:

        (grabbed, image_ori) = camera.read()

 

        imagePad = padProcess(image_ori)

        image = cv2.resize(imagePad,(32*int(320/32), 32*int(320/32)), interpolation = cv2.INTER_CUBIC)

        szs = (float(imagePad.shape[0])/float(image.shape[0]), float(imagePad.shape[1])/float(image.shape[1]))

        sz = image.shape

        image = image.astype(np.float)

        image = image - 128

        # image = np.transpose(image, (2, 0, 1))

        output = rundensebox(image, dpu_runner)

 

        # generate result

        prob = output[1][0, ..., 1]

        bb = output[0][0, ...]

        bb = np.transpose(bb, (2, 0, 1))

        gy = np.arange(0, sz[0], resolution)

        gx = np.arange(0, sz[1], resolution)

        [x, y] = np.meshgrid(gx, gy)

        bb[0, :, :] = bb[0, :, :] + x

        bb[0, :, :] = bb[0, :, :] * szs[1]

        bb[1, :, :] = bb[1, :, :] + y

        bb[1, :, :] = bb[1, :, :] * szs[0]

        bb[2, :, :] = bb[2, :, :] + x

        bb[2, :, :] = bb[2, :, :] * szs[1]

        bb[3, :, :] = bb[3, :, :] + y

        bb[3, :, :] = bb[3, :, :] * szs[0]

        bb = np.reshape(bb, (4, -1)).T

        prob = np.reshape(prob, (-1, 1))

        bb = bb[prob.ravel() > threshold, :]

        prob = prob[prob.ravel() > threshold, :]

        # nms

        rects = np.hstack((bb, prob))

        keep = nms(rects, nms_threshold)

        rects = rects[keep, :]

        # write result to file

        for rect in rects:

            cv2.rectangle(image_ori,(int(rect[0]),int(rect[1])),(int(rect[2]),int(rect[3])),(0,255,0),3)

        cv2.imshow("img", image_ori)

 

    camera.release()

    cv2.destroyAllWindows()

DPU的调用由rundensebox来执行。

def rundensebox(img, dpu_runner):

    """get tensor"""

    inputTensors = dpu_runner.get_input_tensors()

    outputTensors = dpu_runner.get_output_tensors() 

    input_ndim = tuple(inputTensors[0].dims)

    # print(input_ndim)

    input_fixpos = inputTensors[0].get_attr("fix_point")

    input_scale = 2**input_fixpos

 

    output_ndim_0 = tuple(outputTensors[0].dims) 

    # print(output_ndim_0)

    output_ndim_1 = tuple(outputTensors[1].dims)

    # print(output_ndim_1) 

    output_fixpos_0 = outputTensors[0].get_attr("fix_point")

    output_scale_0 = 1 / (2**output_fixpos_0)

    output_fixpos_1 = outputTensors[1].get_attr("fix_point")

    output_scale_1 = 1 / (2**output_fixpos_1)

 

    imgquant = img * input_scale

 

    runSize = input_ndim[0]

    """prepare batch input/output """

    inputData = [np.empty(input_ndim, dtype=np.int8, order="C")]

    outputData = [np.empty(output_ndim_0, dtype=np.int8, order="C"),

                np.empty(output_ndim_1, dtype=np.int8, order="C")]   

 

    """init input image to input buffer """

    imageRun = inputData[0]

    imageRun[0, ...] = imgquant.reshape(input_ndim[1:])

   

    """run with batch """

    job_id = dpu_runner.execute_async(inputData, outputData)

    dpu_runner.wait(job_id)   

 

    result = [outputData[0] * output_scale_0,

              outputData[1] * output_scale_1]

 

    return result

最后的显示结果如图所示。

人脸检测.png

结语

尽管Caffe框架在Vitis-AI 2.0之后的支持已经终止,但在Vitis-AI 3.0中仍然可以继续使用这些经过训练的Caffe模型。通过一些额外的工作和非官方的支持流程,开发者仍然可以成功地调用和部署这些模型,为各种应用场景提供强大的深度学习解决方案。

最新文章

最新文章