0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于RV1126开发板的resnet50训练部署教程

广州灵眸科技有限公司 ? 2025-04-18 15:07 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

1. Resnet50简介

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。 残差网络的特点是容易优化,并且能够通过增加相当的深度来提高准确率。其内部的残差块使用了跳跃连接,缓解了在深度神经网络中增加深度带来的梯度消失问题。

教程基于图像分类算法ResNet50的训练和部署到EASY-EAI-Nano(RV1126)进行说明。

wKgZPGgB-kuALz0qAAAoaKA2oe4339.png

2. 准备数据集

2.1 数据集下载

本教程以车辆分类算法为例

解压完成后得到以下两个文件夹:

wKgZO2gB-kuACCQFAAAcuI6vEaI413.png

打开可以看到一共10类汽车:

wKgZO2gB-kuACK4mAAA__DRjBiY505.png
类别名称类别索引
SUV0
BUS1
family sedan2
fire engine3
heavy truck4
jeep5
mini bus6
racing car7
taxi8
truck9

3. ResNet50图像分类训练

3.1 训练源码下载

得到下图所示目录:

wKgZPGgB-kuAXp1IAABEXvQrHgY157.png

把数据集解压到当前目录:

wKgZPGgB-kuAX7wxAABJZITknpk903.png

3.2 训练模型

进入anconda的pyTorch环境,切换到训练源码目录执行以下指令开始训练:

python train.py

执行结果如下图所示:

wKgZPGgB-kuAbKAsAADQ65sjoI4296.png

训练结束后test loss结果如下所示:

wKgZO2gB-kuANq-mAABfK06G61U746.png

训练结束后test accuracy结果如下所示:

wKgZO2gB-kuAeP8qAABvOCB5CoE487.png

生成的最优模型如下所示:

wKgZO2gB-kuAExPZAACYU9u1sUk675.png

3.3 在PC端测试模型

在训练源码目录执行以下指令,测试模型(生成模型名称不一致则修改predict.py脚本):

python predict.py

wKgZPGgB-kuAaIupAAA2R_WJU6g846.png

结果类别索引号为1——BUS, 测试结果正确。

3.4 pth模型转换为onnx模型

执行以下指令把pytorch的pth模型转换onxx模型:

python pth_to_onnx.py

wKgZPGgB-kuAPeG9AACvyuYWClo641.png

生成ONNX模型如下所示:

wKgZO2gB-kuAfNEMAAB2c1ZT1Nw116.png

4. rknn-toolkit模型转换

4.1 rknn-toolkit模型转换环境搭建

onnx模型需要转换为rknn模型才能在EASY-EAI-Nano运行,所以需要先搭建rknn-toolkit模型转换工具的环境。当然tensorflow、tensroflow lite、caffe、darknet等也是通过类似的方法进行模型转换,只是本教程onnx为例。

4.1.1 概述

模型转换环境搭建流程如下所示:

poYBAGO2lbOAEkkRAABVaQQIt48256.png

4.1.2 下载模型转换工具

为了保证模型转换工具顺利运行,请下载网盘里”AI算法开发/RKNN-Toolkit模型转换工具/rknn-toolkit-v1.7.3/docker/rknn-toolkit-1.7.3-docker.tar.gz”。

4.1.3 把工具移到ubuntu18.04

把下载完成的docker镜像移到我司的虚拟机ubuntu18.04的rknn-toolkit目录,如下图所示:

wKgZPGgB-kuALp24AABX1QyhA-s529.png

4.1.4 运行模型转换工具环境

在该目录打开终端:

wKgZO2gB-kyAAXtrAAC2zYJntHM282.png

执行以下指令加载模型转换工具docker镜像:

docker load --input /home/developer/rknn-toolkit/rknn-toolkit-1.7.3-docker.tar.gz

执行以下指令进入镜像bash环境:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb rknn-toolkit:1.7.3 /bin/bash

现象如下图所示:

wKgZPGgB-kyAKIUpAAB7xliyey8367.png

输入“python”加载python相关库,尝试加载rknn库,如下图环境测试成功:

wKgZO2gB-kyAIs8BAACpm7KDKWw612.png

至此,模型转换工具环境搭建完成。

4.2 模型转换为RKNN

EASY EAI Nano支持.rknn后缀的模型的评估及运行,对于常见的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通过我们提供的 toolkit 工具将其转换至 rknn 模型,而对于其他框架训练出来的模型,也可以先将其转至 onnx 模型再转换为 rknn 模型。 模型转换操作流程入下图所示:

pYYBAGO2lkmAX4YPAAD58DT6vJc166.png

4.2.1 模型转换Demo下载

resnet50_model_convert.tar.bz2quant_dataset.zip解压到虚拟机,如下图所示:

wKgZPGgB-kyAYTTNAAB8s_QfbS4954.png

4.2.2 进入模型转换工具docker环境

执行以下指令把工作区域映射进docker镜像,其中/home/developer/rknn-toolkit/model_convert_test为工作区域,/test为映射到docker镜像,/dev/bus/usb:/dev/bus/usb为映射usb到docker镜像:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit/model_convert_test:/test rknn-toolkit:1.7.3 /bin/bash

执行成功如下图所示:

wKgZPGgB-kyAXgd0AACDXi34wb8460.png

4.2.3 模型转换Demo目录介绍

模型转换测试Demo由resnet50_model_convertquant_dataset组成。resnet50_model_convert存放软件脚本,quant_dataset存放量化模型所需的数据。如下图所示:

wKgZPGgB-kyAYTTNAAB8s_QfbS4954.png

resnet50_model_convert文件夹存放以下内容,如下图所示:

wKgZPGgB-kyAKEDBAADoTTMOXxI250.png

4.2.4 生成量化图片列表

在docker环境切换到模型转换工作目录:

cd /test/resnet50_model_convert

如下图所示:

wKgZO2gB-kyAWNQ9AAB9-WP6FUA420.png

执行gen_list.py生成量化图片列表:

python gen_list.py

命令行现象如下图所示:

wKgZO2gB-kyAcciEAACb7G1bFOU508.png

生成“量化图片列表”如下文件夹所示:

wKgZPGgB-kyASpMkAADVBTk1w7c012.png

4.2.5 onnx模型转换为rknn模型

rknn_convert.py脚本默认进行int8量化操作,脚本代码清单如下所示:

import os import urllib import traceback import time import sys import numpy as np import cv2 from rknn.api import RKNN ONNX_MODEL = '10class_ResNet50.onnx' RKNN_MODEL = './10class_ResNet50.rknn' DATASET = './pic_path.txt' QUANTIZE_ON = True if __name__ == '__main__': # Create RKNN object rknn = RKNN(verbose=True) if not os.path.exists(ONNX_MODEL): print('model not exist') exit(-1) # pre-process config print('--> Config model') rknn.config(reorder_channel='0 1 2', mean_values=[[123.67, 116.28,103.53]], std_values=[[58.395, 57.12, 57.375]], optimization_level=3, target_platform = 'rv1126', output_optimize=1, quantize_input_node=QUANTIZE_ON) print('done') # Load ONNX model print('--> Loading model') ret = rknn.load_onnx(model=ONNX_MODEL) if ret != 0: print('Load failed!') exit(ret) print('done') # Build model print('--> Building model') ret = rknn.build(do_quantization=QUANTIZE_ON, dataset=DATASET) if ret != 0: print('Build resnet failed!') exit(ret) print('done') # Export RKNN model print('--> Export RKNN model') ret = rknn.export_rknn(RKNN_MODEL) if ret != 0: print('Export resnet failed!') exit(ret) print('done')

把onnx模型10class_ResNet50.onnx放到resnet50_model_convert目录,并执行rknn_convert.py脚本进行模型转换:

python rknn_convert.py

生成模型如下图所示,此模型可以在rknn-toolkit环境和EASY EAI Nano环境运行:

wKgZPGgB-k2AFFZ7AAJwvwioU4U194.png

4.2.6 运行rknn模型

predict.py脚本在PC端的环境下可以运行rknn的模型,如下图所示:

wKgZO2gB-kyALqbqAAC_ryi8Pu4460.png

predict.py脚本程序清单如下所示:

import os import urllib import traceback import time import sys import numpy as np import cv2 import random from rknn.api import RKNN RKNN_MODEL = '10class_ResNet50.rknn' IMG_PATH = './test-1.jpg' BOX_THRESH = 0.25 NMS_THRESH = 0.6 CLASSES = ("SUV", "bus", "family sedan", "fire engine", "heavy truck", "jeep", "minibus", "racing car", "taxi", "truck") def show_outputs(output): print("softmax output:", output) max_confidence = np.max(output) index = np.where(output == max_confidence) print("max confidence:", max_confidence) print("max confidence index:", index[0][0]) print("CLASSES predict: ", CLASSES[index[0][0]]) def softmax(x): return np.exp(x)/sum(np.exp(x)) if __name__ == '__main__': # Create RKNN object rknn = RKNN(verbose=True) print('--> Loading model') ret = rknn.load_rknn(RKNN_MODEL) if ret != 0: print('load rknn model failed') exit(ret) print('done') # init runtime environment print('--> Init runtime environment') ret = rknn.init_runtime() # ret = rknn.init_runtime('rv1126', device_id='1126') if ret != 0: print('Init runtime environment failed') exit(ret) print('done') # Set inputs img = cv2.imread(IMG_PATH) img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) resize_img = cv2.resize(img,(224,224)) # Inference print('--> Running model') outputs = rknn.inference(inputs=[resize_img]) print("outputs[0]:", outputs[0]) print("outputs[0].shape:", outputs[0].shape) show_outputs(softmax(np.array(outputs[0][0]))) print('done') rknn.release()

执行结果如下图所示:

wKgZO2gB-k2AS19SAAFp1vx31Cw940.png

4.2.7 模型预编译

由于rknn模型用NPU API在EASY EAI Nano加载的时候启动速度会很慢,在评估完模型精度没问题的情况下,建议进行模型预编译。预编译的时候需要通过EASY EAI Nano主板的环境,所以请务必接上adb口与ubuntu保证稳定连接。

板子端接线如下图所示,拨码开关需要是adb:

wKgZO2gB-k6AdDQnAEUKoK05hPI157.png

虚拟机要保证接上adb设备:

poYBAGO2mtSAf4j5AAGxSQEPX9E006.png

由于在虚拟机里ubuntu环境与docker环境对adb设备资源是竞争关系,所以需要关掉ubuntu环境下的adb服务,且在docker里面通过apt-get安装adb软件包。以下指令在ubuntu环境与docker环境里各自执行:

wKgZPGgB-k2APFLpAACw9mOI3Xw412.png

在docker环境里执行adb devices,现象如下图所示则设备连接成功:

wKgZO2gB-k2AYj-lAAG20MtbUhY089.png

运行precompile_rknn.py脚本把模型执行预编译:

python precompile_rknn.py

执行效果如下图所示,生成预编译模型10class_ResNet50_pre.rknn

wKgZPGgB-k2Aaet9AAFaHeZ0Wp4527.png

至此预编译部署完成,模型转换步骤已全部完成。生成如下预编译后的int8量化模型:

wKgZO2gB-k2AW09zAADNGAAZwvA657.png

至此RKNN模型生成完毕,注意预编译模型只能在板卡端执行。

5. ResNet50图像分类部署

5.1 模型部署示例介绍

本小节展示ResNet50模型的在EASY EAI Nano的部署过程,该模型仅经过简单训练供示例使用,不保证模型精度。

5.2 开发环境准备

如果您初次阅读此文档,请阅读《入门指南/开发环境准备/Easy-Eai编译环境准备与更新》,并按照其相关的操作,进行编译环境的部署

在PC端Ubuntu系统中执行run脚本,进入EASY-EAI编译环境,具体如下所示。

cd ~/develop_environment ./run.sh

wKgZPGgB7g2AdudVAACbrHAYX20640.png

5.3 源码下载以及例程编译

下载ResNet50 C Demo示例文件。

下载程序包移至ubuntu环境后,执行以下指令解压:

tar -xvf resnet50_classification_C_demo.tar.bz2

下载解压后如下图所示:

wKgZO2gB-k2AL_UCAAByK9fPP6Q506.png

在EASY-EAI编译环境下,切换到例程目录执行编译操作:

cd /opt/rknn-toolkit/resnet50_classification_C_demo/ ./build.sh

注:

* 由于依赖库部署在板卡上,因此交叉编译过程中必须保持adb连接。

wKgZO2gB-k2AcIY4AAGzc9hby-c587.png

5.4 在开发板执行ResNet50 图像分类算法

在EASY-EAI编译环境下,在例程目录执行以下指令把可执行程序推送到开发板端:

cp resnet_classification_demo_release/ /mnt/userdata/ -rf

通过按键Ctrl+Shift+T创建一个新窗口,执行adb shell命令,进入板卡运行环境:

adb shell

wKgZPGgB-k2ACapFAABR0C4N5zg153.png

进入板卡后,定位到例程上传的位置,如下所示:

cd /userdata/resnet_classification_demo_release/

运行例程命令如下所示:

./resnet_classification_demo

执行结果如下图所示,算法执行时间约为35ms:

wKgZPGgB-k2AYjaeAAFNGeJ6r3c290.png

至此,ResNet50图像分类例程已成功在板卡运行。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开发板
    +关注

    关注

    25

    文章

    5707

    浏览量

    105190
  • resnet
    +关注

    关注

    0

    文章

    13

    浏览量

    3327
  • rv1126
    +关注

    关注

    0

    文章

    108

    浏览量

    3568
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Qt程序部署到瑞星微RV1126开发板上,使用QCursor::pos()获取鼠标为零是为什么?

    Qt程序部署到瑞星微RV1126开发板上,使用QCursor::pos()获取鼠标为零是为什么?
    发表于 10-21 06:23

    【R329开发板评测】实机测试Resnet50

    在经过仿真测试拿到开发板后,参考官方的实机测试教程,对仿真测试模型进行了实机运行和测试,这里主要是对resnet50进行了实时运行。
    发表于 01-25 16:55 ?3次下载
    【R329<b class='flag-5'>开发板</b>评测】实机测试<b class='flag-5'>Resnet50</b>

    RV1126-AI开发手记(一)Resnet50性能评估

    应朋友的委托,希望我来帮忙评估一下RV1126RV1109)的AI性能。这两款芯片是pin2pin的,RV1109的算力为1.2Tops,RV1126的算力为2.0Tops...
    发表于 01-25 19:41 ?25次下载
    <b class='flag-5'>RV1126</b>-AI<b class='flag-5'>开发</b>手记(一)<b class='flag-5'>Resnet50</b>性能评估

    RV1126开发板数据手册

    本产品是基于瑞芯微 RV1126 媒体处理芯片开发的 IPC 开发板,分为核心和底板, 且 RV1126
    发表于 08-28 11:09 ?20次下载

    RV1126 实现人脸检测方案

    基于RV1126开发板实现人脸检测方案,充分体现了电子方面的实践经验和目标检测技术。
    的头像 发表于 04-14 09:25 ?294次阅读
    <b class='flag-5'>RV1126</b> 实现人脸检测方案

    基于RV1126开发板的人脸检测算法开发

    RV1126开发人脸检测算法组件
    的头像 发表于 04-14 10:19 ?352次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>的人脸检测算法<b class='flag-5'>开发</b>

    基于RV1126开发板的人员检测算法开发

    RV1126开发人员检测AI算法组件
    的头像 发表于 04-14 13:56 ?330次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>的人员检测算法<b class='flag-5'>开发</b>

    基于RV1126开发板网络配置方法

    RV1126开发板网络硬件资源有:以太网、WiFi,采用的网络配置方案是:Netplan。 ? ? ? ?Netplan是一个用于配置Linux网络的简单工具。用户只需要一个yaml格式的文件去
    的头像 发表于 04-15 14:57 ?386次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>网络配置方法

    基于RV1126开发板的按键测试方法与例程

    RV1126开发板的按键测试方法与例程详细描述
    的头像 发表于 04-15 17:03 ?386次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>的按键测试方法与例程

    RV1126 yolov8训练部署教程

    本教程针对目标检测算法yolov8的训练部署到EASY-EAI-Nano(RV1126)进行说明,而数据标注方法可以参考我们往期的文章。
    的头像 发表于 04-18 15:18 ?723次阅读
    <b class='flag-5'>RV1126</b> yolov8<b class='flag-5'>训练</b><b class='flag-5'>部署</b>教程

    基于RV1126开发板实现驾驶员行为检测方案

    RV1126开发板上实现驾驶员行为检测:通过图像识别出这几种行为:打电话、抽烟、疲劳驾驶。
    的头像 发表于 04-18 17:47 ?354次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>实现驾驶员行为检测方案

    基于RV1126开发板实现人脸检测方案

    RV1126开发板上实现人脸检测:在图像中找出人脸,以及每张人脸的landmarks位置。 方案设计逻辑流程图,方案代码分为分为两个业务流程,主体代码负责抓取、合成图像, 算法代码负责人脸检测功能。
    的头像 发表于 04-21 10:21 ?99次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>实现人脸检测方案

    基于RV1126开发板实现自学习图像分类方案

    RV1126开发板上实现自学习:在识别前对物体图片进行模型学习,训练完成后通过算法分类得出图像的模型ID。 方案设计逻辑流程图,方案代码分为分为两个业务流程,主体代码负责抓取、合成图像,算法代码负责
    的头像 发表于 04-21 13:37 ?11次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>实现自学习图像分类方案

    基于RV1126开发板实现人脸检测方案

    RV1126开发板上实现人脸检测:在图像中找出人脸,以及每张人脸的landmarks位置。 方案设计逻辑流程图,方案代码分为分为两个业务流程,主体代码负责抓取、合成图像, 算法代码负责人脸检测功能。
    的头像 发表于 04-21 14:00 ?13次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>实现人脸检测方案

    基于RV1126开发板实现人脸检测方案

    RV1126开发板上实现人脸检测:在图像中找出人脸,以及每张人脸的landmarks位置。 方案设计逻辑流程图,方案代码分为分为两个业务流程,主体代码负责抓取、合成图像, 算法代码负责人脸检测功能。
    的头像 发表于 04-21 17:59 ?508次阅读
    基于<b class='flag-5'>RV1126</b><b class='flag-5'>开发板</b>实现人脸检测方案