本来想按照之前在windows上继续转换模型,谁知道直接不支持?那就直接在Ubuntu上搞。
ONNX模型和RKNN模型都是用于深度学习模型部署和推理的格式或框架。
ONNX(Open Neural Network Exchange)是一个开放的模型表示格式,旨在使不同深度学习框架之间的模型转换和部署更加容易。通过使用ONNX,您可以在不同的深度学习框架之间轻松地转换和共享模型,从而提高模型的可移植性和复用性。
RKNN(Rockchip Neural Network)则是Rockchip推出的用于在其自家芯片上进行模型部署和推理的框架。RKNN框架为Rockchip的芯片定制了针对深度学习模型的优化加速器,可以实现在RK芯片上高效地运行深度学习模型。
因此,当需要在Rockchip的芯片上部署和运行深度学习模型时,可以将模型转换为RKNN格式,以利用Rockchip提供的优化硬件加速器来提高模型的性能和效率。而ONNX则可以作为一个通用的模型表示格式,方便在不同框架之间进行模型转换和共享。
RV1106文档地址如下:
https://github.com/airockchip/rknn-toolkit2/blob/master/doc/01_Rockchip_RV1106_RV1103_Quick_Start_RKNN_SDK_V2.0.0beta0_CN.pdf
新建文件夹
下载 RKNN-Toolkit2 仓库
下载 RKNN Model Zoo 仓库
注意:
1.参数 --depth 1 表示只克隆最近一次 commit
2.如果遇到 git clone 失败的情况,也可以直接在 github 中下载压缩包到本地,然后解压至该目录
在计算机的终端窗口中执行以下命令,检查是否安装 Conda,若已安装则可省略此节步骤。
参考输出信息:conda 23.9.0 ,表示 conda 版本为 23.9.0
如果提示 conda: command not found,则表示未安装 conda
如果没有安装 Conda,可以通过下面的链接下载 Conda 安装包:
然后通过以下命令安装 Conda:
在计算机的终端窗口中,执行以下命令进入 Conda base 环境:miniconda3 安装的目录
成功后,命令行提示符会变成以下形式:
通过以下命令创建名称为 toolkit2 的 Python 3.8 环境:
激活 toolkit2 环境,后续将在此环境中安装 RKNN-Toolkit2:
成功后,命令行提示符会变成以下形式:
进入 rknn-toolkit2 目录
请根据不同的 python 版本,选择不同的 requirements 文件
安装 RKNN-Toolkit2
请根据不同的 python 版本及处理器架构,选择不同的 wheel 安装包文件:
其中 x.x.x 是 RKNN-Toolkit2 版本号,xxxxxxxx 是提交号,cpxx 是 python 版
执行以下命令,若没有报错,则代表 RKNN-Toolkit2 环境安装成功。 进入 Python 交互模式 python
导入 RKNN 类
提前新建文件目录:
convert.py是我们的python代码
data.txt是用于指定用于量化优化的数据集文件,里面写成这样就行:
0-label-0.png是28*28的图片素材
以下是convert.py的代码,其中mnt/hgfs/VMwork-2/mnist_101_model.onnx 是我们上一步生成的ONNX模型。
直接启动生成RKNN!
可以看到生成mnist.rknn成功!
完整目录放到了test压缩包里。
到此这篇rknn模型部署(rknn模型转换)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!
版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/hd-yjs/29781.html