本文介绍: 如果我们想在手机运行我们深度学习模型需要怎么做呢?本文介绍了端侧深度学习模型部署流程(NCNN),在了解基本概念之后可以尝试运行NCNN官方demo实例,并根据自己需求进行改进,这样就可以自己手机部署深度学习模型啦~

        上一篇介绍PyTorch模型部署流程(Onnx Runtime)相关部署流程,再来简单的回顾一下~

深度学习模型部署介绍

        模型部署指让训练好的深度学习模型在特定环境中运行过程。模型部署会面临的难题:

        因为这些难题的存在,模型部署不能靠简单环境配置安装完成。目前模型部署有一条流行的流水线

        为了让模型最终能够部署到某一环境上,可以使用任意一种深度学习框架定义网络结构,并通过训练确定网络中的参数。之后,模型的结构参数会被转换成一种只描述网络结构的中间表示,一些针对网络结构优化会在中间表示上进行。最后,用面向硬件高性能编程框架(如 CUDA,OpenCL)编写,能高效执行深度学习网络中算子推理引擎会把中间表示转换成特定的文件格式,并在对应硬件平台上高效运行模型。

        那么,如果我们想在手机运行我们的深度学习模型需要怎么做呢?接下来大家介绍关于端侧深度学习的部署流程大家了解了基本概念之后可以尝试运行官方demo实例,并根据自己需求进行改进,这样就可以在自己手机上部署深度学习模型啦~

端侧深度学习模型部署流程

        主要技术路线为:训练框架训练模型->模型转化为ONNX格式->ONNX格式转化为其他格式(NCNN,TNN,MNN的模型格式)->对应推理框架中部署。

        端侧深度学习的应用可以分成如下几个阶段

ONNX

        ONNX(Open Neural Network Exchange)是 Facebook微软在 2017 年共同发布的,用于标准描述计算图的一种格式。目前,在数家机构的共同维护下,ONNX 已经对接了多种深度学习框架和多种推理引擎。因此,ONNX 被当成了深度学习框架到推理引擎桥梁,就像编译器的中间语言一样。由于各框架兼容性不一,通常只用 ONNX 表示更容易部署的静态图。

        其中torch.onnx.export 是 PyTorch 自带的把模型转换成 ONNX 格式的函数。前三个参数分别是要转换的模型、模型的任意一组输入导出的 ONNX 文件文件名

        从 PyTorch 的模型到 ONNX 的模型,PyTorch提供了一种叫做追踪trace)的模型转换方法给定一组输入,再实际执行一遍模型,即把这组输入对应的计算图记录下来,保存为 ONNX 格式。export 函数用的就是追踪导出方法,需要任意一组输入,让模型跑起来。测试图片是三通道256x256 大小的,这里构造一个同样形状随机张量

        opset_version 表示 ONNX 算子集的版本input_names, output_names 是输入、输出 tensor名称代码运行成功,目录下会新增一个 srcnn.onnx 的 ONNX 模型文件

NCNN

        ncnn一个手机端极致优化高性能神经网络前向计算框架。ncnn设计之初深刻考虑手机端的部署和使用。 无第三方依赖跨平台手机cpu 的速度快于目前所有已知的开源框架。 基于 ncnn开发者能够将深度学习算法轻松移植手机端高效执行开发人工智能 APP,将 AI 带到你的指尖。 ncnn目前已在腾讯多款应用使用,如:QQ,Qzone,微信,天天P图等。

部署实践

a.模型文件转为ONNX文件

Pytorch保存模型有两种方法: 第一种方法只保存模型参数。第二种方法保存完整模型。

只保存模型参数

print(model.state_dict().keys()) # 输出模型参数名称
 
# 保存模型参数到路径“./data/model_parameter.pkl”
torch.save(model.state_dict(), “./data/model_parameter.pkl”)
new_model = Model()                                                  # 调用模型Model
new_model.load_state_dict(torch.load(“./data/model_parameter.pkl”))  # 加载模型参数    
new_model.forward(input)                                             # 进行使用

 

直接保存完整模型:

torch.save(model, ‘./data/model.pkl’)        # 保存整个模型
new_model = torch.load(‘./data/model.pkl’)   # 加载模型

        目前大多数应用都会仅仅保存模型参数,用的时候创建模型结构然后加载模型。一般我们下载的预训练模型都是只保存模型参数的文件,这种模型文件不能直接拿来推理,需要重新创建加载模型结构然后进行保存和转换。以下为模型转换为ONNX的代码需要创建模型结构加载模型然后才能进行保存。

模型以静态输入保存和转换:

# onnx模型导入
import onnx
import torch
import torch.nn as nn
import torchvision.models as models

class Net(nn.Module):
    def __init__(self, prior_size):
         …………………

    def forward(self, x):
        …………………
        return x

model = Net(prior_size)
model.load_state_dict(torch.load(‘xxx.model‘, map_location=’cpu‘))
model.eval()

input_names = [‘input‘]
output_names = [‘output‘]
# 规定输入尺寸
x = torch.randn(1, 3, 240, 320, requires_grad=True)
torch.onnx.export(model, x, ‘best.onnx’, input_names=input_names, output_names=output_names, verbose=’True‘)

模型以动态输入保存和转换:

# onnx模型导入
import onnx
import torch
import torch.nn as nn
import torchvision.models as models

class Net(nn.Module):
    def __init__(self, prior_size):
         …………………

    def forward(self, x):
        …………………
        return x

model = Net(prior_size)
model.load_state_dict(torch.load(‘xxx.model’, map_location=’cpu‘))
model.eval()

input_names = [‘input‘]
output_names = [‘output’]
# 规定输入尺寸
x = torch.randn(1, 3, 240, 320, requires_grad=True)
# 动态输入设置
dynamic_axes = {‘input’: {0: ‘batch_size’, 1: ‘channel‘, 2: “height“, 3: ‘width‘},
                ‘output’: {0: ‘batch_size’, 1: ‘channel’, 2: “height“, 3: ‘width‘}}
torch.onnx.export(model, x, ‘best_dynamic.onnx’, input_names=input_names, output_names=output_names, verbose=’True‘,dynamic_axes=dynamic_axes)

验证模型转换是否成功:

# 验证onnx模型
import onnx

model_onnx = onnx.load(“best.onnx”)  # 加载onnx模型
onnx.checker.check_model(model_onnx)  # 验证onnx模型是否成功导出
# 如果没有报错,表示导出成功
# #测试onnx 模型
import onnxruntime
import numpy as np

# 创建会话
# session = onnxruntime.InferenceSession(“best.onnx”, providers=[‘CUDAExecutionProvider’, ‘CPUExecutionProvider’])
session = onnxruntime.InferenceSession(“best.onnx”, providers=[‘CPUExecutionProvider’])
x = np.random.randn(1, 3, 240, 320)
ort_input = {session.get_inputs()[0].name: x.astype(np.float32)}
ort_output = session.run(None, ort_input)
# 如果没有报错,表示执行成功

b.ONNX格式模型->端侧推理框架模型(NCNN格式)

(1)直接用模型转换工具,输入ONNX文件,生成NCNN文件(.param & .bin)

https://convertmodel.com/#input=onnx&output=onnx

(2)使用代码进行转化

将onnx转换为ncnn模型前,需要简化onnx模型,以免出现不可编译的情况。

首先安装onnx-smiplifier

pip install onnx-simplifier

然后简化onnx模型

python3 -m onnxsim my_mobileface.onnx my_mobilefacesim.onnx

        onnx转换为ncnn,需要使用在ncnn/build/tools/onnx2ncnn,需要在Ubuntu中先安装ncnn,Ubuntu中安装ncnn方法,可以按这个链接安装,我已验证过。如果之前安装opencv,就直接装ncnn就行。装好之后,找到onnx2ncnn文件的路径,输入下面命令

./onnx2ncnn my_mobilefacesim.onnx my_mobileface.param my_mobileface.bin

        生成的.bin与.param文件就是在Android上需要使用的NCNN模型文件。

c.Android studio项目中使用模型文件

 强烈建议可以先跑通ncnn官方给的几个在Android端部署的例子,然后可以根据自己需求进行改进,下面是ncnn使用样例

• https://github.com/nihui/ncnn-android-squeezenet

https://github.com/nihui/ncnn-android-styletransfer

https://github.com/nihui/ncnn-android-mobilenetssd

https://github.com/moli232777144/mtcnn_ncnn

https://github.com/nihui/ncnn-android-yolov5

 • https://github.com/xiang-wuu/ncnn-android-yolov7

 • https://github.com/shaoshengsong/qt_android_ncnn_lib_encrypt_example

搭建ncnn环境

https://github.com/Tencent/ncnn/releases 下载NCNN压缩包,然后提取压缩包内容app/src/main/jni, 然后修改app/src/main/jni/CMakeLists.txt中的ncnn_DIR路径。

我的CMakeLists.txt配置如下

project(styletransferncnn)
cmake_minimum_required(VERSION 3.4.1)

set(ncnn_DIR ${CMAKE_SOURCE_DIR}/ncnn-20230517-androidvulkan/${ANDROID_ABI}/lib/cmake/ncnn)
find_package(ncnn REQUIRED)

add_library(styletransferncnn SHARED styletransferncnn_jni.cpp)

target_link_libraries(styletransferncnn ncnn)

配置好 ncnn 后,就可以在安卓端运行和推理深度学习模型文件,比如配置好上述要求后就可以运行ncnn官方给出的样例下图为在安卓端运行图像分类示例

下图为我自己根据官方样例改进部署图像超分的示例

左图为超分前的图像,右图为超分后的图像

原文地址:https://blog.csdn.net/xs1997/article/details/131747372

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_26184.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注