一键抠图2:C/C++实现人像抠图 (Portrait Matting)

目录

一键抠图2:C/C++实现人像抠图 (Portrait Matting)

1. 前言

2. 抠图算法

3. 人像抠图算法MODNet

(1)模型训练

(2)将Pytorch模型转换ONNX模型

(3)将ONNX模型转换为TNN模型

4. 模型C++部署

(1)项目结构

(2)配置开发环境(OpenCV+OpenCL+base-utils+TNN)

(3)部署TNN模型

(4)CMake配置

(5)main源码

(6)源码编译和运行

5. 人像抠图效果

6. 项目源码下载

7. 人像抠图Python版本

8. 人像抠图Android版本


1. 前言

这是一键抠图项目系列之《C/C++实现人像抠图 (Portrait Matting)》;本篇主要分享将Python训练后的matting模型转写成C/C++代码我们开发一个简易的、可实时运行的人像抠图C/C++ Demo。C/C ++版本人像抠图模型推理支持CPU和GPU加速,在GPU(OpenCL)加速下,可以到头发细致级别的人像抠图效果,为了方便后续模型工程化和Android平台部署项目提供高精度版本人像抠图和轻量化快速版人像抠图,并提供Python/C++/Android多个版本

【尊重原创,转载请注明出处】https://blog.csdn.net/guyuealian/article/details/134790532

Android Demo APP下载地址https://download.csdn.net/download/guyuealian/63228759

展示一下一键人像抠图效果


更多项目一键抠图系列文章参考


2. 抠图算法

基于深度学习Matting分为两大类:

第一种方法,需要加入辅助信息,而辅助信息一般较难获取,这也限制应用,为了提升Matting的应用性,针对Portrait Matting领域MODNet摒弃了辅助信息,直接实现Alpha预测,实现了实时Matting,极大提升基于深度学习Matting的应用价值。

更多抠图算法(Matting),请参考我的一篇博客图像抠图Image Matting算法调研》:

图像抠图Image Matting算法调研_image matting调研-CSDN博客文章浏览阅读4.3k次,点赞8次,收藏68次。1.Trimap和StrokesTrimap和Strokes都是一种静态图像抠图算法现有静态图像抠图算法均需对给定图像添加手工标记以增加抠图问题额外约束。Trimap,三元图,是对给定图像的一种粗略划分,即将给定图像划分为前景、背景和待求未知区域Strokes采用涂鸦的方式在图像上随意标记前景和背景区域,剩余未标记部分则为待求的未知区域Trimap是最常用先验知识,多数抠图算法采用了Trimap作为先验知识,顾名思义Trimap一个三元图,每个像素值为{0,128,…_image matting调研https://blog.csdn.net/guyuealian/article/details/119648686可能,有小伙伴搞不清楚分割(segmentation)和抠图(matting)有什么区别,我这里简单说明一下:


3. 人像抠图算法MODNet

本文主要在MODNet人像抠图算法基础上进行模型压缩优化关于《MODNet: Trimap-Free Portrait Matting in Real Time》,请参考

 MODNet模型学习分为三个部分,分别为:语义部分(S),细节部分(D)和融合部分(F)

(1)模型训练

官方GitHub仅仅放出推理代码并未提供训练代码数据处理代码 ;鄙人参考论文花了几个星期的时间,总算复现了其基本效果,并做了一些轻量化优化工作,主要有:

精度人像抠图modnet+快速人像抠图modnet0.75+超快人像抠图modnet0.5的模型参数量和计算量:

模型 input size FLOPs and Params
modnet 416×416 Model FLOPs 10210.24M, Params 6.44M
modnet0.75 320×320 Model FLOPs 3486.23M, Params 3.64M
modnet0.5 320×320 Model FLOPs 1559.07M, Params 1.63M

(2)将Pytorch模型转换ONNX模型

训练好模型后,你需要先将Pytorch模型转换为ONNX模型,并使用onnxsimplifier简化网络结构,Python版本的已经提供了ONNX转换脚本终端输入命令如下

# 导出ONNX模型
python export.py --model_type "modnet" --model_file "work_space/modnet_416/model/best_model.pth"

GitHubhttps://github.com/daquexian/onnxsimplifier
Installpip3 install onnxsimplifier 

(3)将ONNX模型转换为TNN模型

目前在C++端上,CNN模型有多种部署方式,可以采用TNN,MNN,NCNN,以及TensorRT等部署工具,鄙人采用TNN进行Android端上部署

TNN转换工具

转换成功后,会生成两个文件(*.tnnproto和*.tnnmodel) ,下载下来后面会用到


4. 模型C++部署

项目IDE开发工具使用CLion相关依赖库主要有OpenCV,baseutils以及TNN和OpenCL(可选),其中OpenCV必须安装,OpenCL用于模型加速,baseutils以及TNN已经配置好,无需安装

项目仅在Ubuntu18.04进行测试,Windows系统下请自行配置开发环境

(1)项目结构

(2)配置开发环境(OpenCV+OpenCL+baseutils+TNN)

项目仅在Ubuntu18.04进行测试,Windows系统下请自行配置编译

图像处理(如读取图片,图像裁剪等)都需要使用OpenCV库进行处理

安装教程Ubuntu18.04安装opencv和opencv_contrib

OpenCV库使用opencv-4.3.0版本,opencv_contrib库暂时未使用,可不安装

 安装教程Ubuntu16.04 安装OpenCV&OpenCL

OpenCL用于模型GPU加速,若不使用OpenCL进行模型推理加速,纯C++推理模型,速度会特别特别慢

GitHubhttps://github.com/PanJinquan/baseutils (无需安装,项目已经配置了)

base_utils是个人开发常用的C++库,集成了C/C++ OpenCV等常用的算法

  • TNN:模型推理

GitHubhttps://github.com/Tencent/TNN (无需安装,项目已经配置了)

腾讯优图实验室开源高性能轻量级神经网络推理框架,同时拥有跨平台高性能、模型压缩代码裁剪等众多突出优势。TNN框架在原有Rapidnet、ncnn框架的基础上进一步加强了移动设备的支持以及性能优化,同时借鉴了业界主流开源框架高性能和良好拓展性的特性,拓展了对于后台X86, NV GPU的支持。手机端 TNN已经在手机QQ、微视、P图等众多应用落地服务端TNN作为腾讯云AI基础加速框架已为众多业务落地提供加速支持。

(3)部署TNN模型

项目模型推理采用TNN部署框架(支持多线程CPU和GPU加速推理);图像处理采用OpenCV库,模型加速采用OpenCL,在普通电脑设备即可达到实时处理

如果你想在这个 C++ Demo部署你自己训练的模型,你可以将训练好的Pytorch模型转换ONNX ,再转换成TNN模型,然后把原始的模型替换成你自己的TNN模型即可

(4)CMake配置

这是CMakeLists.txt,其中主要配置OpenCV+OpenCL+baseutils+TNN这四个库,Windows系统下请自行配置和编译

cmake_minimum_required(VERSION 3.5)
project(Detector)

add_compile_options(-fPIC) # fix Bug: can not be used when making a shared object
set(CMAKE_CXX_FLAGS "-Wall -std=c++11 -pthread")
#set(CMAKE_CXX_FLAGS_RELEASE "-O2 -DNDEBUG")
#set(CMAKE_CXX_FLAGS_DEBUG "-g")

if (NOT CMAKE_BUILD_TYPE AND NOT CMAKE_CONFIGURATION_TYPES)
    # -DCMAKE_BUILD_TYPE=Debug
    # -DCMAKE_BUILD_TYPE=Release
    message(STATUS "No build type selected, default to Release")
    set(CMAKE_BUILD_TYPE "Release" CACHE STRING "Build type (default Debug)" FORCE)
endif ()

# opencv set
find_package(OpenCV REQUIRED)
include_directories(${OpenCV_INCLUDE_DIRS} ./src/)
#MESSAGE(STATUS "OpenCV_INCLUDE_DIRS = ${OpenCV_INCLUDE_DIRS}")

# base_utils
set(BASE_ROOT 3rdparty/base-utils) # 设置base-utils所在的根目录
add_subdirectory(${BASE_ROOT}/base_utils/ base_build) # 添加目录buildinclude_directories(${BASE_ROOT}/base_utils/include)
include_directories(${BASE_ROOT}/base_utils/src)
MESSAGE(STATUS "BASE_ROOT = ${BASE_ROOT}")


# TNN set
# Creates and names a library, sets it as either STATIC
# or SHARED, and provides the relative paths to its source code.
# You can define multiple libraries, and CMake builds it for you.
# Gradle automatically packages shared libraries with your APK.
# build for platform
# set(TNN_BUILD_SHARED OFF CACHE BOOL "" FORCE)
if (CMAKE_SYSTEM_NAME MATCHES "Android")
    set(TNN_OPENCL_ENABLE ON CACHE BOOL "" FORCE)
    set(TNN_ARM_ENABLE ON CACHE BOOL "" FORCE)
    set(TNN_BUILD_SHARED OFF CACHE BOOL "" FORCE)
    set(TNN_OPENMP_ENABLE ON CACHE BOOL "" FORCE)  # Multi-Thread
    #set(TNN_HUAWEI_NPU_ENABLE OFF CACHE BOOL "" FORCE)
    add_definitions(-DTNN_OPENCL_ENABLE)           # for OpenCL GPU
    add_definitions(-DTNN_ARM_ENABLE)              # for Android CPU
    add_definitions(-DDEBUG_ANDROID_ON)            # for Android Log
    add_definitions(-DPLATFORM_ANDROID)
elseif (CMAKE_SYSTEM_NAME MATCHES "Linux")
    set(TNN_OPENCL_ENABLE ON CACHE BOOL "" FORCE)
    set(TNN_CPU_ENABLE ON CACHE BOOL "" FORCE)
    set(TNN_X86_ENABLE OFF CACHE BOOL "" FORCE)
    set(TNN_QUANTIZATION_ENABLE OFF CACHE BOOL "" FORCE)
    set(TNN_OPENMP_ENABLE ON CACHE BOOL "" FORCE)  # Multi-Thread
    add_definitions(-DTNN_OPENCL_ENABLE)           # for OpenCL GPU
    add_definitions(-DDEBUG_ON)                    # for WIN/Linux Log
    add_definitions(-DDEBUG_LOG_ON)                # for WIN/Linux Log
    add_definitions(-DDEBUG_IMSHOW_OFF)            # for OpenCV show
    add_definitions(-DPLATFORM_LINUX)
elseif (CMAKE_SYSTEM_NAME MATCHES "Windows")
    set(TNN_OPENCL_ENABLE ON CACHE BOOL "" FORCE)
    set(TNN_CPU_ENABLE ON CACHE BOOL "" FORCE)
    set(TNN_X86_ENABLE ON CACHE BOOL "" FORCE)
    set(TNN_QUANTIZATION_ENABLE OFF CACHE BOOL "" FORCE)
    set(TNN_OPENMP_ENABLE ON CACHE BOOL "" FORCE)  # Multi-Thread
    add_definitions(-DTNN_OPENCL_ENABLE)           # for OpenCL GPU
    add_definitions(-DDEBUG_ON)                    # for WIN/Linux Log
    add_definitions(-DDEBUG_LOG_ON)                # for WIN/Linux Log
    add_definitions(-DDEBUG_IMSHOW_OFF)            # for OpenCV show
    add_definitions(-DPLATFORM_WINDOWS)
endif ()
set(TNN_ROOT 3rdparty/TNN)
include_directories(${TNN_ROOT}/include)
include_directories(${TNN_ROOT}/third_party/opencl/include)
add_subdirectory(${TNN_ROOT}) # 添加外部项目文件夹
set(TNN -Wl,--whole-archive TNN -Wl,--no-whole-archive)# set TNN library
MESSAGE(STATUS "TNN_ROOT = ${TNN_ROOT}")


# Detector
include_directories(src)
set(SRC_LIST
        src/segment.cpp
        src/Interpreter.cpp)
add_library(dlcv SHARED ${SRC_LIST})
target_link_libraries(dlcv ${OpenCV_LIBS} base_utils)
MESSAGE(STATUS "DIR_SRCS = ${SRC_LIST}")

add_executable(Detector src/main_for_segment.cpp)
target_link_libraries(Detector dlcv ${TNN} -lpthread)


(5)main源码

程序src/main_for_segment.cpp中提供行手势识别的Demo,支持图片视频摄像头测试

//
// Created by Pan on 2020/6/24.
//

#include "segment.h"
#include <iostream>
#include <string>
#include <vector>
#include <image_utils.h>
#include "file_utils.h"
#include "debug.h"

using namespace dl;
using namespace vision;
using namespace std;

const int num_thread = 1;
DeviceType device = GPU; // 使用GPU运行,需要配置好OpenCL
// DeviceType device = CPU; // 使用CPU运行
// 高精度人像抠图
const char *model_file = (char *) "../data/tnn/segment/matting1.00_416_416_sim.opt.tnnmodel";
const char *proto_file = (char *) "../data/tnn/segment/matting1.00_416_416_sim.opt.tnnproto";
SegmentParam model_param = MATTING416;

//超快人像抠图
//const char *model_file = (char *) "../data/tnn/segment/matting0.50_320_320_sim.opt.tnnmodel";
//const char *proto_file = (char *) "../data/tnn/segment/matting0.50_320_320_sim.opt.tnnproto";
//SegmentParam model_param = MATTING320;

Segment *detector = new Segment(model_file,
                                proto_file,
                                model_param,
                                num_thread,
                                device);
// 背景图string bg_file = "../data/bg2.png";
cv::Mat bg_image = cv::imread(bg_file);

void test_image_file() {
    string image_dir = "../data/test_images";
    std::vector<string> image_list = get_files_list(image_dir);
    for (string image_path:image_list) {
        cv::Mat bgr_image = cv::imread(image_path);
        if (bgr_image.empty()) continue;
        printf("%sn", image_path.c_str());
        // 开始抠图,返回matte图(即前景和背景的分割图)
        cv::Mat matte;
        detector->detect(bgr_image, matte);
        // 融合图像
        cv::Mat fusion;
        image_fusion(bgr_image, matte, fusion, bg_image);
        //image_fusion(bgr_image, matte, fusion);
        // 可视化代码
        detector->visualizeResult(bgr_image, matte, fusion, 0);
    }
    printf("FINISHED.n");
}


/***
 * 测试视频文件
 * @return
 */
int test_video_file() {
    string video_file = "../data/video/video-test1.mp4"; //视频文件
    cv::VideoCapture cap;
    bool ret = get_video_capture(video_file, cap);
    cv::Mat frame;
    while (ret) {
        cap >> frame;
        if (frame.empty()) break;
        // 开始抠图,返回matte图(即前景和背景的分割图)
        cv::Mat matte;
        detector->detect(frame, matte);
        // 融合图像
        cv::Mat fusion;
        image_fusion(frame, matte, fusion, bg_image);
        //image_fusion(bgr_image, matte, fusion);
        // 可视化代码
        detector->visualizeResult(frame, matte, fusion, 10);
    }
    cap.release();
    printf("FINISHED.n");
    return 0;
}

/***
 * 测试摄像头
 * @return
 */
int test_camera() {
    int camera = 0; //摄像头ID号(请修改成自己摄像头ID号)
    cv::VideoCapture cap;
    bool ret = get_video_capture(camera, cap);
    cv::Mat frame;
    while (ret) {
        cap >> frame;
        if (frame.empty()) break;
        // 开始抠图,返回matte图(即前景和背景的分割图)
        cv::Mat matte;
        detector->detect(frame, matte);
        // 融合图像
        cv::Mat fusion;
        image_fusion(frame, matte, fusion, bg_image);
        //image_fusion(bgr_image, matte, fusion);
        // 可视化代码
        detector->visualizeResult(frame, matte, fusion,10);
    }
    cap.release();
    printf("FINISHED.n");
    return 0;
}


int main() {
    //test_image_file();
    test_video_file();
    //test_camera();
    return 0;
}

(6)源码编译运行

编译脚本或者直接:bash build.sh

#!/usr/bin/env bash
if [ ! -d "build/" ];then
  mkdir "build"
else
  echo "exist build"
fi
cd build
cmake ..
make -j4
sleep 1
./Detector

DeviceType device = CPU;

DeviceType device = GPU; //默认使用GPU

纯C++推理模式需要耗时几秒时间,而开启OpenCL加速后,GPU模式耗时仅需十几毫秒性能极大提高


5. 人像抠图效果

C++版本人像抠图效果与Python版本的效果几乎一致:

实际使用中,建议你:

  • 背景越单一,抠图的效果越好,背景越复杂,抠图效果越差;建议你实际使用中,找一比较单一的背景,如墙面,天空等
  • 上半身抠图的效果越好,下半身或者全身抠图效果较差;本质上这是数据的问题,因为训练数据70%都是只有上半身的
  • 白种人抠图的效果越好,黑人和黄种人抠图效果较差;这也是数据的问题,因为训练数据大部分都是隔壁的老外

下图是高精度版本人像抠图和快速人像抠图的测试效果,相对而言,高精度版本人像抠图可以精细到发丝级别的抠图效果;而快速人像构图目前仅能实现基本的抠图效果

高精度版本人像抠图 快速人像抠图

6. 项目源码下载

源码下载:

内容包含

  1. 提供高精度版本人像抠图模型(modnet_416),可以达到精细到发丝级别的抠图效果
  2. 提供轻量化快速版人像抠图模型(modnet0.75_320和modnet0.5_320),满足基本的人像抠图效果
  3. ​C/C++项目源码支持图片视频摄像头测试

  4. 项目配置好了base-utils和TNN,而OpenCV和OpenCL需要自行编译安装,开发工具推荐使用CLion


7. 人像抠图Python版本

一键抠图1:Python实现人像抠图 (Portrait Matting)https://blog.csdn.net/guyuealian/article/details/134784803

8. 人像抠图Android版本

 Android Demo APP下载地址https://download.csdn.net/download/guyuealian/63228759

原文地址:https://blog.csdn.net/guyuealian/article/details/134790532

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_49226.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注