本文介绍: 人体姿态估计(Human Pose Estimation, HPE)是一种识别分类人体关节方法本质上,它是一种捕获每个关节手臂头部、躯干等)的一组坐标方法,该坐标称为可以描述人的姿势的关键点(keypoint)。这三种类型是随着应用逐步发展出来的,先检测关键点,类似于火柴人,进一步检测出人的轮廓,再根据轮廓一步的把人体进行3D重建。也称为运动学模型,该模型包括一组关键点关节),例如脚踝、膝盖、肩膀、肘部、手腕和肢体方向,主要用于 3D 和 2D 姿势估计

人体姿态估计在现实中的应用场景很丰富,如下

动作捕捉三维特效场景
人机交互动作控制手势控制
VR, AR:元宇宙数字人、抖音尬舞机、3D试衣、虚拟主播
肢体语言理解:机场、交警警察手势翻译、手语翻译
摔倒检测健身、跳舞、球类、武术运动指导、穴位定位
步态分析识别身份异常动作识别

其中关键点检测是最开始的一步本文主要对第一步关键检测进行一个概述,方便大家快速的了解这里面涉及到的算法原理属于科普文章

1 什么是人体姿态估计

人体姿态估计(Human Pose Estimation, HPE) 是一种识别和分类人体关节的方法本质上,它是一种捕获每个关节(手臂头部、躯干等)的一组坐标的方法,该坐标被称为可以描述人的姿势的关键点(keypoint)。
在这里插入图片描述

人体姿势估计模型主要有三种类型三种类型是随着应用逐步发展出来的,先检测关键点,类似于火柴人,进一步的检测出人的轮廓,再根据轮廓一步的把人体进行3D重建。

  1. 基于骨架的模型(Skeletonbased model):称为运动学模型,该模型包括一组关键点(关节),例如脚踝、膝盖、肩膀、肘部、手腕和肢体方向,主要用于 3D 和 2D 姿势估计。

    这种灵活直观的人体模型包含人体的骨骼结构,经常用捕捉不同身体部位之间关系

  2. 基于轮廓的模型(Contourbased model):称为平面模型,用于二维姿态估计,由身体、躯干和四肢的轮廓和粗略宽度组成。 基本上,它代表人体的外观形状,其中身体部位用人的轮廓的边界矩形显示

    一个著名的例子是主动形状模型(ASM),它采用成分分析(PCA)技术捕获个人图形和轮廓变形

  3. 基于体积的模型(Volume-based model): 也称为体积模型,用于 3D 姿态估计。 它由多个流行的 3D 人体模型和由人体几何网格形状表示的姿势组成,通常用基于深度学习的 3D 人体姿势估计。

在这里插入图片描述

2 基于经典传统和基于深度学习方法

2.1 基于经典传统的人体姿态计算

早期人体姿态估计的经典传统方法在“图结构框架(pictorial structure framework , PSF)”内应用随机森林。 该模型的特点在于引入人体生理结构作为先验知识,人体被预先表示多个具有空间约束的部位,且每个部分都被看作是刚体。即先识别人体身体部位,再识别姿势。
在这里插入图片描述
本质上,PSF 的目标是将人体表示给定输入图像每个身体部位的坐标集合; PSF 使用非线性联合回归器,理想情况下是两层随机森林回归器。

PSF优势在于当输入图像具有清晰可见的肢体时,这些模型效果很好,但是它们无法捕获建模隐藏或从某个角度不可见的肢体。

为了克服这些问题使用了诸如面向直方图高斯(HOG)、轮廓、直方图特征构建方法。 尽管使用了这些方法,但经典模型缺乏准确性、相关性和泛化能力

2.2 基于深度学习的人体姿态估计算法

计算机视觉任务方面,在HPE中,跟其他任务一样,深度卷积神经网络 (CNN) 的出现导致算法效果开启了腾飞模式

  1. CNN 能够给定输入图像提取特征,其精度和准确性比任何其他算法都更高;
  2. CNN泛化能力强(如果给定隐藏层中存在足够数量的节点);
  3. 相比传统经典方法,传统方法中的特征提取模版是人工制作的,人工设计的特征鲁棒性很差,学习到的特征复杂度有限。而且不一定是科学的,光照条件拍摄角度等一变化,可能会导致检测失败

Toshev等人于2014年首次使用CNN来估计人体姿势,从基于经典的方法转向基于深度学习的方法,发布论文名为 DeepPose: Human Pose Estimation via Deep Neural Networks.

作者还提出了另一种方法,他们实现了此类回归器的级联,以获得更精确和一致的结果他们认为,所提出的深度神经网络可以整体方式给定数据进行建模,即网络具有隐藏姿势进行建模能力,这对于经典方法来说是不正确的。

随着深度学习发展,同时也带来了新的挑战,其中之一是解决多人姿态估计。深度学习在估计单人姿态方面很熟练,但是估计多人姿态时却很困难,原因一张图像可以包含多个处于不同位置的人,随着人数的增加,相互之间的相互作用增加导致计算复杂性。计算复杂性的增加通常会导致实时推理时间的增加。

为了解决以上问题引入两个方法:Top Down和Bottom Up

  1. Top Down自顶向下,即先检测每个人的框,再每个人再单独预测关键点;
  2. Bottom Up:自底向上,即先检测所有关键点,再组装成每个
    在这里插入图片描述

OpenPose

是一种自底而上的方法,网络首先检测图像中的身体部位或关键点,然后组装成一个人。OpenPose 使用级联的 CNN 作为主要架构,由 VGG-19 卷积网络组成,用于特征提取

预测分支两个:
1. 第一个分支预测每个身体部位的置信度图;
2. 第二个分支预测部位亲和力场 (Part Affinity Field, PAF),将不同部位关联起来组成一个人。

在这里插入图片描述
OpenPose pipeline如下
在这里插入图片描述

AlphaPose (RMPE)

采用自顶而下的方法,会在预测过程中产生大量定位错误和不准确性。
在这里插入图片描述
例如,上图显示了两个边界框,红色代表实值,而黄色框代表预测边界框。

分类方面,黄色边界框将被视为对人类进行分类的“正确”边界框,即使使用正确”的边界框,也无法估计人体姿势。

AlphaPose 的作者通过两步框架解决了人体检测不完美问题。 在此框架中,他们引入两个网络

对称空间变换网络(SSTN): 有助于在输入裁剪出适当的区域,从而简化分类任务,从而获得更好性能
单人姿势估计器(SPPE): 用于提取和估计人体姿势。

AlphaPose 的目标是通过将 SSTN 附加到 SPPE,从不准确的边界框中提取质量的单人区域。 该方法通过解决不变性问题提高分类性能,同时提供稳定框架来估计人体姿势。
在这里插入图片描述

3 算法应用

动作捕捉三维特效场景
人机交互动作控制手势控制
VR, AR:元宇宙数字人、抖音尬舞机、3D试衣、虚拟主播
肢体语言理解:机场、交警警察手势翻译、手语翻译
摔倒检测、健身、跳舞、球类、武术运动指导、穴位定位
步态分析、识别身份异常动作识别

4 Paper

把一些经典的算法paper列举在下面,供大家参考

  1. DeepPose: Human Pose Estimation via Deep Neural Networks. CVPR, 2014 首个使用深度卷积神经网络实现人体姿态估计, regression方法
  2. Efficient Object Localization Using Convolutional Networks, CVPR, 2015 首个使用heatmap方法
  3. OpenPose 经典多人姿态估计方法, Bottom-Up
  4. RMPE: Regional Multi-person Pose Estimation, 2018 Top-Down
  5. DeepCut: Joint Subset Partition and Labeling for Multi Person Pose Estimation Bottom-Up方法
  6. Mask R CNN 人体检测和关键点检测独立并行, 类似Top-Down方法
  7. Simple Baselines for Human Pose Estimation and Tracking,EECV, 2018
  8. HRNet: Deep High-Resolution Representation Learning for Visual Recognition
  9. RLE: Human Pose Regression with Residual Log-likelihood Estimation

原文地址:https://blog.csdn.net/YYY_77/article/details/134761133

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_50373.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注