本文介绍: 若要进行色度二次采样,则采样格式有三种,A:B:C,A表示一块A*2个像素概念区域,一般都是4。B表示第1行的色度采样数目。:如果在色度分量上进行(相对亮度分量)较低分辨率的采样,也就是存储较多的亮度细节、较少的色度细节,这样就可以在不明显降低画面质量的同时减小图像的体积。采样完成之后,还要考虑YUV三个分量的存储方式每个Y、U、V分别占一个字节,完整的YUV理论上是3字节,24位)录制时的输出信息如下,即录制的视频信息为,分辨率:1280x720,像素格式yuvj422p,帧率:30fps。

前言

测试环境

图片的一些重要知识

RGB图片

颜色的表示方式:如十进制:rgb(64, 224, 208)。十六进制:#40E0D0。

一张图片的理论大小:辨率是60x50,位深度是24。其理论大小为(60**50)*(24/8)=9000B≈8.79KB

YUV图片(原始图片数据,相当于pcm)

YUV比RGB的优势:(1)YUV比RGB的体积小一半。(2)YUV模式可以从黑白电视转为彩色电视过度

Y分量对清晰度影响巨大,所以可以减少UV分量以达到压缩的目的。(眼对亮度的敏感程度要高于对色度的敏感程度,人眼对于亮度的分辨要比对颜色的分辨精细一些)。即色度二次采样:如果在色度分量上进行(相对亮度分量)较低分辨率的采样,也就是存储较多的亮度细节、较少的色度细节,这样就可以在不明显降低画面质量的同时减小图像的体积。

注:YUV和RGB是可以进行转换的,如:

公式一:

Y = 0.257R + 0.504G + 0.098B + 16
U = -0.148R - 0.291G + 0.439B + 128
V = 0.439R - 0.368G - 0.071B + 128
 
R = 1.164(Y - 16) + 2.018(U - 128)
G = 1.164(Y - 16) - 0.813(V - 128) - 0.391(U - 128)
B = 1.164(Y - 16) + 1.596(V - 128)

RGB的取值范围[0,255]
Y的取值范围[16,235]
UV的取值范围[16,239]    

公式二:

Y = 0.299R + 0.587G + 0.114B
U = 0.564(B - Y) = -0.169R - 0.331G + 0.500B
V = 0.713(R - Y) = 0.500R - 0.419G - 0.081B
 
R = Y + 1.403V
G = Y - 0.344U - 0.714V
B = Y + 1.770U
    
RGB的取值范围[0, 1]
Y的取值范围[0, 1]
UV的取值范围是[-0.5, 0.5]    

公式三:

Y = 0.299R + 0.587G + 0.114B
U = -0.169R - 0.331G + 0.500B + 128
V = 0.500R - 0.419G - 0.081B + 128
 
R = Y + 1.403(V - 128)
G = Y - 0.343(U - 128) - 0.714(V - 128)
B = Y + 1.770(U - 128)

RGB的取值范围是[0, 255]
YUV的取值范围是[0, 255]

下面需要重点讲解一下色度二次采样通过何种方式达到高清晰小体积的

采样格式像素格式

若要进行色度二次采样,则采样格式有三种,A:B:C,A表示一块A*2个像素概念区域,一般都是4。B表示第1行的色度采样数目。C表示第2行的色度采样数目(C的值一般要么等于B,要么等于0)。

以下假设YUV每个分量需要1字节

  • 4:4:4 -> yuv444p (8个像素,占24*8位,即24字节,每个像素为24/8=3字节)
  • 4:2:2 -> yuv422p (8个像素,占(24+8)*4位,即16字节,每个像素为16/8=2字节)
  • 4:2:0 -> yuv420p (8个像素,占(16+4*8) *2位,即12字节,每个像素为12/8=1.5字节)

如下是4*2像素的情况下,采样的方式

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

色度二次采样记录每个位置的亮度信息,再记录部分位置的色度信息。结合起来就达到了,尽可能高的分辨率和尽可能大的压缩

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

采样完成之后,还要考虑YUV三个分量的存储方式每个Y、U、V分别占一个字节,完整的YUV理论上是3字节,24位)

YUV数据存储格式(YUV图片相当于pcm图片)

  • Planar平面),Y、U、V分量分开单独存储,以p结尾
  • Semi-Planar(半平面),Y分量单独存储,U、V分量交错存储,以字母sp结尾
  • Packed(紧凑)又叫Interleaved (交错),Y、U、V分量交错存储

yuv42p举例,将样式图按照字节流排列如下(下图应该代表24个像素,因为有24个Y分量)

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

采样格式+存储格式=像素格式

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

命令行其他格式图片转yuv图片

ffmpeg -i 1.png -s 1928x1048 -pixel_format yuv420p out.yuv

yuv转其他图片

ffmpeg -s 1928x1048 -pixel_format yuv420p -i in.yuv out.jpg

命令行播放yuv图片

ffplay -video_size 1928x1048 -pixel_format yuv420p out.yuv

查看ffmpeg支持的像素格式

ffmpeg -pix_fmts | findstr 444

image-20230104145850765

四个分量则是yuva四个分量,a表示透明度

命令行yuv图片转其他格式

ffmpeg -s 564x513 -pix_fmt yuv420p -i out.yuv 1.jpg

命令查看摄像头的相关信息

ffmpeg -h demuxer=dshow		---查看dshow支持的参数
    -video_size:分辨率
    -pixel_format:像素格式
    -framerate:帧率(每秒采集多少帧画面)
    -list_devicestrue表示列出dshow支持的所有设备
    -list_options:true表示列出特定设备支持的所有参数
    
ffmpeg -f dshow -list_options true -i video="Integrated Camera"		---查看摄像头支持的参数摄像头支持的像素格式和默认录制的格式可能不一样)

ffmpeg -f dshow -i video="Integrated Camera" out.yuv    	---使用摄像头录制视频

录制时的输出信息如下,即录制的视频信息为,分辨率:1280×720,像素格式:yuvj422p,帧率:30fps

Input #0, dshow, from 'video=Integrated Camera':
    Stream #0:0: Video: mjpeg, yuvj422p, 1280x720, 30 fps
 
Output #0, rawvideo, to 'out.yuv':
    Stream #0:0: Video: rawvideo, yuvj422p, 1280x720, 30 fps

自定义参数进行摄像头录制

#    
ffmpeg -f dshow -video_size 640x480 -pixel_format yuyv422 -framerate 30 -i video="Integrated Camera" out.yuv		---自定义参数录制视频    
    
#
ffplay -video_size 1280x720 -pixel_format yuvj422p -framerate 30 out.yuv 		---播放摄像头录制的视频  
    -framerate:帧率

音频录制及播放的最基本要素:

  • 分辨率:如1080×720,-video_size
  • 像素格式:即采样格式,如yuvj422p,-pixel_format
  • 帧率:-framerate

注:YUV中没有声音,只有在最基本的图像信息

完整代码

RecordYuvThread.h

#ifndef RECORDYUVTHREAD_H
#define RECORDYUVTHREAD_H

#include <QObject>
#include <QThread>

class RecordYuvThread : public QThread
{
    Q_OBJECT
public:
    explicit RecordYuvThread(QObject *parent = nullptr);
    ~RecordYuvThread();

signals:


    // QThread interface
protected:
    virtual void run() override;
};

#endif // RECORDYUVTHREAD_H

RecordYuvThread.cpp

#include "recordyuvthread.h"

#include <QDebug>
#include <QFile>

extern "C" {
// 设备
#include <libavdevice/avdevice.h>
// 格式
#include <libavformat/avformat.h>
// 工具(比如错误处理
#include <libavutil/avutil.h>
#include <libavutil/imgutils.h>
#include <libavcodec/avcodec.h>
}

#ifdef Q_OS_WIN
    // 格式名称
    #define FMT_NAME "dshow"
    // 设备名称
    #define DEVICE_NAME "video=Integrated Camera"
    // YUV文件
    #define FILENAME "E:/media/out-yuyv422.yuv"
#else
    #define FMT_NAME "avfoundation"
    #define DEVICE_NAME "0"
    #define FILEPATH "/Users/mj/Desktop/out.yuv"
#endif

#define ERROR_BUF(ret) 
    char errbuf[1024]; 
    av_strerror(ret, errbuf, sizeof (errbuf));

RecordYuvThread::RecordYuvThread(QObject *parent) : QThread(parent)
{
    // 当监听线程结束时(finished),就调用deleteLater回收内存
    connect(this,&RecordYuvThread::finished,this,[=](){
        this->deleteLater();
        qDebug()<<"RecordYuvThread线程结束";
    });
}

RecordYuvThread::~RecordYuvThread()
{
    // 断开所有的连接
    disconnect();
    // 内存回收之前,正常结束线程
    requestInterruption();
    // 安全退出
    quit();
    wait();
    qDebug() << this << "析构(内存被回收)";
}

void RecordYuvThread::run()
{
    // 获取输入格式对象
    AVInputFormat *fmt = av_find_input_format(FMT_NAME);
    if (!fmt) {
        qDebug() << "av_find_input_format error" << FMT_NAME;
        return;
    }

    // 格式上下文(将来可以利用上下文操作设备)
    AVFormatContext *ctx = nullptr;

    // 设备参数
    AVDictionary *options = nullptr;
    av_dict_set(&options, "video_size", "640x480", 0);
    av_dict_set(&options, "pixel_format", "yuyv422", 0);
    av_dict_set(&options, "framerate", "30", 0);

//    av_dict_set(&options, "video_size", "1280x720", 0);
//    av_dict_set(&options, "pixel_format", "yuyv422", 0);
//    av_dict_set(&options, "framerate", "10", 0);

    // 打开设备
    int ret = avformat_open_input(&ctx, DEVICE_NAME, fmt, &options);
    if (ret < 0) {
        ERROR_BUF(ret);
        qDebug() << "avformat_open_input error" << errbuf;
        return;
    }

    // 文件
    QFile file(FILENAME);

    // 打开文件
    if (!file.open(QFile::WriteOnly)) {
        qDebug() << "file open error" << FILENAME;

        // 关闭设备
        avformat_close_input(&ctx);
        return;
    }

    // 计算一帧的大小
    AVCodecParameters *params = ctx->streams[0]->codecpar;
    AVPixelFormat pixFmt = (AVPixelFormat) params->format;

    int imageSize = av_image_get_buffer_size(
                        pixFmt,
                        params->width,
                        params->height,
                        1);

//    qDebug() << imageSize;
//    qDebug() << pixFmt << params->width << params->height;
//    qDebug() << av_pix_fmt_desc_get(pixFmt)->name;
//    int pixSize = av_get_bits_per_pixel(av_pix_fmt_desc_get(pixFmt)) >> 3;
//    int imageSize = params->width * params->height * pixSize;

    // 数据包
    AVPacket *pkt = av_packet_alloc();
    while (!isInterruptionRequested()) {
        // 不断采集数据
        ret = av_read_frame(ctx, pkt);

        if (ret == 0) { // 读取成功
            // 将数据写入文件
            file.write((const char *) pkt->data, imageSize);

            // windows:614400
            // mac:615680
            // qDebug() << pkt->size;

            // 释放资源
            av_packet_unref(pkt);
        } else if (ret == AVERROR(EAGAIN)) { // 资源临时不可用
            continue;
        } else { // 其他错误
            ERROR_BUF(ret);
            qDebug() << "av_read_frame error" << errbuf << ret;
            break;
        }
    }

    // 释放资源
    av_packet_free(&pkt);

    // 关闭文件
    file.close();

    // 关闭设备
    avformat_close_input(&ctx);
}

线程调用

void MainWindow::on_pushButton_record_yuv_clicked()
{
    if (!m_bIsRecordYuv) { // 点击了“开始录制”
        // 开启线程
        m_pRecordYuvThread = new RecordYuvThread(this);
        m_pRecordYuvThread->start();

        connect(m_pRecordYuvThread, &RecordYuvThread::finished,[this]() { // 线程结束
            m_pRecordYuvThread = nullptr;
            ui->pushButton_record_yuv->setText("开始录制");
        });

        // 设置按钮文字
        ui->pushButton_record_yuv->setText("结束录制");
        m_bIsRecordYuv=true;
    } 
    else { // 点击了“结束录制”
        // 结束线程
        m_pRecordYuvThread->requestInterruption();
        m_pRecordYuvThread = nullptr;

        // 设置按钮文字
        ui->pushButton_record_yuv->setText("开始录制");
        m_bIsRecordYuv=false;
    }
}

注意:.h文件中提前声明了以下全局变量

	RecordYuvThread *m_pRecordYuvThread=nullptr;
    bool m_bIsRecordYuv=false;

注意:本文为个人记录,新手照搬可能会出现各种问题,请谨慎使用

码字不易,如果这篇博客对你有帮助,麻烦点赞收藏,非常感谢!有不对的地方

原文地址:https://blog.csdn.net/weixin_44092851/article/details/134552591

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

如若转载,请注明出处:http://www.7code.cn/show_4441.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注