美文网首页ffmpeg Android
FFmpeg 视频解码 YUV

FFmpeg 视频解码 YUV

作者: 苍天霸气诀 | 来源:发表于2017-11-05 22:19 被阅读116次

    1,获取所有的组件
    av_register_all();
    2.获取上下文
    AVFormatContext *pContext=avformat_alloc_context();
    把pContext 赋值
    if(avformat_open_input(&pContext, inputStr, NULL, NULL)<0) {
    LOGE("ERROR_CODE %d inputStr %s",avformat_open_input(&pContext, inputStr, NULL, NULL),inputStr)
    LOGE("打开失败 ");
    return;
    }
    2.获取到解码器上下文

    int vedio_stream_idx=-1;
    // 找到视频流
    for (int i = 0; i < pContext->nb_streams; ++i) {
    LOGE("循环 %d", i);
    // codec 每一个流 对应的解码上下文 codec_type 流的类型
    if (pContext->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
    vedio_stream_idx = i;
    }
    }

    // 获取到解码器上下文
    AVCodecContext* pCodecCtx=pContext->streams[vedio_stream_idx]->codec;
    3.读数据
    av_read_frame(pContext, packet)
    注释:
    // 分配内存 malloc AVPacket 1 2
    AVPacket *packet = (AVPacket *) av_malloc(sizeof(AVPacket));
    // 初始化结构体
    av_init_packet(packet);
    4视频节封装 解码
    // 分配内存 malloc AVPacket 1 2
    AVPacket *packet = (AVPacket *) av_malloc(sizeof(AVPacket));
    // 初始化结构体
    av_init_packet(packet);
    //还是不够
    AVFrame *frame = av_frame_alloc();
    // 声明一个yuvframe
    AVFrame *yuvFrame = av_frame_alloc();
    // 给yuvframe 的缓冲区 初始化

    uint8_t  *out_buffer= (uint8_t *) av_malloc
            (avpicture_get_size(AV_PIX_FMT_YUV420P,
                                pCodecCtx->width, pCodecCtx->height));
    
    int re=avpicture_fill((AVPicture *) yuvFrame,
                          out_buffer, AV_PIX_FMT_YUV420P,
                          pCodecCtx->width, pCodecCtx->height);
    LOGE("宽 %d  高 %d",pCodecCtx->width,pCodecCtx->height);
    

    // mp4 的上下文pCodecCtx->pix_fmt
    SwsContext *swsContext=sws_getContext(pCodecCtx->width,pCodecCtx->height,
    pCodecCtx->pix_fmt,
    pCodecCtx->width,
    pCodecCtx->height,AV_PIX_FMT_YUV420P
    ,SWS_BILINEAR,NULL,NULL,NULL
    );
    int frameCount = 0;
    FILE *fp_yuv = fopen(outStr, "wb");

    //packet入参 出参对象 转换上下文
    int got_frame;
    while (av_read_frame(pContext, packet) >= 0) {
    // 节封装

    // 根据frame 进行原生绘制 bitmap window
    avcodec_decode_video2(pCodecCtx, frame, &got_frame, packet);
    // frame 的数据拿到 视频像素数据 yuv 三个rgb r g b 数据量大 三个通道
    LOGE("解码%d ",frameCount++);
    if (got_frame > 0) {
    sws_scale(swsContext, (const uint8_t *const *)
    frame->data, frame->linesize,
    0, frame->height, yuvFrame->data,
    yuvFrame->linesize
    );
    int y_size = pCodecCtx->width * pCodecCtx->height;
    // y 亮度信息写完了
    fwrite(yuvFrame->data[0], 1, y_size, fp_yuv);
    fwrite(yuvFrame->data[1], 1, y_size/4, fp_yuv);
    fwrite(yuvFrame->data[2], 1, y_size/4, fp_yuv);
    }
    av_free_packet(packet);
    }
    方法的解释

    1. int avformat_open_input(AVFormatContext **ps, const char *filename, AVInputFormat *fmt, AVDictionary **options);
      ps:函数调用成功之后处理过的AVFormatContext结构体。
      file:打开的视音频流的URL。
      fmt:强制指定AVFormatContext中AVInputFormat的。这个参数一般情况下可以设置为NULL,这样FFmpeg可以自动检测AVInputFormat。
      dictionay:附加的一些选项,一般情况下可以设置为NULL。
      函数执行成功的话,其返回值大于等于0。

    2.AVCodec *avcodec_find_decoder(enum AVCodecID id);
    函数的参数是一个解码器的ID,返回查找到的解码器(没有找到就返回NULL)。

    3.int av_read_frame(AVFormatContext *s, AVPacket *pkt);
    av_read_frame()使用方法在注释中写得很详细,用中文简单描述一下它的两个参数:
    s:输入的AVFormatContext
    pkt:输出的AVPacket
    如果返回0则说明读取正常。

    4 .

    • @return On error a negative value is returned, otherwise the number of bytes
    • used or zero if no frame could be decompressed.
      */
      int avcodec_decode_video2(AVCodecContext *avctx, AVFrame *picture,
      int *got_picture_ptr,
      const AVPacket *avpkt);
      avcodec_decode_video2()的作用是解码一帧视频数据。输入一个压缩编码的结构体AVPacket,输出一个解码后的结构体AVFrame

    利用ffmpeg进行图像数据格式的转换以及图片的缩放应用中,主要用到了swscale.h文件中的三个函数,分别是:

      struct SwsContext *sws_getContext(int srcW, int srcH, enum AVPixelFormat srcFormat,
                               int dstW, int dstH, enum AVPixelFormat dstFormat,
                               int flags, SwsFilter *srcFilter,
                               SwsFilter *dstFilter, const double *param);
      int sws_scale(struct SwsContext *c, const uint8_t *const srcSlice[],
                     const int srcStride[], int srcSliceY, int srcSliceH,
                   uint8_t *const dst[], const int dstStride[]);
      void sws_freeContext(struct SwsContext *swsContext);
    

    sws_getContext函数可以看做是初始化函数,它的参数定义分别为:
    int srcW,int srcH 为原始图像数据的高和宽;
    int dstW,int dstH 为输出图像数据的高和宽;
    enum AVPixelFormat srcFormat 为输入和输出图片数据的类型;eg:AV_PIX_FMT_YUV420、PAV_PIX_FMT_RGB24;
    int flags 为scale算法种类;eg:SWS_BICUBIC、SWS_BICUBLIN、SWS_POINT、SWS_SINC;
    SwsFilter *srcFilter ,SwsFilter *dstFilter,const double *param 可以不用管,全为NULL即可;

    sws_scale函数则为执行函数,它的参数定义分别为:
    struct SwsContext *c 为sws_getContext函数返回的值;
    const uint8_t *const srcSlice[],uint8_t *const dst[] 为输入输出图像数据各颜色通道的buffer指针数组;
    const int srcStride[],const int dstStride[] 为输入输出图像数据各颜色通道每行存储的字节数数组;
    int srcSliceY 为从输入图像数据的第多少列开始逐行扫描,通常设为0;
    int srcSliceH 为需要扫描多少行,通常为输入图像数据的高度;
    sws_freeContext函数为结束函数,它的参数即为sws_getContext函数返回的值;
    参考雷神的微博
    http://blog.csdn.net/leixiaohua1020/article/category/1360795

    相关文章

      网友评论

        本文标题:FFmpeg 视频解码 YUV

        本文链接:https://www.haomeiwen.com/subject/ttwhmxtx.html